
Google tratta con il Pentagono per portare Gemini in ambienti classificati: così l’intelligenza artificiale entra nella catena decisionale della guerra.
Google sta negoziando con il Dipartimento della Difesa americano un accordo che permetterebbe al Pentagono di portare i modelli Gemini dentro ambienti classificati. Sul tavolo c’è un punto che conta più del titolo: l’uso sarebbe consentito per “tutti gli usi leciti”, ma Google starebbe cercando di infilare nel contratto una clausola per impedire impieghi legati alla sorveglianza di massa domestica e alle armi autonome senza controllo umano appropriato.
Tradotto: la Silicon Valley non si limita più a fornire strumenti d’ufficio ai governi. Sta trattando le condizioni con cui i suoi modelli possono entrare nelle zone più sensibili della macchina militare. E quando un modello entra in una rete classificata, cambia il terreno. Non stiamo più parlando di chatbot per riassumere email o scrivere verbali. Stiamo parlando di software che può assistere l’analisi, sintetizzare intelligence, velocizzare procedure e finire a ridosso delle decisioni operative.
Il salto non nasce oggi. Google era già dentro la porta. Il 9 dicembre 2025 Google Cloud aveva annunciato che il Chief Digital and Artificial Intelligence Office aveva scelto Gemini for Government come prima AI enterprise su GenAI.mil, la piattaforma destinata a circa 3 milioni di dipendenti civili e militari del Dipartimento. In quel caso il perimetro dichiarato era quello dei processi non classificati: onboarding, compliance, contratti, gestione documentale, produttività interna. Roba già enorme, ma ancora venduta come amministrazione intelligente.
Adesso il punto è un altro: portare Gemini nelle reti classificate. E lì finiscono le presentazioni patinate sulla “produttività”. Comincia il capitolo in cui il modello lavora accanto ai flussi più delicati dello Stato. È il passaggio che rende improvvisamente molto concreto ciò che finora sembrava un pezzo di marketing governativo. Chi segue la corsa delle Big Tech all’intelligenza artificiale sa già che il vero affare non è l’assistente per scrivere meglio. È diventare infrastruttura.
Il Pentagono stava spingendo le principali aziende AI a rendere disponibili i loro strumenti su reti classificate con meno restrizioni rispetto a quelle normalmente applicate agli utenti commerciali. Nello stesso report si spiegava che questi sistemi possono essere impiegati in attività sensibili come la pianificazione delle missioni o il supporto al targeting, e che il nodo centrale è sempre lo stesso: i modelli sono rapidi, utili, impressionanti; ma sbagliano, inventano, e in certi contesti un errore non si corregge con un tasto “rigenera”.
Qui il problema non è tecnico nel senso stretto del termine. È politico e contrattuale. Chi decide i limiti? L’azienda che costruisce il modello? Il governo che lo compra? Il comando che lo usa? Google, secondo il report, sta cercando di mettere in chiaro almeno due linee rosse. Ma proprio questa precauzione racconta il punto: se c’è bisogno di scriverlo in contratto, vuol dire che l’uso militare esteso non è più una paranoia da dibattito accademico. È una trattativa in corso.
Ogni volta che una Big Tech entra in questi ambienti, vende tre cose insieme: modello, cloud e dipendenza operativa. Il valore non sta soltanto in Gemini. Sta nel fatto che il modello arriva con l’intero pacchetto: sicurezza, compliance, infrastruttura, gestione dei dati, interfacce, integrazione. È la stessa logica che abbiamo già visto quando si parla di potere, tecnologia e controllo: chi possiede il livello operativo più profondo smette di essere un semplice fornitore e diventa parte del meccanismo.
Per questo il caso Google-Pentagono pesa più del solito annuncio governativo. Segna un altro passo nella trasformazione delle Big Tech in contraenti strutturali del potere pubblico. E nel frattempo allarga ancora il confine della guerra automatizzata: non necessariamente una guerra fatta da robot che sparano da soli, ma una guerra preparata, filtrata, accelerata, classificata e gestita da modelli statistici addestrati altrove. Se vuoi capire dove può portare questa traiettoria, vale la pena rileggere anche il rapporto fra war game, intelligenza artificiale e potere.
Quando una Big Tech tratta per portare i suoi modelli nelle reti classificate del Pentagono, non sta vendendo una funzione. Sta negoziando il suo posto dentro la catena decisionale della forza.