Il Pentagono ha appena firmato una serie di accordi per dispiegare strumenti di intelligenza artificiale sulle sue reti classificate.
Nella lista trovi pesi massimi: OpenAI, Google, Microsoft, Nvidia, ma anche Amazon Web Services, SpaceX, xAI e la startup Reflection. L’obiettivo dichiarato è integrare l’IA in usi operativi, con una formula che ricorre negli annunci: “l’uso legale”. Il punto che fa storcere il naso è l’assenza di Anthropic, pur già utilizzata in passato su temi sensibili. Il Dipartimento della Difesa ha mantenuto la sua esclusione qualificandola come “rischio di supply chain”, sullo sfondo di disaccordi sui paletti, in particolare attorno alla sorveglianza interna e alle armi autonome. E qui si tocca il nervo scoperto: chi decide i limiti quando l’IA entra nel militare?
Il Pentagono apre le sue reti classificate a sette laboratori IA
Gli accordi annunciati coprono il dispiegamento di sistemi IA su reti classificate del Department of Defense, con un’integrazione prevista in ambienti chiamati Impact Levels 6 e Impact Levels 7. In pratica, riguarda usi in cui i dati sono altamente sensibili e in cui l’IA è presentata come un acceleratore: sintesi di dati, comprensione situazionale, supporto decisionale su teatri complessi.
L’elenco dei firmatari è ampio, OpenAI, Google, Microsoft, Amazon Web Services, più Nvidia, SpaceX, xAI e Reflection. Questo mix ha senso: i cloud dominanti per ospitare e proteggere, i modelli per elaborare l’informazione, i chip per calcolare in fretta. Un ex responsabile IT della difesa, citato in anonimato, riassume il ragionamento: non puoi industrializzare l’IA sul classificato senza la catena completa, dal data center al modello.
C’è anche una logica di continuità. Microsoft e AWS hanno già relazioni profonde con il Pentagono, non è un salto nel buio. L’arrivo di Nvidia e di Reflection è invece più nuovo in questo tipo di annuncio, e mostra che la posta non è solo software. Senza capacità di calcolo, le promesse di IA restano un dimostratore, non uno strumento operativo.
Anthropic esclusa dopo un conflitto sulla clausola any lawful purpose
L’assenza di Anthropic non è un dettaglio, perché l’azienda ha già lavorato su temi classificati. Il Pentagono l’ha tuttavia messa da parte, designandola come rischio di supply chain. Dietro questa formula c’è un rapporto di forza: il ministero vuole tenere la mano sulle condizioni d’impiego, e Anthropic ha contestato termini giudicati troppo larghi, in particolare la possibilità di usare la tecnologia per qualunque scopo legale.
Il disaccordo riguarda i paletti, con preoccupazioni avanzate da Anthropic su scenari come la sorveglianza domestica o armi autonome senza supervisione umana. Il Pentagono, dal canto suo, batte sull’idea di un uso lawful, il che, in altre parole, rimanda alla legalità più che a una carta etica redatta da un fornitore. In un’audizione, il segretario alla Difesa Pete Hegseth ha persino paragonato la situazione a un industriale che venderebbe un prodotto dettando poi i bersagli autorizzati.
Questo braccio di ferro ha un effetto immediato, ridistribuisce le carte del mercato pubblico IA. Un’analista in politiche tecnologiche, Marc D., nota che la clausola “lawful” diventa una norma contrattuale, e chi rifiuta rischia di perdere l’accesso agli ambienti più redditizi. La sfumatura è che sicurezza e fiducia sono anche argomenti commerciali, e l’esclusione di Anthropic può alimentare un dibattito pubblico sulla governance, anziché chiuderlo.
OpenAI, Google, Microsoft e Nvidia si posizionano sull’IA militare
Per le aziende selezionate, l’interesse è doppio, finanziario e strategico. Essere convalidati per usi classificati è un’etichetta di robustezza: sicurezza, conformità, capacità di integrazione. E per il Pentagono, moltiplicare i fornitori riduce il rischio di dipendenza da un unico attore. Negli annunci, l’ambizione è costruire una forza AI-first, con una promessa centrale, la superiorità decisionale grazie a strumenti capaci di trattare volumi di informazioni impossibili da assorbire umanamente.
Concretamente, l’IA può servire a riassumere rapporti, incrociare flussi, individuare incoerenze o accelerare la preparazione di briefing. Gli ambienti classificati impongono anche vincoli, niente invio di dati sensibili su servizi pubblici. Qui gli accordi aprono la porta a deployment controllati, su reti interne, con requisiti di sicurezza rafforzati. Un ingegnere che lavora su architetture cloud governative, Marc L., ricorda un punto spesso dimenticato: la sfida non è far rispondere un chatbot, è tracciare, auditare e limitare ciò che vede.
Resta una critica, il concetto di “uso legale” è ampio, e la legge non è un manuale tecnico. Tra l’intenzione politica e l’implementazione ci sono compromessi: quali log, quali controlli umani, quali limiti sulle uscite del modello. Le firme con OpenAI, Google, Microsoft e Nvidia mostrano un’accelerazione, ma spostano la questione centrale sull’esecuzione: chi sorveglia, chi valida e chi si assume la responsabilità quando lo strumento influenza una decisione operativa.
Fonti
- Pentagon strikes classified AI deals with OpenAI, Google, and Nvidia
- Pentagon reaches deal with leading AI companies for classified work
- Pentagon excludes Anthropic from AI deals over safety disputes
- Pentagon reaches agreements with top AI companies, but not …
- Pentagon inks deals with seven AI companies for classified …





