La settimana scorsa ha messo in scena uno degli scontri più emblematici della storia recente dell’intelligenza artificiale. Da una parte il Dipartimento della Difesa americano, con tutta la sua forza istituzionale e le sue minacce. Dall’altra Anthropic, l’azienda che sviluppa il modello di AI Claude, ferma su due principi che considera non negoziabili.
Il Pentagono pretendeva accesso illimitato a Claude per qualsiasi uso legale, inclusi la sorveglianza di massa dei cittadini americani e lo sviluppo di armi autonome letali prive di supervisione umana. Il CEO Dario Amodei ha risposto con una frase destinata ad essere ricordata: “we cannot in good conscience accede to their request “.
La vicenda non riguarda solo un contratto da 200 milioni di dollari o le politiche di utilizzo di un modello AI. Tocca qualcosa di molto più profondo: chi decide come vengono usate le tecnologie più potenti del pianeta, e secondo quali valori?
La dichiarazione di Anthropic
Dario Amodei, CEO di Anthropic, ha rilasciato una dichiarazione ufficiale in merito al teso confronto in atto con il Dipartimento della Guerra degli Stati Uniti.
Nello statement pubblicato il 26 febbraio 2026 sul sito di Anthropic, Amodei apre ricordando che Anthropic non è un’azienda ostile alla difesa nazionale — al contrario. È stata la prima azienda AI di frontiera a dispiegare i propri modelli nelle reti classificate del governo americano, la prima ai Laboratori Nazionali, e la prima a fornire modelli personalizzati per clienti della sicurezza nazionale.
Ha persino rinunciato a centinaia di milioni di dollari di ricavi pur di bloccare l’accesso a Claude da parte di aziende legate al Partito Comunista Cinese, alcune delle quali designate dal Dipartimento della Difesa come società militari cinesi.
Detto questo, Amodei traccia due linee che non intende attraversare. La prima riguarda la sorveglianza di massa domestica: l’AI rende oggi possibile assemblare automaticamente dati sparsi — movimenti, navigazione web, associazioni — in un profilo completo di qualsiasi cittadino, senza mandato, su scala enorme. Nessuna legge ha ancora regolamentato questa capacità, e Anthropic non intende anticiparla nel senso sbagliato.
La seconda linea riguarda le armi completamente autonome, quelle che tolgono del tutto l’umano dalla catena decisionale. Non perché siano concettualmente inaccettabili in assoluto — Amodei lascia aperta quella porta per il futuro — ma perché i modelli attuali non sono abbastanza affidabili per decisioni letali senza supervisione.
L’offerta di collaborare con il Dipartimento della Difesa in attività di R&D per migliorare quella affidabilità era sul tavolo. Il Pentagono non l’ha accettata. Amodei chiude dichiarando che Anthropic preferisce continuare a servire le forze armate americane, con le due salvaguardie in vigore, una dichiarazione che non sbatteva la porta, ma che non cedeva di un centimetro.
Come si è arrivati allo scontro aperto
Per capire il contenzioso bisogna partire dall’estate del 2025, quando il Pentagono assegnò contratti fino a 200 milioni di dollari ciascuno a quattro aziende — Anthropic, OpenAI, Google DeepMind e xAI di Elon Musk — per sviluppare capacità di AI avanzata a supporto della sicurezza nazionale.
Claude era l’unico modello approvato per i sistemi classificati, dispiegato attraverso la piattaforma Palantir. Le cose si complicarono il 3 gennaio 2026, quando gli Stati Uniti condussero un’operazione militare in Venezuela per rimuovere Nicolás Maduro dal potere.
Secondo il Wall Street Journal, il Dipartimento della Difesa usò Claude durante quell’operazione. Questo spinse i dirigenti di Anthropic a chiedere spiegazioni precise su come il modello fosse stato impiegato. La reazione del segretario alla Difesa Pete Hegseth fu immediata e stizzita: dichiarò che il Pentagono non avrebbe usato modelli AI “che non ti permettono di fare la guerra”.
Il 9 gennaio, Hegseth firmò il memo “Artificial Intelligence Strategy For the Department of War”, imponendo che tutti i contratti AI futuri includessero una clausola di accesso per qualsiasi uso legale, senza restrizioni legate alle policy aziendali. Da quel momento, il conflitto con Anthropic divenne inevitabile.
Le minacce del Pentagono
Il Pentagono non si è limitato a fare pressione diplomatica. Hegseth ha convocato Amodei alla Casa Bianca, intimandogli di cedere entro venerdì 27 febbraio alle 17:01 ora della costa est. Le possibili conseguenze erano tre:
- La cancellazione del contratto: fine immediata del rapporto commerciale con il Dipartimento della Difesa.
- La designazione di Anthropic come “supply chain risk”. Un’etichetta normalmente riservata ad aziende considerate estensioni di governi avversari, mai applicata prima a un’azienda americana.
- L’eventuale invocazione del Defense Production Act del 1950, che avrebbe teoricamente permesso al governo di requisire la tecnologia.
Amodei ha risposto sottolineando la contraddizione interna a queste minacce: come può un’azienda essere contemporaneamente un rischio per la sicurezza nazionale e una risorsa essenziale per quella stessa sicurezza?
La posizione di Google, OpenAI e X.ai
OpenAI è stata la più esplicita nel supportare Anthropic. Sam Altman ha dichiarato in un’intervista su CNBC che non crede il Pentagono dovesse minacciare le aziende AI con il Defense Production Act. Ha aggiunto: “For all the differences I have with Anthropic, I mostly trust them as a company and I think they really do care about safety.” In una nota interna ai dipendenti ha scritto che OpenAI stava lavorando per aiutare a de-escalare la situazione, e un portavoce ha confermato che la società condivide le stesse linee rosse su sorveglianza di massa e armi autonome.
xAI di Elon Musk ha fatto l’esatto opposto: aveva già firmato un contratto con il Pentagono per dispiegare Grok nei sistemi classificati, apparentemente senza nessuna restrizione. Nei documenti viene descritta come un’azienda che attendeva l’opportunità con entusiasmo. Un funzionario del Pentagono ha confermato che Grok è disponibile per l’uso in ambienti classificati, anche se viene giudicato meno avanzato di Claude.
Google DeepMind e Gemini hanno mantenuto un profilo più basso. Non c’è stata nessuna dichiarazione ufficiale. Il Chief Scientist Jeff Dean si è espresso a titolo personale su X contro la sorveglianza di massa, scrivendo che viola il Quarto Emendamento. Nel frattempo, Gemini era già in uso presso il Dipartimento della Difesa attraverso la piattaforma GenAI.mil per attività non classificate, e Google stava negoziando un accesso per sistemi classificati.
Le conseguenze del diniego di Anthropic
Scaduto il termine, Trump ha ordinato a ogni agenzia federale di cessare immediatamente l’uso della tecnologia Anthropic, con un periodo di transizione di sei mesi per i contesti operativi critici come il Pentagono.
Hegseth ha ufficializzato la designazione di “supply chain risk” per Anthropic , specificando che nessun contraente, fornitore o partner del Dipartimento della Difesa potrà più fare affari con Anthropic. L’azienda ha risposto annunciando l’intenzione di impugnare la designazione in tribunale, definendola priva di basi legali e pericolosa come precedente.
Dal punto di vista finanziario, perdere 200 milioni di contratto non è esistenziale per un’azienda valutata intorno ai 380 miliardi di dollari. Il vero rischio è la designazione stessa: molti dei grandi clienti enterprise di Anthropic potrebbero avere — o ambire a — contratti con il governo federale, e la prospettiva di dover scegliere tra i due potrebbe erodere una quota considerevole del business.
Un precedente che ridefinisce le regole
Quello che è accaduto tra Anthropic e il Pentagono non è solo una disputa contrattuale. È un test su una domanda che definirà i prossimi anni: quando un’azienda privata sviluppa tecnologie che diventano infrastruttura critica per la sicurezza nazionale, chi ne controlla davvero l’uso?
Il Pentagono ha un punto legittimo quando dice che non vuole dover chiedere permesso a un’azienda privata durante un’operazione in corso. Il problema è che il modo in cui lo ha espresso — minacce pubbliche, etichette da nemico esterno, un ultimatum alle 17:01 — ha trasformato una negoziazione contrattuale in uno scontro politico. Una scelta che ha danneggiato entrambe le parti.
Intanto nelle prime ore del mattino, USA e Israele hanno lanciato un attacco militare congiunto contro l’Iran, denominato “Operation Epic Fury” dal Pentagono e “Operation Shield of Judah” da parte israeliana. Nel frattempo, mentre Teheran bruciava e le sirene suonavano in tutto Israele, OpenAI annunciava di aver raggiunto un accordo con il Dipartimento della Difesa per dispiegare i propri modelli nelle reti classificate americane — le stesse reti da cui Anthropic era stata appena cacciata. Due notizie che lette insieme, raccontano la stessa storia: chi controlla l’intelligenza artificiale in tempo di guerra, e a quali condizioni.
La vicenda Anthropic ci mostra che il modello di rapporto tra governo e industria AI non ha ancora trovato una forma stabile. Il vero problema è l’assenza totale di un quadro normativo condiviso che stabilisca in anticipo cosa un governo può e non può chiedere a un’azienda AI con cui collabora. Senza quelle regole, ogni contratto diventa un campo di battaglia.











