Il 9 marzo 2026, Anthropic ha depositato due cause federali contro il Dipartimento della Difesa degli Stati Uniti, innescando uno dei contenziosi più delicati nella storia recente del rapporto tra big tech e governo americano. Al centro della disputa c’è una questione apparentemente semplice: chi decide come si usa un modello di intelligenza artificiale? L’azienda che lo ha costruito, con i propri valori etici incorporati nel prodotto, oppure il governo che lo ha adottato e che pretende di usarlo senza limitazioni?
Il nodo nasce dal rifiuto di Anthropic di rimuovere dai contratti con il Dipartimento della Difesa i vincoli contro sorveglianza di massa interna e armi letali autonome, vincoli che l’azienda sostiene fossero già presenti nei suoi accordi governativi. Dopo il fallimento delle trattative, il Pentagono ha etichettato la società come supply chain risk, una designazione che non era mai stata applicata prima a un’azienda americana e che rischia di tagliare Anthropic fuori da una parte importante del business pubblico e parapubblico.
Questa decisione ha immediatamente bloccato l’accesso di tutti gli enti federali e dei loro fornitori agli strumenti di Anthropic, incluso Claude, il modello di punta dell’azienda. A differenza di Anthropic, OpenAI ha in seguito accettato di mettere la propria tecnologia a disposizione per qualsiasi uso lecito, inserendo però nel contratto alcune tutele tecniche contro la sorveglianza di massa.
Anthropic, da partner strategico a rischio per la sicurezza
Per capire come si sia arrivati a questo punto, è utile ricostruire la sequenza degli eventi. Anthropic non era un fornitore qualsiasi: dal 2024 era il primo — e per un certo periodo l’unico — sviluppatore di AI avanzata ad aver ottenuto l’autorizzazione per operare nei sistemi classificati del Dipartimento della Difesa.
Claude veniva impiegato per analizzare enormi quantità di dati di intelligence ed era attivamente utilizzato in operazioni militari. La frattura è maturata attorno alle condizioni contrattuali. Il segretario alla Difesa Pete Hegseth ha chiesto ad Anthropic di rimuovere due specifiche restrizioni d’uso: il divieto di impiegare l’IA in sistemi d’arma letali completamente autonomi e quello relativo alla sorveglianza di massa dei cittadini americani.
Anthropic ha risposto che quelle clausole erano presenti fin dall’inizio nei contratti governativi e ha rifiutato di eliminarle, avanzando però proposte di compromesso. I negoziati sono andati avanti per mesi, fino a quando il 27 febbraio 2026 la Casa Bianca ha bruscamente cambiato registro.
Trump ha ordinato via social media a tutte le agenzie federali di cessare l’uso di Claude, mentre Hegseth ha formalizzato la designazione di “supply chain risk” il 3 marzo. La portavoce della Casa Bianca, Liz Huston, ha definito Anthropic una «radical left, woke company» che tenta di controllare l’attività militare — una caratterizzazione che l’azienda ha fermamente respinto, invocando la violazione del Primo Emendamento.
Il paradosso del ban di Anthropic: Claude vola negli App Store
Chi si aspettava un crollo immediato per Anthropic ha dovuto ricredersi in fretta. Mentre la Casa Bianca annunciava il ban, il pubblico reagiva subito dopo in modo del tutto opposto: scaricando l’app di Claude in massa.
In pochi giorni, Claude è balzato in cima all’App Store americano, scalzando ChatGPT dalla posizione che occupava stabilmente da tempo. In Italia il modello di Anthropic ha raggiunto il quinto posto, mentre la presenza nella top-10 produttività si è estesa a oltre 100 paesi. Sui social, post con frasi come “sto cancellando ChatGPT” si sono moltiplicati su X, Reddit e Instagram.
Il motivo è in parte legato ai valori percepiti: il rifiuto di Anthropic di cedere alle pressioni militari ha trasformato Claude in una sorta di simbolo di scelta etica, capace di attrarre chi non condivideva la direzione presa da OpenAI con il suo accordo al Dipartimento della Difesa.
Il quadro complessivo è quindi più articolato di quanto le previsioni pessimistiche lasciassero intuire: la perdita di contratti governativi è reale e pesante, ma la visibilità guadagnata sul fronte consumer ha aperto un canale di crescita che nessuna campagna marketing avrebbe potuto generare con la stessa velocità.
Nel frattempo anche Google, Amazon, Meta e Microsoft hanno confermato che continueranno a usare i servizi di Anthropic. Se da un lato questo attenua l’impatto immediato sul business di Anthropic, dall’altro non cancella l’incertezza che grava sulle trattative in corso.
Una causa che può diventare un precedente per tutta l’AI
Con le due cause depositate — una nel distretto nord della California, l’altra nel circuito d’appello di Washington D.C. — Anthropic punta a far dichiarare la designazione incostituzionale e a ottenerne l’immediata revoca. L’azienda non chiede risarcimenti economici: la posta in gioco è politica e simbolica, oltre che commerciale.
Stiamo assistendo al primo vero banco di prova della tensione tra la logica della sicurezza nazionale — che tende a voler rimuovere ogni limite — e quella della responsabilità tecnologica, che invece sui limiti costruisce la propria credibilità. Qualunque sia l’esito del processo, il caso Anthropic impone una domanda su chi, in ultima istanza, debba avere l’ultima parola sull’uso dell’intelligenza artificiale nei contesti ad alto rischio.











