È in corso uno scontro molto duro tra Anthropic e il governo americano (soprattutto il Dipartimento della difesa americano e lo stesso Donald Trump) in cui è coinvolta anche OpenAI. Il problema è l’uso che Trump e il Pentagono vogliono fare dell’AI: gli scopi militari e di sorveglianza anche dei cittadini americani (per tacer di tutto il resto del mondo). Abbiamo cercato di riassumere al massimo le notizie confermate finora, non le dicerie.
L’accordo da 200 milioni e le due clausole proibite
Nell’ultima settimana di febbraio 2026 l’amministrazione Trump ha definito Anthropic una “minaccia alla sicurezza nazionale“: una designazione che fino a quel momento era stata riservata esclusivamente ad aziende straniere come Huawei e Kaspersky. Il motivo è una disputa contrattuale con il Pentagono che ha radici nel luglio 2025, quando Anthropic aveva firmato un accordo da circa 200 milioni di dollari per integrare il suo modello di intelligenza artificiale Claude negli ambienti classificati dell’apparato di difesa, attraverso una partnership con Palantir.
Dall’inizio, il contratto conteneva due clausole restrittive: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e per sistemi d’arma privi di supervisione umana. Le ultime settimane di febbraio hanno visto il Pentagono pretendere la rimozione di entrambe, chiedendo accesso per “tutti gli usi legittimi”.
Il segretario alla Difesa Pete Hegseth ha convocato il ceo di Anthropic, Dario Amodei, il 24 febbraio imponendo un ultimatum: accettare entro le 17:01 di venerdì 27 febbraio oppure affrontare conseguenze che includevano la designazione dell’azienda come “supply chain risk” e l’eventuale ricorso al Defense Production Act per forzarne l’adesione.
Il 26 febbraio Anthropic ha dichiarato che le proposte ricevute non erano accettabili perché accompagnate da clausole capaci di aggirare le salvaguardie contrattuali. Amodei ha risposto pubblicamente con una frase diventata subito riferimento del dibattito: non era possibile accettare in buona coscienza.
| Attore | Posizione | Conseguenze |
|---|---|---|
| Anthropic | Rifiuto di clausole che permettano sorveglianza di massa e uso dell’AI per armi autonome | Designazione come “supply chain risk” e possibile impatto sui contratti con il Pentagono e clienti governativi |
| OpenAI | Accordo con il Pentagono con salvaguardie tecniche e limitazioni sull’uso militare | Collaborazione consentita entro perimetri legali e tecnici, senza clausole giuridicamente vincolanti simili a quelle richieste da Anthropic |
| Governo Trump | Pressione per rimuovere limiti all’uso militare e di sorveglianza dell’AI; classificazione di Anthropic come rischio | Strumento negoziale e politico che potrebbe ridisegnare il rapporto tra aziende AI e difesa |
| Palantir Technologies | Partner tecnologico nelle applicazioni militari e di analisi dati | Ruolo centrale nell’integrazione dell’AI nei sistemi classificati e nelle strategie di analisi |
Trump, il bando e la contraddizione del Pentagono
Circa un’ora prima della scadenza, il 27 febbraio, Trump ha scritto sul suo social Truth che la direzione di Anthropic aveva commesso un “errore disastroso” e ha ordinato a ogni agenzia federale di cessare immediatamente l’uso dei prodotti Anthropic, con un periodo di transizione di sei mesi.
Hegseth ha quindi applicato la designazione di “supply chain risk“: chiunque lavori con il Pentagono deve ora dimostrare di non avere rapporti commerciali con Anthropic, il che potrebbe erodere una parte rilevante della sua base clienti.
Il Center for American Progress ha sottolineato la contraddizione interna alla posizione del Pentagono: se Anthropic costituisce un rischio per la sicurezza, va espulsa dai sistemi militari; ma se Claude è così essenziale da giustificare il Defense Production Act per costringere l’azienda a fornirlo, allora non è un rischio. Le due affermazioni non possono essere vere simultaneamente. La designazione appare dunque come uno strumento di pressione negoziale.
OpenAI firma, ma le “linee rosse” sono diverse
Poche ore dopo il bando, Sam Altman ha annunciato che OpenAI aveva raggiunto un accordo con il Pentagono. Il comunicato ufficiale del 28 febbraio elenca tre limitazioni: nessuna sorveglianza domestica di massa, nessun sistema d’arma autonomo, nessuna decisione automatizzata ad alto rischio. Le stesse, almeno all’apparenza, che Anthropic aveva preteso. La differenza è nel tipo di vincolo: Anthropic aveva richiesto clausole contrattuali esplicite con forza giuridica vincolante, mentre OpenAI ha inserito le medesime limitazioni come salvaguardie tecniche interne al modello e come riferimenti alla legislazione vigente.
Il contratto con OpenAI permette l’uso del sistema per “tutti gli scopi legittimi, coerenti con la legge vigente e i protocolli di supervisione consolidati“. Se un operatore del Pentagono trovasse un modo per aggirare i filtri tecnici del modello, tecnicamente non violerebbe alcuna clausola contrattuale. Con il contratto di Anthropic, la stessa azione sarebbe stata una violazione giuridica indipendentemente dal funzionamento dei filtri. La differenza è sostanziale, soprattutto perché in ambiente militare il controllo operativo della rete spetta al governo, e l’asimmetria informativa è enorme.
Armi autonome e sorveglianza: cosa c’è in gioco
Un dettaglio riportato da Axios rende il quadro più preciso: proprio mentre Hegseth annunciava la designazione di Anthropic, il funzionario Emil Michael offriva all’azienda un accordo che prevedeva la raccolta e l’analisi di dati sui cittadini americani, inclusi geolocalizzazione, dati di navigazione web e informazioni finanziarie acquistate da broker.
Il Pentagono aveva in mente usi specifici che le clausole di Anthropic avrebbero bloccato in modo inequivocabile e che nell’architettura accettata da OpenAI ricadono invece in una zona grigia.
Sul fronte delle armi autonome, il dibattito tecnico e giuridico va avanti da almeno un decennio. I sistemi già in uso, dai droni con targeting automatico alle munizioni programmabili, mostrano un livello di automazione avanzato. L’introduzione dei grandi modelli linguistici e dei sistemi di visione artificiale di nuova generazione non è soltanto una rivoluzione tecnologica: cambia scala e granularità di questa autonomia.
La differenza fondamentale è che, diversamente dai parametri rigidi del targeting convenzionale, nei nuovi sistemi l’AI può ragionare su contesti ambigui e integrare fonti eterogenee. Il diritto internazionale umanitario si fonda su principi come la distinzione tra combattenti e civili e la proporzionalità nell’attacco, principi che presuppongono un soggetto capace di rispondere delle proprie azioni; quando la decisione letale viene delegata a un algoritmo, questa catena di responsabilità si spezza in un punto difficile da individuare. Chi è colpevole? L’ordine dell’ufficiale, l’azione del soldato o la “decisione” presa dall’AI? Nell’ultimo caso, gli esseri umani come possono essere considerati responsabili?
Un precedente che pesa
Le trattative all’Onu nell’ambito delle convenzioni sulle armi convenzionali procedono in forma di dibattito informale dal 2014, senza approdare a un mandato negoziale formale. Le principali potenze militari, Stati Uniti, Russia e Cina, hanno resistito sistematicamente a qualunque regolamentazione vincolante.
Quel che è accaduto in febbraio fissa comunque un precedente: le aziende che impongono vincoli giuridici sull’uso militare dei propri prodotti vengono punite. Chi fa valere condizioni contrattuali rischia di essere classificato come minaccia alla sicurezza nazionale. Anthropic, peraltro, non è estranea al sistema che critica: era già coinvolta in simulazioni di battaglia e valutazioni su scenari geopolitici classificati. In pochi, di fronte a questo precedente, sceglieranno la stessa strada.
Alcune fonti di questo articolo:
- https://www.lindipendente.online/2026/02/25/anthropic-mette-da-parte-la-sicurezza-dellia-in-favore-dei-risultati/
- https://it.insideover.com/tecnologia/etica-guerra-ia-cosa-succede-tra-anthropic-e-il-pentagono.html/
- https://it.euronews.com/next/2026/02/25/perche-anthropic-e-gli-usa-sono-ai-ferri-corti-su-un-contratto-militare

