Fondato nel 1996 da Angelo Maria Perrino
Direttore responsabile Marco Scotti

Home » Economia » Che cos’è Anthropic e perché gli Usa hanno deciso di sfruttare la tecnologia per colpire l’Iran

Che cos’è Anthropic e perché gli Usa hanno deciso di sfruttare la tecnologia per colpire l’Iran

Che cos’è Anthropic e perché gli Usa hanno deciso di sfruttare la tecnologia per colpire l’Iran
Intelligenza Artificiale

Anthropic e i rapporti con gli Usa

Anthropic è una azienda americana di intelligenza artificiale fondata da ex ricercatori di OpenAI, famosa per lo sviluppo di Claude, un modello avanzato di AI concepito per l’elaborazione del linguaggio naturale. Claude ha versioni specifiche pensate per uso governativo e di sicurezza, come “Claude Gov”, ed è utilizzato- con restrizioni- da diverse agenzie statunitensi per analisi di intelligence, sintesi di documenti e supporto decisionale in contesti sensibili, compresi scenari di difesa nazionale.

Negli ultimi mesi la relazione tra Anthropic e il governo Usa si è incrinata gravemente. Secondo fonti statunitensi, la società ha firmato nel 2025 un contratto di circa 200 milioni di dollari con il Pentagono per lo sviluppo di capacità AI a supporto della sicurezza nazionale. Tuttavia, l’azienda ha messo dei paletti etici molto chiari: si è opposta all’uso dei suoi strumenti per sorveglianza di massa e per armi autonome senza supervisione umana.

Questa posizione ha portato a un conflitto pubblico con l’amministrazione di Donald Trump e il Dipartimento della Difesa. Il governo ha chiesto ad Anthropic di rimuovere queste restrizioni e permettere un uso “senza limiti” delle sue tecnologie per fini militari. Dopo settimane di discussioni, il Presidente Trump ha annunciato un ordine che impone a tutte le agenzie federali di interrompere “immediatamente” l’utilizzo della tecnologia di Anthropic, definendo l’azienda un potenziale rischio per la sicurezza nazionale e criticandone pubblicamente l’atteggiamento.

Nonostante questo divieto annunciato esternamente, la tecnologia di Anthropic è rimasta operativa nelle strutture militari statunitensi per un periodo di transizione (che può durare mesi) e, secondo il Wall Street Journal, sarebbe stata utilizzata dal Comando Centrale USA (CENTCOM) anche durante le recenti operazioni militari contro l’Iran. In quell’operazione, Claude sarebbe stato impiegato per elaborare valutazioni di intelligence, identificare obiettivi e simulare scenari di battaglia, funzioni che mostrano quanto questi strumenti siano ormai integrati nella pianificazione di operazioni complesse.

La controversia esplode perché l’uso di queste tecnologie, pur essendo approvato per certi compiti, va oltre le aspettative di molti osservatori e persino dei dirigenti dell’azienda stessa, che temono che l’AI possa essere indirettamente coinvolta in attività militari più delicate se non accompagnata da garanzie di supervisione umana e limiti etici chiari.

Dopo la rottura con Anthropic, OpenAI ha firmato un nuovo accordo con il Pentagono per fornire i suoi modelli AI, con clausole che la stessa società afferma includano limiti espliciti su sorveglianza domestica, controllo di sistemi d’arma autonomi e decisioni automatizzate ad alto rischio.

In sintesi: Anthropic è stata coinvolta nella più recente offensiva militare USA‑Israele contro l’Iran tramite l’impiego della sua AI Claude per supportare funzioni di intelligence e pianificazione, nonostante una disputa pubblica con l’amministrazione Usa sul possibile uso militare della tecnologia stessa. Questo episodio ha messo in evidenza il ruolo crescente dell’intelligenza artificiale nelle operazioni di guerra moderne e i relativi dilemmi etici e politici legati al suo impiego.

LEGGI LE NOTIZIE DEL CANALE ECONOMIA