Dopo quasi dieci giorni di guerra in Iran si può fare un primo bilancio sul conflitto in corso in Medio Oriente che coinvolge sempre più Paesi e rischia di diventare una guerra mondiale. Secondo diversi analisti, questo scontro a fuoco non è più una questione legata a “decisioni umane”, ma la situazione è totalmente sfuggita dal controllo delle persone e delle menti dei generali e ora le strategie offensive le decidono le “macchine”. Il segnale è arrivato forte e chiaro dal colosso di intelligenza artificiale Open AI, uno dei massimi dirigenti si è dimesso con queste motivazioni: “Autonomia letale, in guerra non può decidere l’algoritmo”.
Caitlin Kalinowski, l’ingegnere a capo della divisione di robotica di OpenAI che ha appena deciso di lasciare la società di Sam Altman, non ha dubbi su quale strada debba essere percorsa: “L’Ai ha un ruolo importante nella sicurezza nazionale. Ma la sorveglianza dei cittadini americani senza supervisione giudiziaria e l’autonomia letale senza autorizzazione umana – riporta Il Corriere della Sera – sono linee di confine che meritavano una riflessione più approfondita“. Kalinowski si riferisce al contratto firmato dalla sua (ormai ex) azienda con il Pentagono per consentirgli l’uso di ChatGpt dopo che Anthropic, avendo imposto all’esercito Usa dei limiti all’utilizzo del suo modello linguistico Claude, era stata messa da Trump nella lista nera dei fornitori dell’amministrazione Usa.

