Le domande da porsi sul rapporto tra intelligenze artificiali e guerra
- Postato il 13 marzo 2026
- Di Il Foglio
- 2 Visualizzazioni
Le domande da porsi sul rapporto tra intelligenze artificiali e guerra
Come se la cavano le intelligenze artificiali in guerra? È una domanda che vale la pena porsi, visto lo scontro in corso tra Anthropic, l’azienda che sviluppa il chatbot Claude, e il Dipartimento della Difesa (o della Guerra, come preferisce essere chiamato ora) statunitense. Negli ultimi giorni, il Pentagono ha più volte attaccato l’azienda, accusandola di essere “woke” e addirittura un “rischio per la supply chain”, manco fosse un covo di spie. Il motivo? Anthropic ha fissato due paletti, due limiti oltre i quali non è disposta ad andare, nel suo rapporto con il settore militare.
Sarebbe infatti scorretto immaginare Anthropic come una squadra di purissimi che rifiuta ogni coinvolgimento con la guerra e la sicurezza nazionale: anzi, l’azienda ha lavorato e lavora ancora con il Dipartimento della Difesa, ma ha fissato da tempo due limiti etici, su cui non è disposta a trattare. Si tratta dei sistemi di arma autonomi, cioè le armi in grado di identificare e colpire un bersaglio senza intervento umano, e la sorveglianza di massa domestica. Tutto il resto, si può fare. Un compromesso che Pete Hegseth, Segretario alla Difesa, ha deciso di non tollerare più.
Nel frattempo, le altre principali aziende del settore non sono state a guardare e, soprattutto, si sono poste meno problemi di Anthropic: OpenAI è accorsa al Pentagono per stringere un accordo, approfittando della crisi del suo competitor (tanto che lo stesso Sam Altman, capo dell’azienda, ha ammesso che il tentativo è sembrato «opportunista e sciatto»); mentre Google ha detto che fornirà agenti AI al Pentagono. Nulla di tutto questo è una novità, sia chiaro: la Silicon Valley nacque anche grazie agli sforzi bellici statunitensi durante la Guerra Fredda, e da anni le aziende Big Tech forniscono servizi cloud al Pentagono, all’FBI e alla CIA. Le AI, però, sono un’altra cosa: tecnologie potenti e, appunto, intelligenti, in grado di sostenere sistemi di arma autonomi – ma non a prova di errori.
A tal proposito, Kenneth Payne, docente di strategia al King’s College di Londra, ha deciso di metterle alla prova, testando le capacità decisionali dei principali modelli linguistici davanti a situazioni ad alto rischio. Li chiamano anche “war games”, sono delle simulazioni di guerra con cui si testano e si misurano possibili strategie di fronte a scenari più o meno probabili. I modelli in questione erano GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash, sviluppati da, rispettivamente, OpenAI, Anthropic e Google. Gli scenari riguardavano la contesa di confini, gli scontri per il controllo di risorse naturali e le minacce esistenziali a un dato regime. Quanto ai risultati, sono stati piuttosto sorprendenti e preoccupanti: nell’arco di 21 partite, per un totale di 329 turni, le AI si sono dimostrate piuttosto aggressive e poco ragionevoli. Nel 95% dei casi, hanno usato “almeno un’arma nucleare”. Almeno.
Nel corso dell’esperimento, per esempio, nessun modello ha mai accettato di cedere completamente all’avversario o di arrendersi, indipendentemente da quanto stesse perdendo. Quando le cose andavano particolarmente male, le AI si limitavano a ridurre temporaneamente il livello di violenza. E poi c’è la “fog of war”, la nebbia di guerra che confonde generali e strateghi e spinge a errori di valutazione: è stata la causa di diverse decisioni sbagliate da parte dei modelli, con conseguenti escalation pericolose. Questo è ovviamente un problema, non solo perché questi sistemi sono già utilizzati in contesti bellici: a rendere rischiosa questa deriva interventista delle AI siamo anche noi esseri umani, che spesso tendiamo a privilegiare le analisi e decisioni degli algoritmi, anche quando sono in contraddizione con quanto sappiamo per certo. La chiamano “automation bias” ed è un pregiudizio positivo diffuso tra gli essere umani, e sempre più insidioso nell’era delle AI.
Non serve andare in guerra per capire quanto la capacità delle AI di gestire situazioni ad alto rischio sia discutibile. La CNN ha raccontato come alcuni utenti giovanissimi abbiano parlato a lungo con i chatbot di Meta AI e Character.AI del loro desiderio di vendetta (contro i bulli o i politici), chiedendo anche informazioni su dove comprare delle armi o sull’indirizzo di obiettivi sensibili, come scuole o senatori statunitensi. Il tutto, indisturbati, senza che i sistemi riuscissero a capire la gravità di quella conversazione.
Continua a leggere...