Non solo Chat Gpt, Big tech allenta i divieti per l’uso dell’intelligenza artificiale a scopi militari
- Postato il 25 giugno 2025
- Mondo
- Di Il Fatto Quotidiano
- 3 Visualizzazioni
.png)
Chat GPT al servizio dell’esercito statunitense. Open AI, la società madre del chatbot più popolare del mondo, ha chiuso un accordo da duecento milioni con il Pentagono: metterà a disposizione del governo federale la sua intelligenza artificiale – e, forse ancora più rilevante a fini strategici, il suo ricco know-how in materia. Anche se le linee guida dell’azienda, soltanto fino ad un anno fa, vietavano l’uso della sua tecnologia per “scopi militari e bellici”. Ma poi sono state modificate. E tutte le altre tech ne hanno seguito l’esempio: in tempi di guerra, del resto, le norme etiche sono d’intralcio. Così è partita la tendenza ad allentare le regole relative all’impiego militare dell’IA. E, in parallelo, la gara per vincere le commesse milionarie bandite dal Dipartimento della Difesa USA.
Pentagono, regole lasche e intesa con Open AI – La premessa va rintracciata anzitutto nel cambio di paradigma impresso dal governo federale alla gestione di questa rivoluzione industriale. A giugno del 2025 l’amministrazione Trump ha soppresso l’IA Safety Institute, un centro pubblico con funzioni di vigilanza, per garantire che i modelli IA fossero sviluppati e distribuiti in modo sicuro e responsabile. Ora l’organismo si chiama Center for AI Standards and Innovation e il nuovo governo ne ha ridefinito gli obiettivi: dal controllo all’innovazione, dalla “sicurezza in generale” alla sicurezza nazionale.
Poi è arrivata l’intesa con Open AI: il Dipartimento della Difesa ha anticipato che la tech “svilupperà capacità AI di frontiera prototipali per affrontare sfide critiche alla sicurezza nazionale, sia in ambito bellico che amministrativo”. Il progetto verrà realizzato nella capitale e la data prevista per il suo completamento è luglio 2026. Le linee guida di Open Ai vietano che la sua tecnologia venga utilizzata per “sviluppare o utilizzare armi” o per “ferire altri o distruggere proprietà”. Ma i termini d’uso possono sempre cambiare: è già accaduto un anno fa, quando l’azienda ha rimosso il divieto di usare Chat GPT per scopi “militari e bellici”. Una modifica che gli ha consentito di siglare l’accordo con il Pentagono e, ancora prima, una partnership strategica con Anduril Industries, per integrare l’IA nei sistemi antidroni prodotti dalla start-up.
Big tech cancella i limiti etici per lavorare con la Difesa – Ma si tratta di un fenomeno che riguarda Big Tech nel suo complesso: uno dei più importanti competitor di Open Ai, Anthropic, ha annunciato il 5 giugno un modello AI (“Claude Gov”) con regole più blande e permissive per le agenzie di difesa e intelligence USA, che può lavorare con dati sensibili e fornire risposte che la versione tradizionale (“Claude”) non darebbe. I vertici dell’azienda hanno riferito che i modelli erano “già utilizzati da agenzie ai massimi livelli della sicurezza nazionale degli Stati Uniti”.
Anche Google a febbraio di quest’anno ha rivisto le sue politiche, sbianchettando clausole che vietavano, ad esempio, di impiegare l’IA secondo modalità “che causano o sono suscettibili di causare danni complessivi”, o di sviluppare “armi o altre tecnologie il cui scopo principale o utilizzo concreto è causare o facilitare direttamente danni alle persone”. Google ha già lavorato con il Pentagono, anche sotto l’amministrazione precedente: il “Project Maven” prevedeva l’analisi, per mezzo dell’IA della multinazionale, di filmati di droni. La collaborazione fu sospesa anche grazie alla pressione di 3100 dipendenti della tech, che firmarono un appello – rivolto al Ceo Sundar Pinchai – contro il progetto.
Mark Zuckerberg si è mosso prima degli altri: a novembre dell’anno scorso Meta annunciò che avrebbe consentito alle agenzie del governo statunitense e ai loro appaltatori di utilizzare il suo modello di intelligenza artificiale “Llama”, nel quadro di una collaborazione estesa anche ad Amazon, Microsoft, IBM, Lockheed Martin e Oracle.
È un fenomeno nuovo, suggeriscono gli analisti più critici: la militarizzazione dell’intelligenza artificiale. Come se la contaminazione tra scienza, tecnologia e difesa fosse una novità e non una costante negli Stati Uniti d’America, il Paese che ha dato i natali al celebre – e famigerato, per i nemici – “complesso militare-industriale”.
L'articolo Non solo Chat Gpt, Big tech allenta i divieti per l’uso dell’intelligenza artificiale a scopi militari proviene da Il Fatto Quotidiano.