“C’è il pericolo di un’apocalisse in stile Terminator: se l’AI si unisce con le armi rischiamo un incubo distopico. Sono stati commessi molti errori”. Il monito di James Cameron
- Postato il 12 agosto 2025
- Cinema
- Di Il Fatto Quotidiano
- 1 Visualizzazioni
.png)
Se l’intelligenza artificiale venisse utilizzata in modo improprio, la società potrebbe presto assomigliare al mondo distopico di Terminator. L’ha messa giù chiusi James Cameron. Il regista, premio Oscar per Avatar ha espresso le sue preoccupazioni sull’uso dannoso e controverso dell’AI in un’intervista rilasciata a Rolling Stone. Lo spunto è nato chiacchierando attorno al romanzo Ghosts of Hiroshima di Charles Pellegrino che Cameron vorrebbe adattare celermente per il cinema (“sarà un film duro come Salvate il soldato Ryan”).
“Penso che ci sia ancora il pericolo di un’apocalisse in stile Terminator, in cui si mettono insieme l’IA e i sistemi d’arma, anche al livello di sistemi d’arma nucleari, difesa nucleare, contrattacco e roba del genere”, ha sottolineato Cameron. “E dato che il teatro delle operazioni è così rapido, le finestre decisionali sono così rapide, ci vorrebbe una superintelligenza per essere in grado di elaborarle, e forse saremo intelligenti e terremo un essere umano informato. Ma gli esseri umani sono fallibili, e sono stati commessi molti errori che ci hanno messo sull’orlo di incidenti internazionali che avrebbero potuto portare a una guerra nucleare”.
Insomma, anche il regista di Avatar fa tesoro più che dell’AI in sé – che da sola non riproduce alcunché – ma di come la programma, la gestisce, la usa l’uomo, spesso di potere, che la detiene. Un incubo distopico, insomma, che ricorda 2001 e appunto Terminator, quel cinema solido, attratto dalla fantascienza spesso per spiegarne limiti e peculiarità. Secondo Cameron, infatti, il vero pericolo sociale dell’IA è il suo passaggio dall’industria creativa alla conquista politica e militare. “Ho la sensazione che siamo a questo punto cruciale dello sviluppo umano, in cui si presentano le tre minacce esistenziali: il clima e il degrado generale del mondo naturale, le armi nucleari e la superintelligenza. Si stanno manifestando e raggiungendo il culmine contemporaneamente. Forse la superintelligenza è la risposta. Non lo so. Non lo sto prevedendo, ma potrebbe esserlo”.
L'articolo “C’è il pericolo di un’apocalisse in stile Terminator: se l’AI si unisce con le armi rischiamo un incubo distopico. Sono stati commessi molti errori”. Il monito di James Cameron proviene da Il Fatto Quotidiano.