Demenza artificiale: l’illusione dell’IA che ci rende meno intelligenti

  • Postato il 4 ottobre 2025
  • Di Panorama
  • 2 Visualizzazioni

Se tra i vostri conoscenti avete degli insegnanti, saprete già della loro frustrazione riguardo all’Intelligenza artificiale. Gli studenti utilizzano sempre più spesso questi strumenti (come ChatGpt o altri dai nomi esotici) e i professori ritengono, semplicemente, che facendo fare i compiti alle “macchine” i ragazzi non imparino nulla, dato che questi mezzi tech assomigliano sempre più a una sorta di amico immaginario che ha una risposta per qualsiasi domanda.

Lo scriveva già Dante Alighieri nella Commedia: «Apri la mente a quel ch’io ti paleso / e fermalvi entro; ché non fa scienza, /senza lo ritenere, aver inteso» (Paradiso, Canto V). In parole povere, non esiste scienza senza memoria.

Fino a qui si tratta di buon senso: fare i compiti utilizzando ChatGpt è un po’ come copiare dal compagno di banco secchione. Se ne sono accorti anche nei tecnologici Stati Uniti dove, in seguito alle proteste dei docenti, Google ha tolto il pulsante «Aiuto compiti» dal suo navigatore Chrome.

Ma la questione è un po’ più complicata di così. Tralasciamo la discussione sulla qualità delle risposte di un cervello artificiale e concentriamoci invece sul nostro. Quello che emerge sono già diversi studi che mostrano come l’uso di questi sistemi (che vengono chiamati LLM, cioè Large language model) possa ridurre la nostra facoltà di pensare, influendo proprio sull’attività del nostro cervello. Fino al punto in cui un uso continuato può portare a una perdita di capacità cognitiva.

Alcuni mesi fa è stata pubblicata un’analisi dello studioso Michael Gerlich (Strumenti di Intelligenza artificiale nella società: impatti sullo scarico cognitivo e il futuro del pensiero critico, sulla rivista Societies) che aveva come obiettivo quello di capire come l’Ia influenzi il pensiero critico. Il risultato dell’indagine è che l’uso frequente di questi strumenti tech porta a un declino di queste specifiche abilità. Ciò perché spesso il loro utilizzo si traduce in ciò che viene chiamato «scarico cognitivo». In pratica, delegando il ragionamento a un “cervello” esterno, a lungo termine, si finisce per indebolire la capacità di pensiero individuale.

Lo studio di Gerlich è molto parziale, ma si inserisce in un filone di altri lavori che tendono a confermare questa visione. Un altro saggio curato dal Mit di Boston, intitolato Il tuo cervello su ChatGpt: accumulo di debito cognitivo quando si utilizza un assistente Ia per la scrittura di saggi (ancora in fase di revisione ma già reso pubblico), ha analizzato l’attività cerebrale di 54 volontari impegnati a scrivere alcuni brani su diversi argomenti. In pratica, a 18 partecipanti è stato permesso di usare il software, ad altri 18 di servirsi della classica ricerca su Google, mentre i restanti 18 non hanno potuto utilizzare alcuno strumento. Questi ultimi, quindi, hanno dovuto completare il compito basandosi esclusivamente sulle proprie conoscenze.

I risultati sono stati sconcertanti. Ai soggetti del test è stato chiesto di ricordare che cosa avessero scritto nei loro saggi due minuti dopo averli terminati. L’83 per cento a cui è stato permesso di usare l’aiutante tecnologico per realizzare il brano non è riuscito a rammentare nulla di ciò che aveva messo nero su bianco. Dato ancora più allarmante, la totalità di questi non ricordava esattamente neppure una frase. Valori ribaltati, invece, per chi non aveva usato alcuno strumento: tutti i soggetti avevano ben presenti i loro contenuti e l’88,8 per cento  di questi ricordava esattamente almeno una frase di quelle scritte. Di poco inferiore la percentuale tra i soggetti che avevano utilizzato un motore di ricerca classico.

A conferma di ciò, i risultati dell’elettroencefalogramma praticato ai soggetti hanno mostrato che quelli che si erano appoggiati a ChatGpt evidenziavano un’attività cerebrale inferiore rispetto alle persone che non avevano alcuno strumento a disposizione per scrivere i testi. «Sebbene i modelli linguistici di larga dimensione offrano una praticità immediata, i nostri risultati evidenziano potenziali costi cognitivi», hanno concluso gli autori dello studio.

Quindi, l’uso dell’Intelligenza artificiale ci fa diventare meno… intelligenti? Alla lunga, parrebbe proprio di sì, dato che questi e anche altri studi danno risultati analoghi. L’obiezione a questa triste conclusione, però, è che in realtà non è l’Ia in sé a provocare un degrado cognitivo, ma semmai il modo con cui viene utilizzata. Cioè, non è un problema di cosa, ma di come. È ovvio che, se ci si limita a fare copia e incolla di quanto elaborato dalla macchina, il cervello non lavora. Il problema non starebbe quindi nel fatto che l’uso esteso di Llm limita l’intelligenza, ma al contrario nel fatto che chi utilizza poco il pensiero critico e creativo tende ad assegnare all’Ia un ruolo esagerato.

Su questo concorda Enrico Nardelli, professore ordinario di Informatica presso l’Università di Roma Tor Vergata e direttore del laboratorio nazionale Cini Informatica e scuola. «Ha senso dire “dipende da come si usa l’Ia”, ma questo non descrive tutto il quadro. Serve educazione e formazione all’informatica, perché mettere mano a strumenti senza conoscerli porta a rivestirli di un carattere magico che ovviamente non posseggono» sottolinea Nardelli a Panorama. «L’essere umano è un ottimizzatore di risorse, la rivoluzione industriale è sempre un fare di più con il minore sforzo e questo strumento, essendo così potente, può indurre a un suo uso eccessivo e per questo richiede un notevole grado di autocontrollo». Non si tratta solo di informatica: «Dalla storia alla letteratura, per un utilizzo consapevole dell’Intelligenza artificiale serve cultura, che è l’antidoto contro gli eccessi», conclude il professore.

Eraldo Paulesu, neurologo e professore di Neuropsicologia e neuroscienze cognitive all’Università di Milano Bicocca, decano del dipartimento di psicologia, spiega il concetto di debito cognitivo: «Quando deleghiamo al software la costruzione di un testo complesso, risparmiamo sforzo mentale immediato, ma accumuliamo un deficit di apprendimento che in seguito può diventare difficile colmare».

Quindi gli studenti che scrivono brani con questi modelli rischiano di impoverire la propria mente? «Sì, perché scrivere un saggio significa organizzare pensiero, memoria e creatività. Se lasciamo che la macchina lo faccia per noi, queste reti cerebrali si attivano meno e potrebbero nel tempo diventare meno efficienti o non svilupparsi mai compiutamente».

Un problema che riguarda soprattutto le menti in formazione, gli studenti in particolare. «I dati suggeriscono un effetto cumulativo: più si abusa dell’assistente, meno si allena la capacità critica. Con il tempo la reversibilità potrebbe essere incerta, poiché la plasticità cerebrale dell’adulto non è illimitata. Pensiamo ai navigatori sulle nostre auto: chi guida affidandosi solo a quelli sviluppa meno mappe mentali dell’ambiente. Le regioni cerebrali deputate all’orientamento spaziale, come l’ippocampo, vengono meno stimolate e meno sviluppate rispetto a chi non abusa del Gps», afferma Paulesu. Secondo il professore, il rischio è di avere «un futuro in cui ci saranno persone capaci di consultare macchine, ma meno capaci di pensare da sole». In questo esiste un pericolo, «una dipendenza silenziosa che mina la nostra autonomia cognitiva», conclude Paulesu.

«L’Intelligenza artificiale non è una semplice applicazione con cui fare calcoli o elaborare testi», sottolinea a Panorama Massimo Turatto, professore ordinario di Psicologia sperimentale presso il centro interdipartimentale Mente e cervello (Cimec) dell’Università di Trento. «Dietro vi sono estese reti neurali che imparano in continuazione, simulando il funzionamento del cervello umano. L’uso degli Llm può avere conseguenze negative perché riducendo l’impegno mentale, porta a una pigrizia che a lungo andare non può che essere dannosa», prosegue l’esperto. «E così, anche senza volerlo, le persone possono prendere l’abitudine di non pensare, contando sull’assunto che “tanto ci pensa l’Intelligenza artificiale“. Ma la pigrizia mentale che si genera in questo modo rappresenta un pericolo gigantesco», afferma il docente. «Questi strumenti sono utili per elaborare informazioni in maniera rapida e sono un valido supporto se usati con criterio. Ma possono avere conseguenze disastrose se si lascia che il nostro pensiero abdichi a favore delle macchine», conclude  Turatto. Insomma, se non stiamo attenti, con l’Intelligenza artificiale forse per un po’ le cose andranno più velocemente, ma poi arriverà il conto da pagare. Un uso indiscriminato di questo strumento rischia davvero di farci tornare indietro. Ecco perché, senza demonizzarli, questi software vanno presi con le pinze. Non si tratta di tecno-fobia, ma di sopravvivenza della specie.

Autore
Panorama

Potrebbero anche piacerti