L’intelligenza artificiale? Ha le allucinazioni: un team di ricercatori ha classificato gli strafalcioni della AI

  • Postato il 9 agosto 2025
  • Tecnologia
  • Di Il Fatto Quotidiano
  • 2 Visualizzazioni

La usano medici, avvocati, ingegneri. In generale milioni di professionisti che, in nome della produttività individuale – per tagliare i tempi, ridurre le mansioni ripetitive – si affidano all’intelligenza artificiale. Ma anche l’algoritmo sbaglia. E la brutta notizia è che l’errore è inevitabile. Perché la matematica parla chiaro: le macchine non sono infallibili. E prima o poi – è solo questione di tempo – anche l’IA più sofisticata e potente incorrerà in un’anomalia. Gli esperti le chiamano “allucinazioni”; la patologia si manifesta quando l’IA fornisce risposte (output) che incorporano dati, informazioni o notizie false. All’università di Barcellona un team di ricercatori – sotto la direzione dell’ing. Manuel Cossio – ha sviluppato una tassonomia delle allucinazioni, classificando e ordinando gli errori dell’IA per natura, origine, gravità. Il paper distingue anzitutto tra “intrinseche” ed “estrinseche”: nel primo caso il modello contraddice sé stesso (nell’ambito della stessa risposta) o l’input (le istruzioni impartite dall’utente). Nel secondo inventa di sana pianta uno o più contenuti (totalmente false o fuori contesto, se non c’entrano nulla con l’input).

Muovendo dalle categorie generali l’articolo passa in rassegna casi più specifici: gli “attacchi avversari” ad esempio, “inferti” dall’utente all’algoritmo quando gli fornisce input ingannevoli e l’intelligenza artificiale, invece di correggerlo, conferma l’inesattezza – pur di compiacere chi interroga il chatbot. Il modello potrebbe poi non attenersi alle istruzioni che gli sono state fornite (ad esempio traduce il testo in un’altra lingua rispetto a quella indicata). Ma ci sono anche le violazioni etiche (come la generazione di immagini pornografiche fake), i casi di “amalgamazione” (informazioni vere accorpate e ridotte ad un miscuglio senza fondamento) o di confusione tra nomi, date e fatti storici. Nessun algoritmo in commercio (LLM, modelli di linguaggio avanzato) ne è completamente esente. Lo dimostrano complessi teoremi matematici: la malattia è incurabile e al contempo fisiologica agli LLM (per come sono strutturati e per le loro modalità di funzionamento). ChatGPT non si chiede “questa cosa è vera?” ma, piuttosto: “In base a tutto quello che ho visto nei miei dati di addestramento, qual è la parola più probabile che dovrei inserire ora?” Non ha accesso a verità oggettive; si basa esclusivamente su modelli statistici.

Tuttavia si possono attuare delle strategie di “contenimento”, per minimizzare i danni e organizzare contromisure adeguate. Ma bisogna anzitutto individuare ciò che provoca le allucinazioni. La qualità del materiale su cui vengono addestrati i sistemi è fondamentale: se i dati con cui l’IA viene alimentata sono sporchi o incompleti, infatti, la sua esposizione alle allucinazioni cresce esponenzialmente. Esistono, a tal proposito, tecniche RAG (Retrieval-Augmented Generation), che consistono nel recuperare automaticamente contenuti aggiornati e validati da fonti esterne autorevoli. Altrettanto importante è bilanciare opinioni politiche o, più in generale, giudizi di valore di segno diverso, per dotare il sistema di una prospettiva completa e plurale. E soprattutto, evitare pregiudizi ideologici che, da ultimo, potrebbero riflettersi nelle risposte, compromettendone la validità. Ovviamente servirebbe anche aggiornare le banche dati a cadenza regolare. Ed è pure una questione di “quantità”: se il materiale su cui è stato addestrato l’algoritmo non copre alcuni argomenti, l’intelligenza artificiale potrebbe colmare le lacune mentendo o disinformando. I ricercatori suggeriscono integrazioni a corredo delle risposte fornite come, ad esempio, indicatori di “certezza” – che quantifichino quanto è sicuro il modello di ciò che dice, su una scala che va da “molto” a “poco” – link che rimandano a fonti autorevoli o tasti tipo “come lo sai?”, per indurre l’utente a interrogare l’IA sul materiale utilizzato. Gli operatori del settore, in conclusione, – auspicabilmente, anche su pressione del legislatore – devono necessariamente intervenire sull’architettura del sistema.

Anche chi siede di fronte al monitor e compulsa la tastiera non dovrebbe difettare d’intelligenza. Le informazioni più importanti – suona sciocco dirlo – vanno verificate: costa tempo, ma il bilancio finale, se l’IA viene adoperata in maniera efficiente, è comunque positivo, al netto del risparmio che comporta per attività come la ricerca di materiale. Gli LLM scrivono decentemente e con il tono di chi sta dispensando verità assolute: i ricercatori parlano di fluency heuristic, vale a dire la propensione degli individui a fidarsi di chi parla/scrive in maniera fluida e pulita. Le fake news si insinuano quando l’informazione veicolata è sottile, infida e suona plausibile. Negli USA le allucinazioni dell’IA, che è arrivata a inventare persino precedenti legali inesistenti, sono già costate a diversi “principi del foro” migliaia di dollari. Un caso su tutti: a maggio del 2025 il Tribunale della California ha comminato una multa di 31.000 dollari a due studi legali per aver presentato una memoria ricca di “citazioni legali false, inaccurate e fuorvianti”. Il paper parla di “automation bias” – si tende a credere alle macchine, in virtù della fiducia riposta nella tecnologia – e di “confirmation bias” – se la risposta conferma i nostri giudizi è comune accettarla, senza questionarne la veridicità- . Il banner “Chat GPT può commettere errori. Assicurati di verificare le informazioni importanti” che Open AI ha inserito sotto la tastiera d’interazione con il chatbot non è sufficiente. Dopo aver ricevuto una risposta, suggerisce l’articolo, gli utenti dovrebbero sollecitare l’IA a condividere la fonte da cui ha attinto materiale e formulare prompt chiari.

L'articolo L’intelligenza artificiale? Ha le allucinazioni: un team di ricercatori ha classificato gli strafalcioni della AI proviene da Il Fatto Quotidiano.

Autore
Il Fatto Quotidiano

Potrebbero anche piacerti