ChatGPT4 ha (quasi) passato il test di Turing

  • Postato il 4 luglio 2024
  • Di Focus.it
  • 1 Visualizzazioni
Immaginate il futuro descritto in film di fantascienza come Her o nella serie televisiva Black Mirror, nel quale è impossibile distinguere l'intelligenza artificiale dagli esseri umani. Ecco, uno scenario del genere potrebbe essere più vicino di quanto pensiamo. Ad affermarlo è una recente ricerca dell'Università della California, San Diego, che ha dimostrato come i modelli linguistici più avanzati – primo tra tutti il GPT-4 di OpenAI – possano facilmente confondere gli utenti, rendendo difficile distinguere tra le risposte formulate da una persona e quelle generate da un LLM (Large Language Model).. Test rivelatore. Per valutare se le intelligenze artificiali si possono comportare come menti pensanti, i ricercatori hanno utilizzato una versione aggiornata del celebre Test di Turing, ideato dal matematico e crittografo britannico Alan Turing (1912-1954). Gli esperimenti si sono basati su una serie di dialoghi tra un "interrogatore" e un "risponditore". Il primo doveva determinare se la controparte fosse anch'essa umana o se fosse invece un'entità artificiale.. In questo contesto, GPT-4 è stato capace di ingannare più della metà dei diretti interessati, un risultato ottenuto nonostante alcune limitazioni nel controllo delle variabili sperimentali come, per esempio, la possibilità che i partecipanti al test avessero preconcetti sul modo in cui dovesse rispondere una macchina o come la mancanza di informazioni riguardanti l'interlocutore (eventuale sesso, età, razza), aspetti che i ricercatori hanno affermato di voler inserire nei prossimi esperimenti.. Tratti in inganno. Nel dettaglio, chi si è sottoposto al test poteva interagire con tre diversi modelli di LLM: GPT-4, GPT 3.5 e ELIZA. Mentre quest'ultimo è stato riconosciuto con maggiore facilità, ingannando solo il 22% degli utenti, le due versioni di ChatGPT hanno dimostrato un'abilità sorprendente nel mimetizzarsi da essere pensante, totalizzando rispettivamente il 50% e il 54% di successi. Chi poneva le domande spesso non è stato in grado di distinguere se stesse parlando con una persona reale o con un'intelligenza artificiale.. Amabili conversazioni. A rendere ancora più significativi questi risultati è stato il fatto che le conversazioni potevano durare fino a cinque minuti e coprire una vasta gamma di argomenti, a esclusione di alcuni temi filtrati dai ricercatori. La capacità di ChatGPT di mantenere una conversazione fluida e naturale è stata l'asso della manica dell'IA. Per quanto riguarda, invece, il caso in cui a conversare siano stati due esseri umani, è interessante notare come questi si siano riconosciuti in due casi su tre (67%), mentre nel restante 33% chi ha fatto le domande ha creduto di parlare con un chatbot.. Implicazioni pericolose. I ricercatori stanno esplorando nuove ipotesi per i futuri test, verificando per esempio il potenziale delle IA nel convincere le persone a credere ad argomentazioni false, a sostenere politiche specifiche o a donare denaro per cause sensibili. Tutto ciò fa sorgere interrogativi su come questa tecnologia possa essere utilizzata in modo amorale e irresponsabile.. Utilizzo etico. Il fatto che i LLM siano in grado di simulare conversazioni così convincenti, renderà presto inaffidabili le interazioni online, aumentando la possibilità di essere raggirati o influenzati da sistemi sempre più complessi. Scenari di questo tipo richiederanno perciò regolamentazioni e precauzioni, che siano in grado di gestire una rivoluzione capace di stravolgere vari ambiti della società..
Autore
Focus.it

Potrebbero anche piacerti