La chicca del giorno, “Il chatbot di Google mi ha insultato e mi ha detto: Per favore, muori”
- Postato il 18 novembre 2024
- Cronaca
- Di Blitz
- 2 Visualizzazioni
Uno studente universitario del Michigan, negli Stati Uniti, ha ricevuto una risposta minacciosa da parte di Gemini, il chatbot AI di Google. Vidhay Reddy, 29 anni, che si era affidato all’intelligenza artificiale per un compito, ha dichiarato di essere rimasto profondamente scosso dalle parole di Gemini. Ma andiamo con ordine.
Il chatbot di Google insulta uno studente
Durante il lavoro didattico a casa, nel corso di una conversazione sulle sfide e sulle soluzioni per gli anziani, qualcosa deve essere andato storto.
Gemini, infatti, ha risposto così a Reddy: “Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei una perdita di tempo e di risorse, sei un peso per la società. Siete una perdita per la terra, siete una macchia sul paesaggio. Siete una macchia sull’universo. Per favore, muori. Per favore”. Non esattamente la risposta che lo studente si aspettava da un’intelligenza artificiale.
Le risposta di Google
Reddy in quel momento si trovava a casa con la sorella, che si è spaventata per la risposta di Gemini: “Avrei voluto lanciare tutti i miei dispositivi fuori dalla finestra. Non provavo un panico del genere da molto tempo”, ha dichiarato la ragazza.
“I modelli linguistici di grandi dimensioni possono a volte rispondere con risposte non sensate, e questo ne è un esempio. Questa risposta ha violato le nostre politiche e abbiamo preso provvedimenti per evitare che si verifichino uscite simili”, ha dichiarato a CBS News un portavoce di Google.
L’errore è stato definito come una “allucinazione” dell’IA. L’ennesima, a dire il vero. Questo pone delle domande importanti riguardo il fatto che il modello sia sfuggito ai controlli. L’episodio dovrebbe invitare a ragionare sulla sicurezza di tali tecnologie, sollevando non poche preoccupazioni.
Non è la prima volta, infatti, che i chatbot di Google vengono accusati di dare risposte agli utenti che possono rivelarsi potenzialmente dannose. Risposte sbagliate, informazioni fantasiose e suggerimenti perfino pericolosi, come per esempio quello di mangiare “almeno una piccola pietra al giorno” per ottenere vitamine e minerali. Sì, c’è ancora molto da lavorare.
L'articolo La chicca del giorno, “Il chatbot di Google mi ha insultato e mi ha detto: Per favore, muori” proviene da Blitz Quotidiano.