“Trattare male ChatGpt lo fa performare meglio. Essere educati con l’AI non aiuta a ottenere risposte migliori, anzi”: il nuovo studio

  • Postato il 30 ottobre 2025
  • Trending News
  • Di Il Fatto Quotidiano
  • 2 Visualizzazioni

Pare che la gentilezza non abbia più un posto di rilievo nel galateo del digitale, né tantomeno nel controverso mondo dell’intelligenza artificiale. Da un recente studio è emerso che trattare male ChatGpt lo fa performare meglio. Sin dai primi albori del bot più famoso al mondo era stato consigliato dai programmatori un linguaggio educato per ricevere risposte più performanti. Veniva preso in considerazione il fatto che l’amica Chat avesse un’anima, o almeno una sensibilità per riconoscere e farsi influenzare dal linguaggio dell’utente. Ciò che è emerso grazie ad ArXiv è che il linguaggio educato penalizza le performance del bot.

Per arrivare a questa conclusione, alcuni ricercatori hanno stressato il chatbot di AI creando un set di dati composto da 50 domande di base che spaziano dalla matematica, alla scienza e alla storia, ciascuna riscritta in cinque varianti di tono: molto cortese, cortese, neutro, scortese e molto scortese, ottenendo 250 prompt unici. Chissà se questa nuova branca del sapere digitale arriverà presto nelle università di tutto il mondo. La disciplina volta a testare i modelli di intelligenza artificiale si chiama “Prompt Enegineering” e studia la varietà nella qualità delle risposte in base al tipo di indicazione fornita alla macchina. Negli ultimi anni, sono stati fatti dei passi in avanti nell’analisi della struttura dei prompt. I fattori studiati sono lo stile, la lingua, la sintassi ma anche i toni e il grado di gentilezza.

Variare i livelli di “politeness” può seriamente impattare sulle risposte. Lo dice un report pubblicato il 6 ottobre sul database scientifico arXiv, con un output inaspettato. Pare infatti che richiedere informazioni a ChatGpt in modo più scortese, lo faccia rendere meglio in termini di accuratezza. I dati sono abbastanza chiari: le domande molto educate ottengono risposte accurate all’80%, quelle educate dell’81,4%, neutrali del 82,2%, scortesi del 82,8 % e molto scortesi dell’84,8%.

Nelle conclusioni però, i ricercatori ‘maleducati’ ci tengono a sottolineare come l’utilizzo della violenza non sia nella loro indole. “Non sosteniamo l’utilizzo di interfacce ostili o tossiche nelle applicazioni del mondo reale. L’uso di un linguaggio offensivo o umiliante nell’interazione tra uomo e IA potrebbe avere effetti negativi sull’esperienza dell’utente, sull’accessibilità e sull’inclusività; e potrebbe contribuire a norme di comunicazione dannose”, si legge nel resoconto. Insomma, gli LLM (large language models) rimangono sensibili agli stimoli esterni “Il lavoro futuro dovrebbe esplorare modi per ottenere gli stessi vantaggi senza ricorrere a formulazioni tossiche o ostili – concludono i ricercatori – garantendo che le pratiche di ingegneria dei prompt rimangano allineate ai principi di un’IA responsabile“.

L'articolo “Trattare male ChatGpt lo fa performare meglio. Essere educati con l’AI non aiuta a ottenere risposte migliori, anzi”: il nuovo studio proviene da Il Fatto Quotidiano.

Autore
Il Fatto Quotidiano

Potrebbero anche piacerti