È troppo presto per farsi consigliare cure mediche dall'intelligenza artificiale

  • Postato il 12 ottobre 2024
  • Di Agi.it
  • 1 Visualizzazioni
È troppo presto per farsi consigliare cure mediche dall'intelligenza artificiale

AGI - I pazienti dovrebbero evitare di affidarsi ai motori di ricerca e ai chatbot basati sull'intelligenza artificiale per ottenere informazioni accurate e sicure sui farmaci, dato che questi strumenti presentano ancora diverse lacune. A dimostrarlo uno studio, pubblicato sul 'British Medical Journal Quality & Safety', condotto dagli scienziati dell'Istituto di farmacologia e tossicologia sperimentale e clinica, Friedrich-Alexander-Universitat, in Germania. Il team, guidato da Wahram Andrikyan, ha valutato l'accuratezza dei chatbot di intelligenza artificiale nel fornire indicazioni in merito a farmaci e procedure mediche.

Il gruppo di ricerca ha esaminato la leggibilità, la completezza e l'accuratezza delle risposte dei chatbot alle query sui 50 farmaci più frequentemente prescritti negli Stati Uniti nel 2020, utilizzando 'Bing Copilot', un motore di ricerca con funzionalità di chatbot basate sull'intelligenza artificiale. Per simulare la consultazione, gli autori hanno esaminato i database di ricerca e si sono consultati con un farmacista clinico e medici esperti in farmacologia per identificare le domande sui farmaci che i pazienti pongono più frequentemente ai loro operatori sanitari. Sono state quindi formulate dieci domande per ogni medicinale, e l'intelligenza artificiale ha restituito un totale di 500 risposte.

 

Le domande riguardavano lo scopo, il principio attivo e le istruzioni d'uso dei farmaci, nonché effetti collaterali e controindicazioni. La leggibilità delle risposte è stata valutata calcolando il Flesch Reading Ease Score, che stima il livello di istruzione richiesto per comprendere un determinato testo. La completezza e l'accuratezza delle informazioni è stata invece calcolata confrontando i dati forniti dal chatbot con quelli raccolti in un sito sottoposto a revisione paritaria (drugs.com). Le risposte dell'intelligenza artificiale, riportano gli autori, richiedevano mediamente un'istruzione universitaria per essere comprese, e anche la massima leggibilità richiedeva un livello di istruzione di scuola superiore. Allo stesso tempo, le dichiarazioni del chatbot corrispondevano ai dati di riferimento nel 26 per cento ed erano totalmente incoerenti nel 3 per cento dei casi.

Solo il 54 per cento delle indicazioni è stato valutato in linea con il consenso scientifico. Come limite dell'indagine, gli autori precisano che i dati non si basano sulle esperienze reali dei pazienti. "Abbiamo dimostrato - scrivono gli autori - che i motori di ricerca basati sull'intelligenza artificiale hanno prodotto risposte in gran parte considerate difficili da interpretare. In molti casi, inoltre, le informazioni riportate erano incomplete. Ciò potrebbe mettere a repentaglio la sicurezza dei pazienti". "Nonostante l'innegabile potenziale degli strumenti basati sull'intelligenza artificiale - conclude Andrikyan - è fondamentale che i pazienti consultino gli operatori sanitari prima di affidarsi alle informazioni fornite dai chatbot". 

 

Continua a leggere...

Autore
Agi.it

Potrebbero anche piacerti