L'IA infarcisce i paper di immagini e dati fake

  • Postato il 16 novembre 2024
  • Di Focus.it
  • 1 Visualizzazioni
L'IA sta rivoluzionando il nostro modo di fare scienza. In positivo - come evidenziato dai Nobel 2024, che hanno premiato i fisici padri dell'IA e l'uso dell'IA per la progettazione di proteine - ma non solo. Con intento malevolo, si può ricorrere all'intelligenza artificiale anche per fabbricare i dati e le immagini scientifiche che dovrebbero derivare da contesti sperimentali: in pratica per produrre ad arte le prove sulle quali si dovrebbero basare gli articoli scientifici.. Solo una piccola traduzione... A scoperchiare questa realtà che sembra sobbollire da qualche tempo è un articolo divulgativo sul sito della rivista Nature. L'uso di modelli linguistici digitali come ChatGPT per accelerare e affinare la scrittura di paper (cioè degli articoli pubblicati sulle riviste scientifiche), riassumere articoli già pubblicati, realizzare abstract e analizzare dati è ormai un fenomeno diffuso in ambito accademico, e riconosciuto come accettabile - limitatamente alla stesura di parti di testo - da alcune riviste scientifiche, a condizione che tutti i dettagli dell'uso del chatbot siano esplicitati nel manoscritto. Altre, come la rivista Science, hanno invece vietato in modo più stringente il ricorso all'IA, reagendo ad alcuni tentativi di includere ChatGPT tra gli autori di paper.. Una spina nel fianco del metodo scientifico. Diverso è il discorso per immagini scientifiche create ad arte da sistemi di AI generativa per produrre dati ad hoc per il tipo di paper che si vuole far uscire: versioni "fake" di foto al microscopio, colture cellulari, campioni di tumori, rocce, scorci di cosmo, praticamente indistinguibili dalle originali, che finirebbero per inquinare la forma più alta di avanzamento della scienza, ossia la revisione tra pari di una scoperta in pubblicazione.. Difficili da scovare. Secondo gli esperti di image forensics, la disciplina che si occupa dell'analisi dell'autenticità di un file immagine, intervistati da Nature, ad oggi è praticamente impossibile capire se una foto generata con l'IA da una persona con esperienza in manipolazione di immagini sia effettivamente un fake (come quello, piuttosto eclatante, in apertura di questo articolo). Un tempo le figure realizzate con Photoshop prima dell'avvento delle applicazioni di IA generativa avevano alcune caratteristiche ricorrenti, come lo sfondo sempre uguale o l'assenza di macchie o sbavature, che fungevano da campanelli d'allarme per occhi allenati. Oggi i sospetti di figure ritoccate o fatte ad hoc non possono essere suffragati da prove così oggettive, e spesso i dubbi dei revisori non sono abbastanza solidi per far rifiutare il paper all'editor della rivista.. Sosia perfetti o quasi. Eppure, il fatto che la maggior parte dei problemi di contraffazione di immagini scientifiche venuti alla luce siano in paper vecchi di alcuni anni, fa drizzare le orecchie. Difficile che il fenomeno si sia spento in ragione di una ritrovata e universale onestà. Più probabilmente ci sono oggi strumenti per generare fake fatti meglio. Nature fa l'esempio di Kevin Patrick, analista di immagini scientifiche che ha dimostrato sui social di poter creare in meno di un minuto, usando lo strumento di IA generativa di Photoshop Generative Fill, immagini di tumori, colture cellulari e campioni di una tecnica per il rilevamento di proteine molto realistiche. Talmente vicine alle originali da riuscire a ingannare anche occhi esperti.. IA contro IA. L'antidoto a tutto questo c'è, ma è ancora una volta non è del tutto nelle nostre mani. Se infatti gli umani non sono così abili a distinguere immagini generate con l'IA, sistemi di IA appositamente allenati ottengono invece ottimi risultati. Programmi come Imagetwin e Proofig, che utilizzano l'IA per rilevare problemi di integrità nelle immagini scientifiche, stanno ora espandendo il loro software per individuare le immagini create dall'IA generativa. E sempre più spesso vengono utilizzati dai team editoriali delle riviste scientifiche, che in altri casi stanno sviluppando i propri sistemi di IA-detective. L'unico problema è il fattore tempo: bisogna intervenire prima che il panorama scientifico sia invaso da immagini - e scoperte - fake..
Autore
Focus.it

Potrebbero anche piacerti