Tornare a parlare con l'espressione di sempre

  • Postato il 16 giugno 2025
  • Di Focus.it
  • 1 Visualizzazioni
Un uomo incapace di articolare suoni comprensibili a causa di una malattia neurodegenerativa riesce ora a parlare in modo espressivo, a controllare l'intonazione delle parole e persino a riprodurre melodie molto semplici. Merito di un'interfaccia cervello-computer che traduce le sue intenzioni vocali, verbali ma non solo, in modo quasi istantaneo. Il sistema di voce prostetico appena descritto su Nature è la cosa più vicina al parlato naturale mai raggiunta da questo tipo di tecnologie.. Come funziona l'impianto cerebrale. Casey Harrell è un attivista climatico 47enne affetto da Sclerosi Laterale Amiotrofica (SLA), una malattia neurodegenerativa progressiva caratterizzata dalla perdita dei motoneuroni, le cellule nervose di cervello e midollo spinale che permettono i movimenti della muscolatura volontaria. La patologia ha indebolito i muscoli che Harrell usava per parlare: anche se l'uomo riesce a produrre suoni e muovere la bocca, le parole che articola sono confuse e poco intelleggibili.. Il paziente aveva già una serie di 256 elettrodi impiantati per un precedente studio nella corteccia motoria, una regione del cervello che controlla il movimento. Maitreyee Wairagkar, neuroscienziata della Università della California, Davis, e i colleghi, hanno istruito un sistema di intelligenza artificiale per decodificare l'attività elettrica nella corteccia motoria dell'uomo ogni 10 millisecondi. Trasformando i comandi motori per le parole in suoni comprensibili, poi letti da una voce sintetica. . Interiezioni e punti di domanda. L'interfaccia cervello-computer utilizza un approccio che gli autori dello studio definiscono "completamente privo di restrizioni": decodifica in tempo reale non le intere parole e neanche le loro sottounità, bensì ogni minimo, singolo suono che l'uomo intende produrre. Incluse le parole senza significato e le interiezioni come "uuhmmm" o "eeeeeh", che usiamo per attaccare una frase all'altra. Ma il sistema riesce anche a tradurre l'enfasi che talvolta si intende dare a una singola parola, o l'intonazione vocale più elevata di quando si pone una domanda. Elementi che rendono il discorso molto più naturale di quanto si potesse sperare per impianti di questo tipo. Harrell è persino riuscito a cantare alcune semplici melodie, di tre o quattro note.. La differenza rispetto al passato. Da decenni si lavora a sistemi per ripristinare la capacità di parlare in pazienti paralizzati. Oggi algoritmi di machine learning possono essere addestrati a collegare schemi di attività neurale alle parole di un vocabolario predeterminato, anche molto ampio, con un repertorio di decine di migliaia di parole. Ma l'interfaccia cervello-computer usata da Harrell, capace di produrre anche interiezioni senza senso con il solo scopo di aggiungere espressività al parlato, ha dimostrato di poter tradurre anche suoni che esulano da un vocabolario prestabilito.. Inoltre, i progressi negli algoritmi di AI utilizzati e il numero importante di elettrodi impiantati nel cervello di Harrell permettono all'interfaccia di ricreare le parole pensate dal paziente con un ritardo di soli 25 millisecondi: circa il tempo necessario affinché la nostra voce venga udita dalle nostre orecchie, 40 volte in meno il ritardo accumulato da altri impianti.. Verso un linguaggio più naturale. I tempi ravvicinati e simili al linguaggio naturale, e la maggiore espressività rendono il nuovo sistema più adatto a essere impiegato in dialoghi che contemplino un "botta e risposta" e varie interruzioni. A differenza dei metodi usati finora, paragonabili piuttosto a scambi in differita, come messaggi vocali su WhatsApp. Inoltre, l'interfaccia addestrata a cogliere le intonazioni si presta a essere impiegata in lingue tonali, in cui le variazioni di tono determinano significati diversi..
Autore
Focus.it

Potrebbero anche piacerti