Una AI ci riesce con sorprendente precisione
Un’intelligenza artificiale è in grado di decodificare parole e frasi dall’attività cerebrale con una precisione sorprendente, ma ancora limitata. Utilizzando solo pochi secondi di dati sull’attività cerebrale, la AI indovina ciò che una persona ha sentito. I ricercatori hanno scoperto in uno studio preliminare che la AI elenca la risposta corretta tra le prime 10 possibilità fino al 73% delle volte.
L’intelligenza artificiale potrebbe essere utilizzata per aiutare migliaia di persone non sono in grado di comunicare attraverso la parola, la digitazione o i gesti, come riferiscono i ricercatori il 25 agosto su arXiv.org. Ciò include molti pazienti in stato di minima coscienza, bloccati o “in stato vegetativo” – ciò che ora è generalmente noto come sindrome da veglia non responsiva (SN: 2/8/19).
La maggior parte delle tecniche esistenti per aiutare questi pazienti richiede interventi chirurgici al cervello per impiantare elettrodi. Quest’approccio potrebbe fornire una strada percorribile per aiutare i pazienti con deficit di comunicazione, senza l’uso di metodi invasivi”, afferma il neuroscienziato Jean-Rémi King, ricercatore di Meta AI attualmente all’École Normale Supérieure di Parigi.
King e i suoi colleghi hanno addestrato uno strumento computazionale per individuare parole e frasi su 56.000 ore di registrazioni vocali di 53 lingue. Lo strumento, noto anche come modello linguistico, ha imparato a riconoscere caratteristiche specifiche del linguaggio sia a un livello fine – si pensi a lettere o sillabe – sia a un livello più ampio, come una parola o una frase.
L’équipe ha applicato una AI con questo modello linguistico ai database di quattro istituti che includevano l’attività cerebrale di 169 volontari. Questi ascoltavano storie e frasi da libri, mentre il cervello veniva analizzato con magnetoencefalografia (MEG) ed elettroencefalografia (ECG), per misurare la componente magnetica o elettrica dei segnali cerebrali.
Poi, con l’aiuto di un metodo computazionale, che aiuta a tenere conto delle differenze fisiche tra i cervelli reali, il team ha cercato di decodificare ciò che i partecipanti avevano sentito utilizzando solo tre secondi di dati di attività cerebrale di ciascuna persona. L’équipe ha istruito l’intelligenza artificiale ad allineare i suoni del discorso delle registrazioni dei racconti ai modelli di attività cerebrale che l’intelligenza artificiale ha calcolato come corrispondenti a ciò che le persone stavano sentendo. Poi ha fatto previsioni su ciò che la persona avrebbe potuto sentire in quel breve lasso di tempo, con più di 1.000 possibilità.
Utilizzando la MEG, i ricercatori hanno scoperto che la risposta corretta rientrava nelle prime 10 ipotesi della AI fino al 73% delle volte. Con l’ECG, questo valore è sceso a non più del 30%.
È importante capire cosa significhi veramente “decodifica” in questo studio, dice Jonathan Brennan, linguista dell’Università del Michigan ad Ann Arbor. Il termine è spesso usato per descrivere il processo di decifrazione delle informazioni direttamente da una fonte – in questo caso, il parlato dall’attività cerebrale. Ma l’intelligenza artificiale ha potuto farlo solo perché le è stato fornito un elenco finito di possibili risposte corrette per fare le sue ipotesi.
“Con il linguaggio, questo non è sufficiente se vogliamo arrivare a un uso pratico, perché il linguaggio è infinito”, dice Brennan.
La AI ha decodificato le informazioni dei partecipanti che ascoltavano passivamente l’audio, che non è direttamente rilevante per i pazienti non verbali. Affinché diventi uno strumento di comunicazione significativo, gli scienziati dovranno imparare a decodificare dall’attività cerebrale ciò che questi pazienti intendono dire, comprese le espressioni di fame, disagio o un semplice “sì” o “no”.
Il nuovo studio è una “decodifica della percezione del linguaggio, non della produzione”, concorda King. Anche se la produzione del linguaggio è l’obiettivo finale, per ora “siamo molto lontani”.