‘Muovere e sentire’ oggetti virtuali usando solo il pensiero
Un passo importante verso la creazione di un esoscheletro robotico comandato direttamente dall’attività cerebrale volontaria da far indossare a pazienti gravemente paralizzati. Senza muovere alcuna parte del corpo, alcune scimmie sono state in grado di sfruttare la propria attività elettrica cerebrale per controllare il movimento delle mani di un avatar virtuale, entrare in contatto con degli oggetti e, al contatto, di distinguere i differenti tipi di trama che li caratterizzavano.
Il risultato fornisce un’ulteriore conferma della possibilità, in prospettiva, di creare un esoscheletro robotico comandato direttamente dall’attività cerebrale volontaria da far indossare a pazienti gravemente paralizzati in modo che possano esplorare e ricevere un feedback dal mondo esterno.
L’eccezionale risultato è stato ottenuto da ricercatori della Duke University, che illustrano la loro ricerca in un articolo pubblicato in anteprima on line su Nature. In passato erano già stati realizzati esperimenti che avevano mostrato la possibilità di muovere cursori sul monitor di un computer, o anche arti artificiali con il solo pensiero, ma questa è la prima volta che si riesce a realizzare una comunicazione di questo tipo a due vie, in modo cioè che il soggetto riceva un feedback dall’oggetto toccato.
Anche se gli oggetti virtuali utilizzati in questo studio apparivano alla vista identici, erano stati progettati in modo da avere una trama “tattile” all’esplorazione con la mano virtuale: la differente tessitura degli oggetti veniva espressa da minime variazioni nei segnali elettrici trasmessi al cervello delle scimmie, realizzate attraverso un modello matematico che simulava la risposta tattile a una tessitura reale.
“Un giorno, in un prossimo futuro, i pazienti tetraplegici potranno usufruire di questa tecnologia non solo per muovere di nuovo braccia e mani e per camminare, ma anche per sentire la consistenza degli oggetti posti nelle loro mani, o sperimentare il fondo del terreno su cui passeggiare con l’aiuto di un esoscheletro robotico indossabile”, ha detto Miguel Nicolelis, condirettore del Centro di neuroingegneria al Duke University Medical Center e autore senior dello studio.
“Questa è la prima dimostrazione di un’interfaccia cervello-macchina-cervello che stabilisca un collegamento diretto, bidirezionale tra un cervello e un corpo virtuale (BMBI)“, ha osservato Nicolelis. “In questo BMBI, il corpo virtuale è controllato direttamente dalla attività del cervello dell’animale, mentre la sua mano virtuale genera informazioni di feedback tattile che vengono inviate attraverso una microstimolazione elettrica a un’altra regione della corteccia cerebrale dell’animale“. (gg)
Fonte – Le Scienze, 6 ottobre 2011
Leave a Comment