Robot, più vicini a un senso del tatto simile agli esseri umani?


    Un gruppo di ricercatori dell’Università Nazionale di Singapore (NUS,National University of Singapore) ha annunciato recentemente di aver realizzato un sistema robotico dotato di una pelle artificiale e una sensibilità tattile in grado di avvicinarsi all’esperienza percettiva umana. 

     

    Secondo i ricercatori l’introduzione del senso del tatto nella robotica consentirà di migliorare significativamente le capacità e le funzionalità rispetto agli attuali sistemi robotici basati soltanto sulla visione, oltre a mostrare in che modo i processori neuromorfici sono in grado di offrire prestazioni superiori nell’elaborazione di tali dati sensoriali rispetto alle architetture tradizionali.

    Il team della National University of Singapore che ha realizzato il nuovo sistema robotico integrato con una pelle artificiale guidata dagli eventi e sensori di visione coordinato dal prof. Harold Soh (a sinistra) il prof. Benjamin Tee (a destra).Immagine 1 - Il team della National University of Singapore che ha realizzato il nuovo sistema robotico integrato con una pelle artificiale guidata dagli eventi e sensori di visione. Il gruppo è coordinato dal prof. Harold Soh (a sinistra) e il prof. Benjamin Tee (a destra). Gli altri membri del team (il secondo da sinistra a destra) Sng Weicong, Tasbolat Taunyazov e See Hian Hian. Credit: National University of Singapore.

    Due ricercatori del team, il dott. Harold Soh prof. presso il dipartimento di informatica della NUS e il dott. Benjamin Tee prof. presso il dipartimento di ingegneria e scienza dei materiali della NUS, hanno presentato i risultati del loro studio interdisciplinare durante la conferenza “Robotica: scienza e sistemi” che si è tenuta il 14 luglio 2020. I due ricercatori sono inoltre membri della Comunità di ricerca neuromorfica di Intel (Intel Neuromorphic Research Community, INRC).

     

    I risultati dello studio “Event-Driven Visual-Tactile Sensing and Learning for Robots” sembrerebbero dimostrare che un nuovo robot può percepire il senso del tatto attraverso l’impiego di una pelle artificiale e un nuovo chip neuromorfico di Intel. 

    Si tratta di un significativo passo in avanti rispetto a quello che gli attuali robot sono in grado di fare, operazioni finora limitate soltanto all'elaborazione visiva di un evento e prive delle capacità relative al senso umano del tatto.

     

    Video 1 - il primo esperimento condotto dai ricercatori della NUS, una mano robotica riesce a leggere il testo a rilievo in Braille:

     

     

    Perché è importante il senso del tatto

    Molte attività quotidiane richiedono molteplici modalità sensoriali per essere eseguite con successo. Ad esempio, quando una persona prende un cartone del latte dal frigorifero utilizza la visione per individuare la confezione e riesce a dedurre quanto liquido è contenuto all’interno soltanto afferrando il contenitore.

    Noi esseri umani siamo inoltre in grado di usare il senso della vista insieme a quello del tatto per sollevare un oggetto senza lasciarlo cadere.

    Tali azioni (e inferenze) vengono eseguite dagli esseri umani in modo robusto utilizzando un substrato neurale ad alta efficienza energetica rispetto alle attuali reti neurali profonde multimodali utilizzate negli sistemi artificiali odierni. Un cervello umano richiede molta meno energia per effettuare tali azioni rispetto a una rete neurale artificiale.

    I ricercatori sono riusciti a compiere significativi passi in avanti in merito all’efficienza della percezione visiva e tattile dei sistemi robotici. 

    L’ispirazione è venuta dai sistemi biologici, tali sistemi sono guidati dagli eventi e sono asincroni.

    La percezione guidata dagli eventi, approccio alternativo che promette bassi consumi e bassa latenza

    Contrariamente ai metodi di apprendimento profondo (deep learning) affamati di risorse, la percezione guidata dagli eventi costituisce un approccio alternativo che promette efficienza energetica e bassa latenza, caratteristiche che sono ideale per robot mobili in tempo reale. Tuttavia, i sistemi guidati da eventi rimangono sottosviluppati rispetto ai metodi di percezione sincrona standard.


    Il senso del tatto degli esseri umani ha un grado di sensibilità tale da riuscire a percepire la differenza tra due superfici il cui spessore differisce di un solo strato molecolare; la maggior parte dei robot odierni non possiede tale sensibilità e funziona soltanto sulla base dell’elaborazione visiva degli impulsi esterni. I ricercatori della NUS sono intenzionati a cambiare questo stato di fatto attraverso l’impiego della pelle artificiale da loro recentemente sviluppata.

    Tale pelle artificiale è in grado di percepire gli stimoli tattili con una velocità più di 1.000 volte superiore rispetto al sistema nervoso umano ed è in grado di identificare forma, consistenza e durezza di un oggetto 10 volte più rapidamente di un battito di ciglia.

     

    Un robot con un senso del tatto simile a quello umano può conseguire un miglioramento significativo delle funzionalità rispetto a quanto avviene oggi e può essere impiegato in molteplici campi di applicazione.

     

    Flessibilità di adattamento negli stabilimenti produttivi

    Ad esempio, un braccio robotico dotato di pelle artificiale può essere adattato facilmente agli ambiti produttivi come la movimentazione di diversi oggetti prodotti in una fabbrica. Attraverso l’uso del tatto un braccio robotico è in grado di identificare e afferrare oggetti non familiari (oggetti cioè che vengono visti per la prima volta) con la pressione adeguata al fine di evitare che sfuggano alla presa.

    La capacità di percepire meglio l’ambiente circostante potrebbe inoltre consentire un’interazione più ravvicinata e sicura fra robot e persone, ad esempio nella cura delle persone, o portarci più vicino all’automatizzazione delle operazioni chirurgiche grazie a un senso del tatto che manca attualmente ai robot.

     

    La creazione della pelle artificiale rappresenta sicuramente un passo in avanti per raggiungere questo obiettivo ambizioso ma dall'altra parte è anche necessario un processore che sia in grado di elaborare informazioni accurate, in tempo reale, basandosi sui dati che provengono dai sensori della pelle, mantenendo al tempo stesso un livello di consumo energetico abbastanza efficiente da consentirne l’uso direttamente nel robot.

    «Realizzare un sensore ultrarapido per la pelle artificiale significa risolvere circa metà del problema di rendere più intelligenti i robot», scrive il Prof. Tee del Dipartimento di ingegneria e scienze dei materiali della NUS. «Per completare il puzzle, serve anche un cervello artificiale in grado di percepire e imparare» aggiunge il ricercatore.

    Video 2 - il braccio robotico in azione durante gli esperimenti condotti dai ricercatori della NUS:


    Che cosa è stato realizzato in laboratorio dai ricercatori? 

    Per trovare una nuova strada nella percezione sensoriale dei robot, il gruppo di ricercatori della NUS ha iniziato ad analizzare le capacità della tecnologia neuromorfica di elaborare i dati provenienti dai sensori della pelle artificiale, utilizzando il chip neuromorfico a basso consumo energetico Loihi di Intel.

    Nell’esperimento iniziale i ricercatori hanno utilizzato una mano robotica dotata di pelle artificiale per leggere il Braille (sistema internazionale di lettura e scrittura tattile per non vedenti), trasferendo i dati raccolti attraverso la percezione tattile al chip Loihi attraverso il cloud, in questo modo i microrilievi percepiti dalla mano robotica sono stati convertiti in un significato semantico.

    Il microprocessore Loihi è riuscito a classificare le lettere Braille con un’accuratezza superiore al 92% utilizzando un quantitativo di energia 20 volte inferiore rispetto a un microprocessore Von Neumann standard.

     

    Grazie a questo esperimento originario, i ricercatori sono riusciti a migliorare ulteriormente le capacità di percezione robotica combinando insieme i dati visivi e quelli tattili in una rete neurale.

    L’esperimento dello studio condotto recentemente dai ricercatori prevedeva di far riconoscere a un robot sia i diversi tipi di contenitori movimentati sia la quantità di liquido contenuta in essi.

    I vari contenitori erano opachi contenevano diverse quantità di liquido e avevano vari livelli di rigidità, pertanto entrambe le percezioni visive e tattili erano importanti per ottenere una classificazione accurata. La classificazione è stata ottenuta utilizzando gli stimoli sensoriali provenienti dalla pelle artificiale e gli stimoli visivi raccolti da una telecamera basata su eventi. Inoltre, utilizzando gli stessi sensori tattili e di visione, i ricercatori hanno messo alla prova anche la capacità del sistema robotico di percepire e identificare lo slittamento rotazionale, fattore importante per una presa stabile.

     

    Una volta acquisiti tutti questi dati sensoriali, il team li ha trasmessi a una GPU (Graphics Processor Unit, processore grafico) e al chip neuromorfico Loihi per confrontare le rispettive capacità di elaborazione. I risultati dello studio, presentati durante la conferenza Robotics: Science and Systems, sembrerebbero dimostrare che la combinazione di visione e tatto basati su eventi utilizzando una rete neurale spiking (spiking neural networks, una rete neurale a impulso è una rete che più si avvicina a una rete neurale naturale) ha consentito una accuratezza migliore del 10% nella classificazione degli oggetti rispetto a un sistema basato esclusivamente sulla visione.

    Inoltre la tecnologia neuromorfica possiede grandi potenzialità per essere utilizzata per tali dispositivi robotici, il processore Loihi è in grado di elaborare i dati sensoriali molto più rapidamente, il 21% più velocemente rispetto alle  GPU più potenti, utilizzando allo stesso tempo 45 volte meno energia.

    Nella foto il nuovo sistema robotico sviluppato dai ricercatori della NUS. Credit: National University of Singapore.Immagine 2 - Nella foto il nuovo sistema robotico sviluppato dai ricercatori della NUS. Il braccio robotico comprende un sistema cerebrale artificiale che imita le reti neurali biologiche, tale sistema cerebrale può essere eseguito su un processore neuromorfo ad alta efficienza energetica come il chip Loihi di Intel ed è integrato con sensori di pelle e visione artificiali. Credit: National University of Singapore.

    «Siamo entusiasti di questi risultati. Mostrano che un sistema neuromorfico è un componente valido nella combinazione di molteplici sensori per migliorare la percezione dei robot. Si tratta di un passo verso la costruzione di robot robusti ed energeticamente efficienti, in grado di rispondere rapidamente e appropriatamente a situazioni impreviste», prosegue il Prof. Soh.

    Mike Davies, direttore, Intel Neuromorphic Computing Lab ha dichiarato «Questa ricerca della National University of Singapore ci offre un interessante sguardo nel futuro della robotica, dove le informazioni sono sia percepite sia elaborate sulla base degli eventi combinando molteplici modalità. Questo lavoro porta nuova evidenza di come il calcolo neuromorfico consenta di ottenere notevoli miglioramenti in termini di latenza e di consumi energetici, quando si riprogetta l’intero sistema secondo un paradigma basato sugli eventi che comprende sensori, formati dei dati, algoritmi e architettura dell’hardware.» 

    «Il lavoro di ricerca si aggiunge a un numero crescente di risultati che dimostrano che il calcolo neuromorfico può offrire significativi guadagni in termini di latenza e consumo di energia nel momento in cui l'intero sistema viene riprogettato secondo un paradigma basato su eventi; sistema che comprende sensori, formati di dati, algoritmi e architettura hardware».

    Lo studio Event-Driven Visual-Tactile Sensing and Learning for Robots è stato pubblicato durante la conferenza Robotics science and systems.

    Sviluppi futuri

    Il prof. Tee e il prof Soh stanno progettando di sviluppare ulteriormente il nuovo sistema robotico per applicazioni nei settori della logistica e della produzione alimentare, settori in cui vi è una forte domanda di automazione robotica, in particolare nell'era post-COVID.

     

    La ricerca è stata supportata dal National Robotics R&D Program Office (NR2PO) di Singapore che alimenta l'ecosistema della robotica di Singapore attraverso il finanziamento di ricerca e sviluppo (R&S) per migliorare la rapidità delle tecnologie e delle soluzioni robotiche.