Rendere i robot «più umani»: è l’obiettivo degli studiosi di Singapore

Ultimamente con ciò che sta accadendo nel mondo, la nostra mente torna spesso verso quei film apocalittici che cambiano la vita delle persone. Tutto ci sembra sempre irraggiungibile, soprattutto per quanto riguarda i robot.
Chi di noi guardando film come Ex Machina ha pensato che tanto tutto ciò non accadrà mai?
Forse la risposta corretta è che non dovremmo mai costruirci un mondo pieno di certezze, perché potrebbero crollare da un momento all’altro come un castello fatto di carte.

L’ultimo progetto proviene dai ricercatori della National University di Singapore e si pone come obiettivo quello di rendere i robot «più umani» a partire dal tatto e da una visione event-based.
Il team di ricerca che ha apportato queste idee rientra a far parte dell’Intel Neuromorphic Research Community e ha presentato un modo innovativo per immaginare i robot.

Il tatto umano è considerato inimitabile, ma grazie al computing neuromorfico i robot potrebbero raggiungere la sensibilità tattile grazie ai processori neuromorfici. Quest’ultimi sono stati sviluppati da Intel e potrebbero avere capacità di calcolo superiori a quelli normali utilizzati per i personal computer.
Il problema principale è sempre dettato dallo stesso concetto: il corpo umano è troppo complesso e compie in modo naturale ciò che quasi impossibile compiere in modo artificiale altrettanto facilmente.
Il tatto umano ha una sensibilità estrema e talmente sottile che ci rende in grado di percepire due superfici differenti che cambiano tra loro solo di uno strato molecolare.
L’idea dei ricercatori è quella di utilizzare una pelle artificiale, sviluppata dal team della National University, progettata per poter «sentire» gli stimoli tattili persino mille volte più velocemente rispetto alla percezione operata dal sistema nervoso umano. Questa epidermide è anche in grado di identificare forma, consistenza e durezza di un’oggetto in modo talmente celere da riuscire a superare di dieci volte la velocità di un battito di ciglia. Il risultato è rivoluzionario, se solo si pensa ai robot odierni, che per poter identificare gli oggetti tramite il tatto sono costretti ad usufruire solo dell’elaborazione visiva.

Il processore necessario deve dunque essere in grado di «decodificare» i dati identificati dai sensori, mantenendo un consumo basso ed efficiente. Il chip utilizzato dell’Intel è stato inserito in una mano robotica ed utilizzato per leggere il Braille, convertendo i dati derivanti dai microrilievi con un’accuratezza del 92%. La chiave è stata poi associare le informazioni tattili con quelle visive, cercando di classificare vari contenitori con varie quantità di liquido all’interno per cercare anche di identificare lo slittamento rotazionale.

I dati acquisiti sono stati ottenuti utilizzando una rete neurale spiking, che sfrutta la cambinazione tra visione event-based e tatto per poter migliorare la precisione di identificazione degli oggetti del 10%. Inoltre, la nuova tecnologia basata sui processori neuromorfici è in grado di elaborare i dati sensoriali più velocemente rispetto ai migliori GPU esistenti fornendo una resa fino al 21% migliore utilizzando un’energia fino a 45 voglie in meno.

Quale possono essere le applicazioni? Innanzitutto, si deve pensare che ogni miglioria ad un robot potrebbe comportare un passo avanti per le protesi, come potrebbe migliorare il lavoro in fabbrica. Il tatto potrebbe essere utilizzato per far afferrare ad un robot gli oggetti prodotti con la giusta pressione, evitando rotture di oggetti fragili e delicati. La realizzazione di questo braccio robotico potrebbe portare gli androidi a relazionarsi perfettamente con l’uomo e potrebbe migliorare l’automazione delle operazioni chirurgiche.

L’altra frontiera è il senso della vista. La visione artificiale event-based rende gli occhi dei robot con una «visione analoga» a quella umana. Sicuramente ogni tassello studiato permetterà di realizzare i robot che abbiamo visto per anni nei film.