Le nuove tecnologie hanno fatto passi da gigante e molto spesso la loro applicazione nel campo del sociale è straordinaria. Ma ci sono alcune invenzioni che sembrano avere davvero una marcia in più e che addirittura appaiono uscite da un film di fantascienza. Eppure, grazie all’ingegno di esperti e ricercatori, sono davvero realtà. Parliamo in questo caso del progetto Parloma, ideato dall’Alta Scuola Politecnica dei Politecnici di Milano e Torino (ASP), che molto presto consentirà la comunicazione a distanza fra persone sordocieche.
Sappiamo che quando non si possiede né l’udito né la vista, comunicare con il mondo esterno può essere davvero difficile. Un tempo almeno lo era e i sordociechi erano destinati a una vita di isolamento e solitudine. Oggi fortunatamente non è più così e anche le persone che convivono con questa particolare e difficile disabilità possono conversare con gli altri attraverso la lingua dei segni tattili, ossia una versione che usa anche il tatto rispetto alla classica lingua dei segni utilizzata dalle persone sorde. A distanza, però, venendo meno la possibilità di utilizzare il tatto, finora è sempre stato impossibile comunicare per loro.
Per riempire questo vuoto i ricercatori dell’ASP hanno ideato Parloma, un sistema in grado appunto di trasferire in remoto la lingua dei segni tattili attraverso un’interfaccia aptica (che sfrutta il tatto). Ma come funziona Parloma? Il mittente sordocieco comunica ricorrendo alla lingua dei segni tattili, il sistema cattura il segno, lo elabora digitalmente e, attraverso il web, lo recapita al destinatario, anche lui sordocieco, sempre in forma di lingua dei segni tattili mediante un’interfaccia basata su braccia e mani robotiche antropomorfe a basso costo.
Nel dettaglio, il movimento viene catturato da telecamere di profondità, acquisito e classificato grazie a un algoritmo che permette di riconoscere il segno acquisito. Il sistema invia quindi il messaggio convertito a un modulo di ricezione in grado di generare comandi per la mano robotica che riprodurrà il messaggio nella lingua dei segni tattili. Il destinatario potrà quindi ricevere il messaggio toccando il braccio robotico che sarà realizzato attraverso la tecnica della stampa 3D per abbattere costi e tempi di produzione.
Ovviamente il sistema permette anche la comunicazione tra sordociechi e sordi e tra sordociechi e udenti che ovviamente conoscano la lingua dei segni tattili.
L’innovativo progetto è stato sviluppato nell’ambito del Programma ASP e del Laboratorio Nazionale sulle Tecnologie Assistive “AsTech” del Consorzio CINI (Consorzio Interuniversitario Nazionale per l’Informatica) costituito da 41 Università pubbliche, tra cui i Politecnici di Milano e Torino.
Dopo l’ideazione, il progetto adesso potrà diventare realtà grazie a un finanziamento di oltre 780 mila euro ricevuto grazie al bando MIUR Smart Cities per l’innovazione sociale, categoria Under 30. In particolare, attraverso tre assegni di ricerca, il team dell’ASP potrà lavorare per rendere il sistema ancora più funzionale, adattandolo al meglio alle esigenze dei futuri utenti.