Forse ne avrete già sentito parlare, i guanti SignAloud potrebbero rivoluzionare le tecnologie legate alla lingua dei segni.
Due studenti americani dell’Università di Washington, Thomas Pryor e Navid Azodi, hanno vinto il premio Lemelson-MIT; il concorso del Massachusetts Institute of Technology che punta a valorizzare e sostenere le idee più promettenti dell’anno.
Il concetto alla base di questi supporti è, almeno sulla carta, molto semplice: tradurre in parole il linguaggio dei segni.
Per consentire una comunicazione fluida e scorrevole, i guanti devono essere indossati dalla persona non udente nel corso delle proprie conversazioni. I movimenti delle mani impegnate nella produzione dei gesti vengono catturati dai guanti e rielaborati sotto forma di testo.
I SignAloud sono dotati di sensori di movimento connessi a un dispositivo (per il momento un pc) tramite Bluetooth, il computer riceve i dati inerenti alla posizione delle mani in tempo reale e, mediante algoritmo, interpreta e riproduce i segni in parole.
Per il momento, i guanti sono progettati sulla base della ASL, ovvero la lingua dei segni americana, e riescono a convertire gli input solamente in lingua inglese. I due ragazzi hanno dichiarato di voler espandere questa nuova tecnologia anche ad altre lingue.
SignAloud: pro e contro
Sebbene tecnologie similari fossero già in commercio, i SignAloud hanno il vantaggio di essere molto leggeri e maneggevoli. Per dirlo con le parole di Thomas Pryor: “Molti dei dispositivi di traduzione del linguaggio dei segni che sono già disponibili non sono adatti all’uso quotidiano. Alcuni usano input video, altri hanno sensori che coprono l’intero braccio o il corpo dell’utente. I nostri guanti sono leggeri, compatti e si indossano solamente sulle mani, inoltre sono abbastanza ergonomici da essere usati come accessori per tutti i giorni, similmente agli apparecchi acustici o alle lenti a contatto”.
Un’idea davvero innovativa, anche perché diciamolo chiaramente, il MIT non premia di certo il primo che passa.
Tuttavia, come giustamente sottolinea Stefan Huyghe su Multilingual, non è tutto oro quello che luccica.
Parrebbe infatti che l’invenzione presenti alcuni errori e imperfezioni capaci di smorzare gli entusiasmi.
In primis, il sistema si concentra solamente su uno degli aspetti fondamentali del linguaggio, i segni. Tutti le lingue dei segni si compongono, almeno, di due aspetti: uno verbale (i segni appunto) e uno non verbale (le espressioni del viso e del corpo). Il secondo, escluso dalla traduzione SignAloud, modificherebbe il tono del messaggio veicolato, indicando se una frase è, ad esempio, da interpretare come una domanda o come un’affermazione. Consultare un segnante nel corso della progettazione avrebbe sicuramente fatto emergere questa problematica.
Inoltre, l’algoritmo sembrerebbe poter contare su un dataset limitato di segni su cui basare l’elaborazione dell’input, risultando quindi impreciso e approssimativo.
Sebbene ancora imperfetta, questa invenzione rappresenta un grosso passo avanti per le tecnologie volte a consentire alle persone non udenti una comunicazione più semplice e immediata.
Insomma, tempo al tempo…e bravi ragazzi!