QuestIt lancia l’avatar che comprende e parla la lingua dei segni

I punti chiave

3′ di lettura

Una nuova legittimazione. Dopo decenni di utilizzo due anni fa, la Lis è stata riconosciuta come lingua. Ora arriva il primo virtual human in Italia capace di produrre e comprendere la la Lingua dei Segni Italiana. Il prodotto, che sarà lanciato sul mercato tra tre mesi, è frutto dell’innovazione della toscana QuestIT, in collaborazione con l’Università di Siena, l’Istituto di Scienze e Tecnologie della Cognizione del Cnr, il Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana.

«Abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un assistente virtuale di ultima generazione che conosce alla perfezione la Lingua dei Segni Italiana – ha spiegato Ernesto Di Iorio, ceo di QuestIt – Grazie ad esso, potenziamo la «digital accessibility» e diamo l’opportunità ai cittadini sordi di accedere autonomamente a informazioni e servizi offerti da enti e realtà del territorio come la Pubblica Amministrazione e le banche, ma i potenziali campi di applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie».

Loading…

Attualmente la tecnologia, in qualità di virtual assistant, può essere inserita all’interno di siti web, applicazioni, sistemi proprietari e totem interattivi. Una volta che la persona in questione si presenta dinanzi allo schermo e inizia ad interagire a suon di segni, l’avatar analizza le espressioni facciali del singolo, oltre ai suoi movimenti, e risponde utilizzando la Lis. In questo modo è in grado di offrire consulenze, a seconda del contesto di riferimento, ai clienti sordi.

Un processo partecipato

Per mettere a punto il prodotto i sordi sono stati i protagonisti. «Siamo stati coinvolti sin dall’inizio, in ogni fase del processo sono state ascoltate le nostre esigenze» ha detto Alessio Di Renzo, linguista, primo ricercatore sordo in Italia. «È importante sapere che in questo progetto sviluppato nell’ottica di artificial intelligence for all, abbiamo coinvolto non utenti generici, ma utenti esperti» ha detto Olga Capirci dirigente di ricerca al Cnr dove coordina il Laboratorio LaCAM (Language and Communication Across Modalities) e dove lavorano stabilmente quattro persone sorde. «Siamo riuscita realizzare a sviluppare il concetto di human-centered design» ha detto Patrizia Marti, docente di Università di Siena e ricercatrice di experience design.

Scopri di più

Al lavoro sulla traduzione

QuestIt ha in programma di integrare il prodotto con la funzione di traduttore capace di tradurre le parole in segni. «Per un traduttore vero e proprio servono grandi quantità di dati, potrebbe essere un passaggio successivo. Per ora pensiamo alla possibilità di poter tradurre delle funzionalità operative di base». Insomma, non un interprete vero e proprio con caratteristiche di completezza e precisione ma uno strumento agile che consenta traduzioni operative.

Continua la lettura su: https://www.ilsole24ore.com/art/questit-lancia-l-avatar-che-comprende-e-parla-lingua-segni-AEbrTdXC Autore del post: Il Sole24Ore Tecnologia Fonte: https://www.ilsole24ore.com/

Articoli Correlati

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000