Noti qualcosa di strano in questo video?
OpenAI, l’azienda che ha lanciato ChatGPT, ha presentato il suo ultimo sistema di intelligenza artificiale in grado di generare filmati iper-realistici (qualche esempio nel video sopra) a partire da una semplice richiesta formulata con un testo scritto. Il software si chiama Sora e oltre a raccogliere elogi per le sue potenzialità, ha sollevato parecchie preoccupazioni sui possibili rischi insiti nel programma. Una tecnologia deepfake tanto potente, potrebbe infatti essere utilizzata per seminare notizie false, soprattutto alla vigilia di importanti appuntamenti elettorali come quello del novembre prossimo negli Stati Uniti d’America.
Come funziona Sora. La versione di Sora presentata da OpenAI può creare video di 60 secondi utilizzando solo istruzioni di testo, oppure un breve testo abbinato a una immagine. Il video dimostrativo ha destato particolare impressione, mostrando come, con una scarna descrizione scritta, si possano creare scene iperrealistiche con una donna che passeggia per Tokyo, un cane che si diverte sulla neve o una mandria di Mammuth alla carica. Per raggiungere questo livello di realismo Sora combina due diversi approcci all’IA: nel primo utilizza un modello simile a quello dei generatori di immagini come Dall-E, nel secondo, detto “architettura del trasformatore”, contestualizza e lega insieme dati sequenziali, esattamente ciò che fanno i modelli linguistici per assemblare parole e frasi comprensibili.
Uso improprio: rischi notevoli. A lanciare l’allarme sulle capacità nocive di un software così avanzato è stato Hany Farid, docente di giurisprudenza digitale all’Università di Berkeley: «Questa già sorprendente tecnologia – ha spiegato – migliorerà rapidamente, avvicinandoci sempre di più a un’epoca nella quale sarà difficile distinguere il falso dal reale». Per ora, OpenAI risponde di non aver ancora messo Sora a disposizione del pubblico, proprio perché deve prima concludersi il lavoro di un team di esperti per valutare contromisure adeguate (l’introduzione di filigrane o identificatori univoci all’interno dei video, per esempio) che ne evitino un uso improprio. Questa tecnologia è infatti già in grado di ingannare la gente comune, e se le aziende informatiche, i gestori dei social media e le istituzioni mondiali non collaboreranno, la portata della disinformazione dei prossimi anni potrebbe essere seriamente compromessa.
La storia si ripete? D’altra parte, la costante dell’evoluzione informatica è che ogni innovazione ha portato con sé le due proverbiali facce della medaglia: quella positiva legata ai possibili sviluppi di una nuova tecnologia, e quella negativa relativa al suo abuso.
Fu così con i social network, che con il buon proposito di connettere il mondo hanno parallelamente polarizzato le posizioni degli utenti, tirando fuori il peggio di ognuno, e più recentemente è stato così con l’esordio dei software di intelligenza artificiale generativa. Questi, se ben utilizzati, possono facilitare la vita in molti campi, soprattutto nella ricerca scientifica ma potrebbero presentare il conto con ricadute negative sull’occupazione o addirittura destabilizzare interi Stati.
Continua la lettura su: https://www.focus.it/tecnologia/innovazione/come-funziona-sora-nuova-IA-che-genera-video-anche-troppo-realistici Autore del post: Focus Rivista Fonte: http://www.focus.it