Negli Usa un 14enne si toglie la vita: conversava per ore con un chatbot. L’intelligenza artificiale ha avuto un ruolo nel suicidio?

Può essere “imputato” all’IA generativa il suicidio di un ragazzo? Veniamo ai fatti: Sewell Setzer III, un ragazzo di 14 anni di Orlando (Florida), si suicida a febbraio. Nei mesi precedenti aveva conversato per diverse ore al giorno con un chatbot di IA generativa, all’interno dell’app “Character.AI”. La madre del ragazzo ha denunciato l’azienda.

Un’app che mette a disposizione amici virtuali con cui conversare

“Character.AI” è stata creata nel 2021 da due ex sviluppatori di Google. Un’app molto particolare: dedicata specificamente alla creazione di chatbot che svolgano un ruolo di compagno, capaci cioè di simulare, nel modo più realistico possibile sul piano conversazionale e perfino affettivo, l’ascolto, il supporto, il consiglio… di un amico. Gli sviluppatori di questa app fin dall’inizio si sono infatti detti convinti che essa possa svolgere una grande azione di supporto nei confronti, ad esempio, dei minori che si sentono soli o depressi.

Gli utenti possono

Continua la lettura su: https://www.tecnicadellascuola.it/negli-usa-un-14enne-si-toglie-la-vita-conversava-per-ore-con-un-chatbot-lintelligenza-artificiale-ha-avuto-un-ruolo-nel-suicidio Autore del post: Tecnica della Scuola Fonte:

Related Articles

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000