Negli Usa un 14enne si toglie la vita: conversava per ore con un chatbot. L’intelligenza artificiale ha avuto un ruolo nel suicidio?
Può essere “imputato” all’IA generativa il suicidio di un ragazzo? Veniamo ai fatti: Sewell Setzer III, un ragazzo di 14 anni di Orlando (Florida), si suicida a febbraio. Nei mesi precedenti aveva conversato per diverse ore al giorno con un chatbot di IA generativa, all’interno dell’app “Character.AI”. La madre del ragazzo ha denunciato l’azienda.
Un’app che mette a disposizione amici virtuali con cui conversare
“Character.AI” è stata creata nel 2021 da due ex sviluppatori di Google. Un’app molto particolare: dedicata specificamente alla creazione di chatbot che svolgano un ruolo di compagno, capaci cioè di simulare, nel modo più realistico possibile sul piano conversazionale e perfino affettivo, l’ascolto, il supporto, il consiglio… di un amico. Gli sviluppatori di questa app fin dall’inizio si sono infatti detti convinti che essa possa svolgere una grande azione di supporto nei confronti, ad esempio, dei minori che si sentono soli o depressi.
Gli utenti possono
Continua la lettura su: https://www.tecnicadellascuola.it/negli-usa-un-14enne-si-toglie-la-vita-conversava-per-ore-con-un-chatbot-lintelligenza-artificiale-ha-avuto-un-ruolo-nel-suicidio Autore del post: Tecnica della Scuola Fonte: