L&#039, allarme of Stanford: IA viene addestrata anche dai migliaia di immaginipedopornografiche

Artificial intelligence viene addestrata tang dati forniti dall’uomo. These facts, in turn, result in a significant problem. Non è guitar una questione di proprietà intellettuale dei immagini, de testi o la musica a hanno si “ispirano” la macchine. It is a very real risk, one that threatens the pedopornography and is curious and expensive.

The Stanford Internet Observatory has amassed more than 3.200 immagini of sospetti abusi su minori tra quelle raccolte da LAION, an enormous database with stati allenati i modeli fondazionali artificial intelligences conceptual come Secure Diffusion, which consents to creare foto realistiche from one test description.

I Stanford University professors have been working with the French Centre for Child Protection and other organizations that fight against children’s abuse. Tra la immagini trovate nel collection, di almeno mille è stata confermata la pedopornografica terra.

I gestori del databases LAION assessment deciso di sospendere temporally l’accesso ai dati in seguito alla pubblicazione

Continua la lettura su: https://www.repubblica.it/tecnologia/2023/12/21/news/intelligenza_artificiale_archivio_immagini_pedopornografiche-421718137/?rss Autore del post: La Repubblica Fonte: https://www.repubblica.it

Articoli Correlati

L&#039, allarme of Stanford: IA viene addestrata anche mu migliaia di immaginipedopornografiche

L’intelligenza artificiale viene addestrata sui dati forniti dall’uomo. E questi dati, talvolta, costituiscono un problema enorme. Non è solo una questione di proprietà intellettuale delle immagini, dei testi o della musica a cui si “ispirano” le macchine. C’è un pericolo ancora più grande, inquietante e nascosto agli occhi, che riguarda la pedopornografia.Lo Stanford Internet Observatory ha trovato più di 3.200 immagini di sospetti abusi su minori tra quelle raccolte da LAION, un enorme database su cui sono stati allenati i modelli fondazionali di popolari intelligenze artificiali generative come Stable Diffusion, che consentono di creare foto realistiche a partire da una descrizione testuale.I ricercatori dell’Università di Stanford hanno lavorato insieme al Canadian Centre for Child Protection e ad altre organizzazioni che combattono gli abusi su minori. Tra le immagini trovate nel database, di almeno mille è stata confermata la natura pedopornografica.
In seguito alla pubblicazione dell’indagine di Stanford, i gestori del database LAION hanno deciso di sospendere temporaneamente l’accesso ai dati. “La nostra politica prevede tolleranza zero per i contenuti illegali. Quindi per sicurezza abbiamo rimosso i dataset di LAION per verificare che siano sicuri prima di renderli nuovamente disponibili online”.Nel suo database LAION (Large-scale Artificial Intelligence Open Network) conserva 5,8 miliardi di immagini. L’intelligenza artificiale prende spunto da questo enorme archivio. In pratica l’IA utilizza i dettagli e le caratteristiche che apprende dalle immagini esistenti per produrne altre simili ma tecnicamente inedite.Questo non vuol dire che le IA generative permettono a chiunque di generare immagini pedopornografiche. Bing Image Creator di Microsoft, Midjourney o Dall-E 3 di OpenAI – alcune tra quelle più famose e aperte al pubblico – hanno filtri molto efficaci che impediscono di ottenere qualsiasi tipo di immagine di nudo o che contenga rapporti sessuali.Gli utenti, tuttavia, in molti casi hanno dimostrato di saper aggirare i termini di servizio dei colossi tech che sviluppano e commercializzano l’intelligenza artificiale. A volte è una semplice questione di semantica: basta chiedere le cose in modo diverso per ottenere i risultati desiderati.

Intelligenza artificiale

Da Topolino “terrorista” alle immagini razziste: il lancio di una nuova AI, ancora più potente e facile da usare, è finito malissimo

di Pier Luigi Pisa

10 Ottobre 2023

La presenza di immagini illegali nei database a cui attinge l’IA, seppure in quantità minima rispetto ai miliardi di foto disponibili, è quindi preoccupante. Non solo perché teoricamente può consentire a IA meno controllate di generare immagini esplicite, ma anche perché le vittime reali continuano a essere danneggiate. L’abuso che hanno subito, infatti, si propaga nuovamente attraverso gli algoritmi, assumendo di volta in volta forme diverse.A questo si aggiunge la semplicità con cui, oggi, si possono ottenere immagini violente, diffamatorie o appunto esplicite.All’IA generativa, che imita la creatività umana, serve infatti un semplice prompt – un comando di testo – per creare testi sorprendenti o immagini straordinarie. A chi la usa non vengono richieste, quindi, competenze informatiche. Tutto quello che serve è una proprietà di linguaggio appena sufficiente. In passato, invece, per creare contenuti espliciti credibili, era necessaria quantomeno la confidenza con programmi di fotoritocco professionali.

L&#039, allarme from Stanford: IA viene addestrata anche mu migliaia di pedopornografiche immagini

L’intelligenza artificiale viene addestrata sui dati forniti dall’uomo. E questi dati, talvolta, costituiscono un problema enorme. Non è solo una questione di proprietà intellettuale delle immagini, dei testi o della musica a cui si “ispirano” le macchine. C’è un pericolo ancora più grande, inquietante e nascosto agli occhi, che riguarda la pedopornografia.Lo Stanford Internet Observatory ha trovato più di 3.200 immagini di sospetti abusi su minori tra quelle raccolte da LAION, un enorme database su cui sono stati allenati i modelli fondazionali di popolari intelligenze artificiali generative come Stable Diffusion, che consentono di creare foto realistiche a partire da una descrizione testuale.I ricercatori dell’Università di Stanford hanno lavorato insieme al Canadian Centre for Child Protection e ad altre organizzazioni che combattono gli abusi su minori. Tra le immagini trovate nel database, di almeno mille è stata confermata la natura pedopornografica.
In seguito alla pubblicazione dell’indagine di Stanford, i gestori del database LAION hanno deciso di sospendere temporaneamente l’accesso ai dati. “La nostra politica prevede tolleranza zero per i contenuti illegali. Quindi per sicurezza abbiamo rimosso i dataset di LAION per verificare che siano sicuri prima di renderli nuovamente disponibili online”.Nel suo database LAION (Large-scale Artificial Intelligence Open Network) conserva 5,8 miliardi di immagini. L’intelligenza artificiale prende spunto da questo enorme archivio. In pratica l’IA utilizza i dettagli e le caratteristiche che apprende dalle immagini esistenti per produrne altre simili ma tecnicamente inedite.Questo non vuol dire che le IA generative permettono a chiunque di generare immagini pedopornografiche. Bing Image Creator di Microsoft, Midjourney o Dall-E 3 di OpenAI – alcune tra quelle più famose e aperte al pubblico – hanno filtri molto efficaci che impediscono di ottenere qualsiasi tipo di immagine di nudo o che contenga rapporti sessuali.Gli utenti, tuttavia, in molti casi hanno dimostrato di saper aggirare i termini di servizio dei colossi tech che sviluppano e commercializzano l’intelligenza artificiale. A volte è una semplice questione di semantica: basta chiedere le cose in modo diverso per ottenere i risultati desiderati.

Intelligenza artificiale

Da Topolino “terrorista” alle immagini razziste: il lancio di una nuova AI, ancora più potente e facile da usare, è finito malissimo

di Pier Luigi Pisa

10 Ottobre 2023

La presenza di immagini illegali nei database a cui attinge l’IA, seppure in quantità minima rispetto ai miliardi di foto disponibili, è quindi preoccupante. Non solo perché teoricamente può consentire a IA meno controllate di generare immagini esplicite, ma anche perché le vittime reali continuano a essere danneggiate. L’abuso che hanno subito, infatti, si propaga nuovamente attraverso gli algoritmi, assumendo di volta in volta forme diverse.A questo si aggiunge la semplicità con cui, oggi, si possono ottenere immagini violente, diffamatorie o appunto esplicite.All’IA generativa, che imita la creatività umana, serve infatti un semplice prompt – un comando di testo – per creare testi sorprendenti o immagini straordinarie. A chi la usa non vengono richieste, quindi, competenze informatiche. Tutto quello che serve è una proprietà di linguaggio appena sufficiente. In passato, invece, per creare contenuti espliciti credibili, era necessaria quantomeno la confidenza con programmi di fotoritocco professionali.

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000