Cara Intelligenza Artificiale: nella scienza e nella tecnologia ci siamo anche noi donne

L’autorevole dizionario britannico Collins ha scelto “Artificial Intelligence” come termine dell’anno per il 2023: è uno dei tanti segni di come, nel giro di poco più di 12 mesi, l’intelligenza artificiale sia diventata “mainstream”.
Ma l’IA non è certo nata ieri: nello scorso decennio tecnologie come l’apprendimento automatico (machine learning), l’apprendimento profondo (deep learning) o le reti neurali hanno trovato un numero crescente di applicazioni, dagli smartphone alle lavatrici, dalle automobili ai software gestionali, dal riconoscimento biometrico agli assistenti virtuali per la smart home.
Se prima queste tecnologie operavano dietro le quinte e interagivamo con esse spesso senza rendercene conto, l’arrivo di chatGPT e la diffusione dell’IA generativa ne hanno reso palesi e visibili le potenzialità, i rischi, le opportunità e soprattutto i pregiudizi intrinseci.

È proprio sui pregiudizi, in particolare quelli di genere, che voglio soffermarmi. Da anni ormai discutiamo di come l’intelligenza artificiale rischi di perpetuare gli stereotipi nascosti nel

Continua la lettura su: https://www.repubblica.it/tecnologia/2024/02/12/news/cara_intelligenza_artificiale_nella_scienza_e_nella_tecnologia_ci_siamo_anche_noi_donne-422098070/?rss Autore del post: La Repubblica Fonte: https://www.repubblica.it

Articoli Correlati

Cara Intelligenza Artificiale: nella scienza e nella tecnologia ci siamo anche noi donne

L’autorevole dizionario britannico Collins ha scelto “Artificial Intelligence” come termine dell’anno per il 2023: è uno dei tanti segni di come, nel giro di poco più di 12 mesi, l’intelligenza artificiale sia diventata “mainstream”.Ma l’IA non è certo nata ieri: nello scorso decennio tecnologie come l’apprendimento automatico (machine learning), l’apprendimento profondo (deep learning) o le reti neurali hanno trovato un numero crescente di applicazioni, dagli smartphone alle lavatrici, dalle automobili ai software gestionali, dal riconoscimento biometrico agli assistenti virtuali per la smart home.Se prima queste tecnologie operavano dietro le quinte e interagivamo con esse spesso senza rendercene conto, l’arrivo di chatGPT e la diffusione dell’IA generativa ne hanno reso palesi e visibili le potenzialità, i rischi, le opportunità e soprattutto i pregiudizi intrinseci.

È proprio sui pregiudizi, in particolare quelli di genere, che voglio soffermarmi. Da anni ormai discutiamo di come l’intelligenza artificiale rischi di perpetuare gli stereotipi nascosti nel linguaggio e nelle relazioni sociali.Uno dei tanti casi di scuola risale al 2018, quando una nota azienda si accorse di come un algoritmo di machine learning per la selezione del personale tendeva a preferire candidati uomini ai profili femminili per le posizioni tecniche e ingegneristiche. L’IA usata per il sistema era stata allenata su dati che rappresentavano lo status quo, ed aveva dunque “imparato” a riproporre esattamente quei pregiudizi sul genere degli ingegneri e sulla predilezione delle donne per le discipline STEM (Science, Technology, Engineering, and Mathematics) che l’azienda avrebbe voluto evitare.Se in quel caso per accorgersi del “bias” intrinseco servì una contro-analisi umana dei risultati dell’algoritmo, con l’intelligenza artificiale generativa i pregiudizi diventano invece subito visibili a chiunque inserisca un prompt di testo su chatGPT.

La lista

Le 10 donne simbolo dell’IA nel 2023

di Gabriella Rocco

01 Gennaio 2024

Grazie alla loro capacità di generare testi e immagini, i Large Language Model sono diventati involontariamente delle cartine di tornasole capaci di mostrare con semplicità gli stereotipi nascosti nei crudi dati.

Con Valore D, l’associazione che presiedo, abbiamo condotto un piccolo esperimento, domandando a chatGPT (GPT-4 con DALL•E 3) di mostrarci “il ritratto di un AI Engineer”. Lo abbiamo fatto per cinque volte con prompt leggermente differenti (sempre in inglese per usare termini neutri ed evitare di connotare il genere scrivendo “un’ingegnere” o “un’ingegnera” attraverso l’uso dell’apostrofo in italiano). Per cinque volte il sistema ci ha restituito lo stesso tipo di immagine: un uomo caucasico, magro e di bell’aspetto, in un ufficio o un laboratorio.

Cara Intelligenza Artificiale: nella scienza e nella tecnologia ci siamo anche noi donne

L’autorevole dizionario britannico Collins ha scelto “Artificial Intelligence” come termine dell’anno per il 2023: è uno dei tanti segni di come, nel giro di poco più di 12 mesi, l’intelligenza artificiale sia diventata “mainstream”.Ma l’IA non è certo nata ieri: nello scorso decennio tecnologie come l’apprendimento automatico (machine learning), l’apprendimento profondo (deep learning) o le reti neurali hanno trovato un numero crescente di applicazioni, dagli smartphone alle lavatrici, dalle automobili ai software gestionali, dal riconoscimento biometrico agli assistenti virtuali per la smart home.Se prima queste tecnologie operavano dietro le quinte e interagivamo con esse spesso senza rendercene conto, l’arrivo di chatGPT e la diffusione dell’IA generativa ne hanno reso palesi e visibili le potenzialità, i rischi, le opportunità e soprattutto i pregiudizi intrinseci.

È proprio sui pregiudizi, in particolare quelli di genere, che voglio soffermarmi. Da anni ormai discutiamo di come l’intelligenza artificiale rischi di perpetuare gli stereotipi nascosti nel linguaggio e nelle relazioni sociali.Uno dei tanti casi di scuola risale al 2018, quando una nota azienda si accorse di come un algoritmo di machine learning per la selezione del personale tendeva a preferire candidati uomini ai profili femminili per le posizioni tecniche e ingegneristiche. L’IA usata per il sistema era stata allenata su dati che rappresentavano lo status quo, ed aveva dunque “imparato” a riproporre esattamente quei pregiudizi sul genere degli ingegneri e sulla predilezione delle donne per le discipline STEM (Science, Technology, Engineering, and Mathematics) che l’azienda avrebbe voluto evitare.Se in quel caso per accorgersi del “bias” intrinseco servì una contro-analisi umana dei risultati dell’algoritmo, con l’intelligenza artificiale generativa i pregiudizi diventano invece subito visibili a chiunque inserisca un prompt di testo su chatGPT.

La lista

Le 10 donne simbolo dell’IA nel 2023

di Gabriella Rocco

01 Gennaio 2024

Grazie alla loro capacità di generare testi e immagini, i Large Language Model sono diventati involontariamente delle cartine di tornasole capaci di mostrare con semplicità gli stereotipi nascosti nei crudi dati.

Con Valore D, l’associazione che presiedo, abbiamo condotto un piccolo esperimento, domandando a chatGPT (GPT-4 con DALL•E 3) di mostrarci “il ritratto di un AI Engineer”. Lo abbiamo fatto per cinque volte con prompt leggermente differenti (sempre in inglese per usare termini neutri ed evitare di connotare il genere scrivendo “un’ingegnere” o “un’ingegnera” attraverso l’uso dell’apostrofo in italiano). Per cinque volte il sistema ci ha restituito lo stesso tipo di immagine: un uomo caucasico, magro e di bell’aspetto, in un ufficio o un laboratorio.

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000