AI Act e Linee Guida per l’utilizzo dell’AI: guida pratica per le scuole

Immagine generata da AI

All’interno delle scuole si vive una condizione di particolare frustrazione legata alle Linee guida sull’uso dell’AI nelle scuole che interpretano i dettati normativi a livello europeo (AIR act) e nazionale (L132/2025). Questo perchè dapprima si è avviata e conclusa nelle scuole un’articolata attività formativa in merito all’introduzione di questa nuova tecnologia cosi’ impattante nelle dinamiche di insegnamento/apprendimento e poi si indicano alle scuole di adottare tutta una serie di azioni che, se ispirate esclusivamente da un atteggiamento “terrorizzato” e “terrorizzante” potrebbero escluderne o limitarne fortemente l’uso.

Cerchero’ di dare una chiave interpretativa che vada oltre la paura della norma e verso uanreale innovazione didattica.

E’ ormai evidente come l’intelligenza artificiale stia cambiando ciò che sembrava fattibile in tutti gli ambiti, compreso insegnamento e apprendimento. Anche il recente regolamento Ue vede questa grande opportunità, mirando a diffondere un uso dell’IA centrato sulle persone e sicuro (preambolo 1 e 4), capace di dare una mano nello studio e rendere l’attività didattica più creativa e coerente con gli stili cognitivi dell’ultima generazione di studenti.

Questa riflessione è rivolta ai presidi e agli insegnanti, coinvolti nel Regolamento come veri attori nell’uso – o applicazione – delle novità tecnologiche, con l’intento di capire bene i dubbi legati alla normativa intricata. Questa semplice guida mira a ridurre quelle incertezze, proponendo un orientamento semplice e diretto per muoversi tra le nuove regole. Puntero’ sugli aspetti davvero necessari insieme alle potenzialità concrete, favorendo un approccio informato, protetto e costruttivo verso l’utilizzo dell’IA nelle scuole.

1. Il principio guida del Regolamento: un approccio basato sul rischio

Al centro del regolamento europeo non c’è un blocco totale, bensì una strategia legata ai pericoli concreti (punto 26). Il principio è chiaro: le intelligenze artificiali differiscono tra loro, quindi la legge agisce a seconda della gravità e dell’estensione dei danni possibili.

Immaginate un semaforo, giusto per capirci meglio.

Rischio Vietato (Luce Rossa): Sistemi d’intelligenza artificiale ritenuti tanto pericolosi da minacciare i principi e le libertà essenziali dell’UE, al punto che non possono proprio esistere.

Rischio elevato (luce gialla): tecnologie con intelligenza artificiale ammesse solo se rispettano regole severe, dato che possono influire su benessere, incolumità oppure libertà individuali.

Rischio scarso oppure quasi nullo (via libera): quasi tutti i sistemi di intelligenza artificiale, con pericoli ridotti, regolati da semplici norme su chiarezza.

Con questo metodo, si punta su ciò che conta davvero, così da liberare ampio margine per innovazioni solide e ben pensate.

 

2. Il semaforo dell’IA nella scuola: cosa si può fare e a quali condizioni

2.1. Luci rosse: i metodi con l’intelligenza artificiale da evitare a scuola

L’articolo 5 della norma indica alcune azioni con l’intelligenza artificiale che non si possono fare, punto. A scuola, quelle più importanti sono:

Inferire le emozioni: non si può mettere in circolazione né usare «sistemi d’intelligenza artificiale per capire come ci si sente nelle scuole» (Articolo 5, comma 1, punto f). Il blocco serve a difendere alunni e insegnanti da strumenti poco trasparenti, dubbi dal punto di vista scientifico, capaci di generare giudizi sbagliati oppure trattamenti diversi legati a umori supposti.

Sfruttare punti deboli: non si possono usare metodi che approfittano di età oppure condizioni sociali fragili (Articolo 5, paragrafo 1, lettera b). Una regola importante per evitare che ragazzi più giovani vengano influenzati con trucchi poco chiari.

Punteggio sociale (“Social Scoring”): usare sistemi d’intelligenza artificiale per giudicare oppure ordinare le persone in base al loro modo di agire o a tratti personali non è permesso, quando questo valore causa svantaggi immotivati (Articolo 5, paragrafo 1, lettera c). Un approccio contrario agli ideali scolastici di imparzialità e partecipazione.

 

2.2. Luci gialle: i metodi più rischiosi e cosa deve fare la scuola

Per via dell’articolo 6 e dell’allegato III del regolamento, certe applicazioni di intelligenza artificiale nell’ambito della formazione professionale vengono considerate a elevata pericolosità. Nonostante ciò, non sono proibite; tuttavia richiedono misure precauzionali ben definite.

I scenari a rischio elevato nell’ambiente scolastico includono, tra gli altri (Appendice III, voce 3):

  • Metodi impiegati per decidere chi entra nelle scuole oppure ci può accedere.
  • Modi impiegati per controllare quanto si è imparato.
  • Metodi messi in atto per capire quanto studio basta a un individuo.
  • Strumenti messi in atto per controllare azioni non consentite degli alunni mentre fanno gli esami, con l’obiettivo di individuarle subito.

Capire bene chi fa cosa è importante: da una parte c’è chi sviluppa e vende il programma d’intelligenza artificiale, dall’altra chi lo usa, tipo un istituto scolastico. Quasi tutte le responsabilità legate alle regol, roba come carte o manuali tecnici, stanno con chi produce il sistema. L’istituto, anche se non deve far passare nulla attraverso procedure ufficiali, deve comunque servirsene in maniera attenta e secondo quanto previsto.

A livello concreto, quando compra un software a rischio elevato, la scuola deve chiedere al venditore tutti i documenti necessari per dimostrare che il prodotto è conforme, come la dichiarazione UE e le guide operative complete (Art. 13). Senza questa verifica da parte del fornitore, l’istituto non può usarlo in modo regolare.

Ecco i requisiti minimi per una scuola che vuole usare un sistema d’intelligenza artificiale potenzialmente rischioso, spiegati con una lista semplice tratta dagli articoli 26 e 27. Anche se limitati nel campo d’azione, questi doveri risultano essenziali per impiegare tali tecnologie in modo lecito e appropriato.

1. Segui bene quel che dice il manuale: devi attenerti alle indicazioni del produttore (Articolo 26, paragrafo 1), altrimenti rischi di usarlo male. In questo modo funziona come deve e non corri pericoli.

2. Chi si occupa del controllo – come insegnanti o impiegati scolastici – deve saper leggere bene i risultati prodotti dal sistema automatico. Queste figure devono anche poter intervenire, nel caso servisse, bloccando o cambiando quello che la macchina propone (articolo 14 e articolo 26). A decidere davvero però è sempre una persona, mai un algoritmo.

3. Prima di usare un sistema a rischio elevato, la scuola – visto che fa parte della pubblica amministrazione – deve per forza analizzare come potrebbe colpire i diritti basilari degli alunni e dei dipendenti (Articolo 27). Non si tratta solo di riempire moduli senza senso, bensì di riflettere con attenzione. Bisogna domandarsi: questo strumento incide sulla parità, sul dato privato o sulle chance formative dei ragazzi? Magari finisce per favorire certe persone a discapito di altre? 3. Chi protegge chi è più a rischio? I materiali dati da chi fornisce servizi aiuteranno a capirlo, però spetta alla scuola decidere come usarli nella pratica.

4. Avvisare chi è coinvolto: bisogna far capire bene a ragazzi e genitori che si trovano dentro un sistema d’intelligenza artificiale potenzialmente rischioso (articolo 26, comma 11), indicando cosa serve quel sistema e come influenza le scelte previste.

 

2.3. Luce Verde: posto nuovo grazie a strumenti poco pericolosi

Tutte le intelligenze artificiali fuori dalle fasce “bloccate” oppure “pericolose” vengono classificate come poco o quasi per nulla rischiose. Vale la pena dire che quasi tutti gli ausili utili in classe appartengono a questo gruppo: programmi per fare slide con aiuto automatico, motori smart per cercare informazioni rivolti a insegnanti e alunni, applicazioni per produrre arte digitale, ambienti formativi personalizzabili senza effetti pesanti sulle valutazioni, insieme ad altre soluzioni simili. A questi dispositivi servono poche regole da seguire, talvolta nessuna, quindi risultano perfetti per chi vuol provare l’automazione dentro la scuola senza fretta né conseguenze gravi.

Da ricordare: il rischio cambia secondo l’impiego. Per esempio, un’intelligenza artificiale che butta giù una mail ai genitori sta su un livello leggero. Invece, se la stessa IA viene adattata per correggere i compiti dei ragazzi in modo automatico, finisce tra quelle considerate molto rischiose come detto prima. Ecco perché conta tantissimo capire dove e come si usa.

 

3. Le regole di trasparenza per tutti: parlare chiaro con l’IA

Qualunque sia il grado di rischio, secondo quanto previsto dall’articolo 50 del regolamento, devono essere comunicate chiaramente certe informazioni, così chiunque capisca se sta parlando con un sistema automatico oppure no.

Chi usa un’intelligenza artificiale a scuola – tipo un chatbot per aiuto nello studio o info su questioni burocratiche – deve sapere subito che non parla con una persona vera, ma con un programma. L’avviso va mostrato in modo chiaro fin dall’inizio dell’interazione.

Contenuti fatti dal computer: chi produce foto, suoni, filmati oppure scritti con algoritmi deve segnalarlo in modo chiaro. La regola vale soprattutto per i programmi che inventano roba nuova – tipo trasformare parole in disegni o scrivere testi automatici – così la gente ci pensa prima di credere a tutto.

 

4. Un Percorso Pratico per Iniziare: I Primi Passi per la Vostra Scuola

Occuparsi delle regole non va mai a fermare il cambiamento. Anzi, spesso diventa una mossa utile per agire con più senso e preparazione. Vediamo qualche azione precisa da fare:

  • Iniziare dall’educazione di base su IA (Articolo 4): La prima mossa, cruciale però leggera da attuare, riguarda imparare. Secondo l’articolo 4 dello stesso regolamento, chi usa IA a scuola deve far crescere nei propri collaboratori solide conoscenze sul tema. Si va oltre il semplice uso di uno strumento digitale: serve pensiero critico per valutare output generati da sistemi automatici, identificare distorsioni nascoste oppure accorgersi quando una raccomandazione tecnologica modifica piani formativi o sfiora limiti dei ragazzi. Proporre incontri mirati – rivolti sia a insegnanti che al resto del team scolastico – diventa utile non tanto per aggiornarsi, quanto per creare spirito di osservazione collettiva ed evitare errori durante prove concrete.
  • Provare con calma: La regola dice che nasceranno “zone dove mettere alla prova le intelligenze artificiali” (articolo 57), cioè posti gestiti in cui provare nuove idee insieme al controllo di chi deve vigilare. Potrebbe diventare una chance per gli istituti più attivi, quelli pronti a lanciarsi su sistemi complicati senza restare nel vago legale.
  • Affrontare il limite delle risorse: la norma nazionale che recepisce quella Ue, seguendo l’usuale metodo legislativo, contiene una clausola che blocca nuove spese; tutto va fatto usando personale e soldi già previsti dalle leggi attuali. Non bisogna considerarlo un problema bensì uno stimolo per muoversi con calma e criterio. Si parte da soluzioni semplici, magari gratuite oppure economiche, così dopo si decide se spendere di più solo quando l’istituto avrà acquisito esperienza e sicurezza reali.
  •  

L’IA come Alleata, non come Ostacolo

Il regolamento Ue sull’IA non blocca la creazione di nuove idee, anzi: serve a guidarle con senso critico e mettendo le persone al centro. Nella scuola, questa regola indica una strada precisa: stop a qualche uso davvero rischioso, massima prudenza in alcuni casi specifici ritenuti delicati, però libertà quasi totale per provare soluzioni innovative senza pericoli. Conoscendo bene nozioni come gestione dei rischi, doveri di chiarezza nelle informazioni e controllo umano costante, presidi ed educatori possono usare l’intelligenza artificiale dentro le classi non come un problema burocratico, bensì come uno strumento efficace per adattare lo studio ai singoli ragazzi, favorire il pensiero originale e rendere i giovani più pronti per il futuro.

Concludo quello che vuil essere un modesto contributo, allegando un fac-simile di Regolamento di Istituto sull’utilizzo dell’AI a scuola che potrete liberamente scaricare e personalizzare

Scarica  fac-simile di Regolamento di Istituto sull’utilizzo dell’AI a scuola

Continua la lettura su: http://www.robertosconocchini.it/index.php/intelligenza-artificiale/9316-ai-act-e-linee-guida-per-lutilizzo-dellaiguida-pratica-per-le-scuole.html Autore del post: Maestro Roberto Fonte: https://www.robertosconocchini.it/

Articoli Correlati

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000