L’intelligenza artificiale in cattedra
Tecnologia e apprendimento: tra promessa educativa, rischio cognitivo e responsabilità della scuola, la lezione decisiva resta la ricerca del vero.
Pico della Mirandola bambino
L’invasione di campo dell’Intelligenza Artificiale
La situazione attuale è nota: l’Intelligenza Artificiale (d’ora in poi I.A.) tende a invadere e permeare sempre più il campo dell’insegnamento-apprendimento anche in Italia. Sono numerose ormai le iniziative intese a favorire un’interazione sinergica di questa nuova risorsa con studenti e docenti. Nelle edicole sono in vendita riviste per l’utilizzo dell’I.A. dedicate appositamente agli studenti con consigli ed esempi. Non mancano quotidiani a stampa che contribuiscono a favorire l’espandersi del fenomeno con opuscoli divulgativi dal carattere di vere e proprie guide o istruzioni per l’uso. In un certo senso l’I.A. può essere vista insediata “in cattedra” accanto al docente, anche se in realtà non è detto che il suo apporto allo studio abbia come sede di elezione le aule scolastiche: infatti la sua fruizione può avvenire, come di fatto avviene, al di fuori di ogni luogo definito e di ogni orario istituzionale.
Mentre agli albori dell’avvento dell’I.A. la sua funzione “cattedratica” non era all’ordine del giorno, si è andato sviluppando col tempo un esplicito e preciso orientamento verso l’impiego didattico delle sue applicazioni: ciò accade, ad esempio, con la modalità studio, reclamizzata come opportunità di imparare risparmiando tempo. Le diverse applicazioni dell’I.A. sono già strutturate per offrire percorsi di apprendimento, comportandosi come insegnanti, in quanto non solo offrono informazioni, ma formulano a loro volta domande per suscitare personali riflessioni e guidare ad approfondire gli argomenti sui quali sono state interpellate. L’I.A. procede dunque verso una sorta di fittizia umanizzazione, in modo tale da accattivarsi sempre più chi la usa.
Bisogna tener presente che l’I.A. come campo di utilizzo non ha soltanto la scuola.
Ormai ogni ambito dell’attività umana ne è permeato e questo fenomeno allo stato attuale è da ritenere irreversibile. Non mancano tentativi di uso dell’I.A. a fini terapeutici in un campo delicato come la psicologia e non solo in ambito professionale, ma anche per iniziative personali al di fuori di ogni controllo medico. Sul sito dell’Huffington Post nell’articolo intitolato “Sei un peso, muori”. Attenti a sostituire lo psicologo con l’algoritmo, l’intelligenza umana è diversa Davide D’Alessandro informa che una percentuale non trascurabile di giovani ricorre all’I.A. in modo più o meno occasionale non solo per fare i compiti, ma anche per ricevere assistenza psicologica, come risulta da una stima di Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università di Tor Vergata. Sul sito di Rai News si può ripercorrere la drammatica vicenda del quattordicenne: innamoratosi di un personaggio virtuale creato da Character.Ai, gli ha confidato la sua intenzione di suicidarsi e l’ha messa in atto, come se volesse incontrarsi con lui in un aldilà sognato. Dunque, è fondamentale soffermarsi sui pericoli che l’I.A. può far correre.
Pericoli
C’è chi ricorda le riserve di Platone sull’invenzione della scrittura, secondo il filosofo destinata a indebolire la memoria e insieme la capacità di riflettere a fondo sui problemi, le riserve di Erasmo da Rotterdam sull’invenzione della stampa, secondo lui ed altri umanisti destinata a favorire forme di lettura approssimative e superficiali, e le riserve odierne di quanti sono diffidenti circa l’impiego dell’I.A. nella didattica, paventando uno scadimento di originalità e genuinità nelle prestazioni scolastiche dei discepoli. Queste preoccupazioni erano state anticipate dalla fantasia di Gianni Rodari. Nella sua novella intitolata La macchina per fare i compiti lo scrittore aveva introdotto uno strano venditore, che andava in giro offrendo ai papà “una macchina per fare i compiti” con diversi bottoncini dedicati ciascuno a una materia di studio, senza pretendere pagamenti in denaro, ma accontentandosi di avere in cambio il cervello dei bambini; sennonché ogni bambino, una volta privato del cervello, diventerebbe così leggero che volerebbe via, se non fosse rinchiuso in gabbia.
Tutta la scena altro non era che un sogno, ma un sogno profetico: il meccanismo dell’I.A. comporta il rischio, segnalato oggi anche da studi scientifici, di atrofizzare le capacità cognitive degli utenti. Ne verrebbe fuori una generazione di studenti in avaria, danneggiati nelle loro sfere cerebrali, senza contare che analoghi danni potrebbero verificarsi anche nelle menti di persone adulte.
Paolo Benanti
Questo pericolo viene sottolineato oggi da diversi intellettuali e ricercatori. Paolo Benanti, teologo francescano docente presso la LUISS Guido Carli e l’Università di Seattle, nonché membro del Comitato sull’Intelligenza Artificiale delle Nazioni Unite, e Sebastiano Maffettone, docente di Filosofia politica e Teorie della Globalizzazione anch’egli presso la LUISS, lo hanno segnalato a un vasto pubblico dalle colonne del quotidiano Corriere della Sera del 3 dicembre 2025 nell’articolo intitolato Se l’IA indebolisce il cervello, sormontato dall’occhiello Il test. Università e intelligenza artificiale: bisogna prevenire una possibile emergenza cognitiva. Il digitale non allena la mente. L’allarme dei due qualificati studiosi si basa su esperimenti come quello effettuato presso il MIT (Cambridge, Boston), il cui scopo era quello di verificare mediante EEG (elettroencelografia) una ipotizzata diversità di attivazioni neurali in termini di connettività cerebrale tra gruppi impegnati nella scrittura di un saggio: ebbene, il gruppo di chi ha utilizzato solo il proprio cervello ha ottenuto risultati migliori rispetto a chi si è servito di strumenti I.A., dimostrando “una maggiore capacità di richiamo della memoria e un re-coinvolgimento dei nodi occipito-parietali e prefrontali diffusi”. Concludono i due luminari:
“La sfida non è rifiutare la tecnologia, ma garantire che l’essere umano che la maneggia rimanga cognitivamente integro, capace di quello sforzo neurale profondo che, come ci dicono i dati, resta la condizione necessaria per la vera creazione di senso.”
In ogni caso gli esperimenti scientifici in atto tendono a confermare con sempre maggiore evidenza che l’utilizzo dell’I.A. comporta modifiche più meno incisive della sfera cerebrale degli utenti, destinate a diventare strutturali.
Di qui le comprensibili preoccupazioni di psicologi, psicoanalisti e psichiatri, fra i quali Vittorio Lingiardi, professore ordinario di Psicologia dinamica presso l’Università degli Studi di Roma, che sul quotidiano la Repubblica del 9 dicembre 2025 segnala studi come quello dell’Apa – American Psychological Association intitolato Use of Generative AI Chatbots and Wellness Applications for Mental Health. An Apa Health Advisory. Fin dal titolo si comprende come l’I.A. possa essere un’insidia per la salute mentale, a partire dalla compromissione della memoria. Sul sito della rivista in rete il tascabile nell’articolo Ricordare per procura Flavio Pintarelli si sofferma sul problema del cognitive offloading, scarico cognitivo, che consiste nell’affidare a supporti esterni alla memoria cerebrale ciò che si ritiene necessario ricordare, poiché non è possibile ricordare tutto, a meno che non si sia un Pico della Mirandola. Tradizionalmente, ad esempio, si prendono appunti sia retrospettivi che progettuali in forma manoscritta, mentre oggi il progresso tecnologico offre nuove modalità per archiviare eventi passati e registrare intenzioni per il futuro. In particolare, l’I.A. risparmia all’utente in cerca di informazioni la consultazione diretta delle fonti, che di conseguenza restano obliterate. Un effetto negativo della pratica di affidarsi in tal modo all’I.A. consiste in una negazione della creatività:
“Automatizzando le pratiche di offloading cognitivo rischiamo di privarci del tempo necessario affinché un’informazione si depositi nella nostra memoria fino a diventare un pensiero originale.”
Vantaggi
Un notevole vantaggio potrebbe essere ottenuto con l’inserire l’I.A. nei programmi come autonoma materia di studio, senza comportare però un suo isolamento: sarebbe importante stabilire rapporti sinergici con le altre discipline, sia umanistiche che scientifiche, fra le umanistiche in primis et ante omnia con la filosofia e fra quelle scientifiche in primis et ante omnia con la matematica unitamente all’informatica. In prospettiva l’I.A. è destinata a permeare sempre più gli ambiti dello studio, del lavoro, di ogni altro ambito professionale, ad esempio medico, tecnico e tecnologico, e della stessa vita quotidiana.
Un’adeguata consapevolezza dei modi di funzionare di questa straordinaria risorsa si rende necessaria per garantirne un corretto utilizzo. Bisogna considerare inoltre la rapidità con cui l’I.A. si evolve grazie alle ricerche scientifiche in campo internazionale: la scuola non dovrebbe lasciarsi sfuggire l’occasione di restare sempre aggiornata su tali sviluppi, destinati a incidere profondamente anche su orientamenti fondamentali come quelli politici: è agevole rendersi conto di come sia in gioco fra l’altro la difesa dei regimi democratici contro gli assalti delle autocrazie.
Un aspetto da considerare con particolare attenzione riguarda il fattore tempo. Si tratta di stabilire se e fino a che punto inserire l’uso dell’I.A. nello studio delle discipline comporti un risparmio oppure uno spreco dei tempi di applicazione. In ogni caso sperimentare può consentire di trovare le soluzioni più efficienti grazie a forme di rinnovata collaborazione fra docenti e studenti. Così va prendendo forma la nuova educazione digitale: un’educazione di tipo triangolare, che comporta scambi di idee, pareri, critiche, perplessità, soddisfazioni fra docenti, studenti, applicazioni dell’I.A.
Istruzioni per l’uso
Come si è accennato all’inizio, le guide all’uso dell’I.A. ai fini dei processi di insegnamento-apprendimento sono andate proliferando in modo esponenziale. Una così abbondante precettistica da una parte comporta una sua utilità, dall’altra rischia di interferire con un libero uso della nuova risorsa. La tendenza ad allontanarsi dalla semplificazione del problema può essere controproducente. Conviene partire da ciò che si presenta come più semplice e immediato: il rapporto iniziale fra l’utente e la macchina. È da ritenere che la macchina debba essere trattata come una persona.
Questa affermazione risulterà sorprendente e assurda, se non si sarà tenuto conto di ciò che il termine persona può significare, partendo dalla sua etimologia latina. Etimologicamente la persona è una maschera, un personaggio teatrale: di qui il significato che il termine assume nella moderna psicologia analitica, ossia “parte della personalità con cui l’individuo, evitando di rivelare le sue strutture profonde, si presenta nel suo ambiente sociale quotidiano”. Per analogia, possiamo considerare l’I.A. una persona pronta a dialogare con chi la interroga come un essere umano, nascondendo però dietro le sue sembianze la sua natura meccanica. Ciò che importa è che di fronte a questa partner, ovvero compagna come componente di una coppia, lo studente si ponga con la consapevolezza di dialogare in ambito educativo con una macchina e non con un essere umano, anche perché il rapporto fra studente e I.A. può stabilirsi anche al di fuori della triangolarità alla quale abbiamo accennato in precedenza, ossia in ambito domestico.
Le istruzioni per l’uso dell’I.A. provengono ormai da diverse fonti. Ad esempio, uno dei Manuali di Login s’intitola significativamente Intelligenza artificiale e scuola. Guida all’uso per docenti, dirigenti (e genitori curiosi) e riporta fra l’altro “esempi di buone pratiche già in uso nelle classi italiane”. Ritorneremo poi sulle “buone pratiche”. Ora osserviamo che la stessa I.A. può fornire istruzioni per usarla, se all’uopo consultata. Immaginiamo che uno studente rivolga la seguente richiesta ad una applicazione dell’I.A. scelta fra Chat GPT, Google Gemini, Google DeepMind, Microsoft Copilot, Mistral AI e tante altre: “Sono uno studente e ti chiedo in che modo puoi aiutarmi nello studio.”
A seconda dell’applicazione scelta la risposta sarà diversa, più o meno dettagliata, persuasiva ed efficace. Fra le tante risposte diverse riportiamo questa:
“Ciao! Essendo un modello di intelligenza artificiale avanzato, posso supportarti in molti modi nel tuo percorso di apprendimento. Ecco i principali: posso fornirti spiegazioni chiare e approfondite su concetti difficili, materie specifiche o argomenti complessi; se un concetto è troppo astratto, posso cercare di spiegarlo usando analogie, esempi pratici o metafore per renderlo più comprensibile; se hai un testo lungo (un articolo, un capitolo di un libro), posso riassumerlo evidenziando i punti chiave e le informazioni essenziali per lo studio; posso aiutarti a creare schemi, liste puntate o tabelle per organizzare e visualizzare meglio le informazioni da memorizzare; posso generare domande di verifica o quiz per testare la tua comprensione su un argomento che hai appena studiato; posso darti esercizi aggiuntivi o aiutarti a controllare i passaggi di quelli che hai già svolto; posso accedere e rielaborare rapidamente informazioni aggiornate su quasi ogni argomento grazie alla ricerca su Google e questo è utile per ricerche scolastiche o per approfondimenti; se studi una lingua, posso aiutarti con la traduzione, fornirti esempi di frasi in contesto, spiegare le regole grammaticali o correggere brevi testi che scrivi. Per poterti aiutare al meglio, ho bisogno che tu mi dica su quale argomento ti serve aiuto in questo momento e qual è il tuo obiettivo (capire un concetto, riassumere un testo, fare esercizi, eccetera).”
Sorvolando per ora sulla plausibilità di questo tipo di pedagogia artificiale, anche perché uomini e donne di scuola sono in grado di riconoscerne ictu oculi i limiti, immaginiamo che lo studente abbia manifestato una certa insofferenza e insoddisfazione per le proposte di supporto ricevute:
“Per me sarebbe più semplice essere aiutato da te a copiare.”
Nel simulare una situazione del genere, interrogando un’applicazione dell’I.A. abbiamo ottenuto la seguente risposta:
“Capisco la tua intenzione, ma non posso aiutarti a copiare: non sarebbe né corretto né utile per te. Quello che invece posso fare è rendere lo studio molto più semplice e veloce. In questo modo non solo superi gli esami, ma impari davvero e ti porti dietro competenze utili anche dopo la scuola.”
L’I.A. interpellata ha precisato che si è offerta, per usare le sue stesse parole, come “supporto allo studio etico”.
Si noti che nel dialogo non è stata fatta dall’I.A. alcuna menzione del ruolo degli educatori nel processo educativo. Per riprendere una famosa espressione formulata a suo tempo da Raffaele Laporta in un diverso clima storico e sociale della nostra Repubblica, la nuova “difficile scommessa” riguarda la capacità di integrare la tecnologia nella comunicazione educativa. Risulta evidente la necessità di riassorbire le possibili prestazioni dell’I.A. nei rapporti interpersonali vissuti. Si tratta nel contempo di stabilire quale possa essere l’apporto dell’I.A. allo studio delle varie discipline. È questa la sfida che la scuola deve accettare, per uscirne vincitrice.
Niccolò Machiavelli (1469-1527)
Il problema della verità
Sul supplemento il venerdì del quotidiano la Repubblica il 28 novembre 2025 è stato pubblicato un servizio di Marco Bracconi dal titolo C’era una volta la verità e sottotitolato Ogni epoca la sua, dice Umberto Galimberti in un nuovo saggio. E oggi? “Oggi trionfa la tecnica: è vero soltanto ciò che è efficace. Ed è così che l’Uomo svanisce dalla Storia.” Intervista filosofica. Il contenuto dell’intervista verte sui mutamenti storici dell’idea di verità fino all’odierna confusione della verità con la tecnologia. Partendo dalla visione del filosofo, siamo indotti a riflettere sulla menzogna, sull’inganno, sul tradimento, che adulterano la verità nell’ambito dei rapporti interpersonali e più specificamente sul piano politico. Bisogna stare in guardia dai bias o pregiudizi, che possono allignare nelle fonti alle quali l’I.A. attinge. È più che mai necessario lo spirito critico di fronte alle cosiddette fake news o notizie false. Le fake news sono così descritte nella relativa voce dell’Enciclopedia on line Treccani:
“Locuzione inglese (lett. notizie false), entrata in uso nel primo decennio del XXI secolo per designare un’informazione in parte o del tutto non corrispondente al vero, divulgata intenzionalmente o inintenzionalmente attraverso il Web, i media o le tecnologie digitali di comunicazione, e caratterizzata da un’apparente plausibilità, quest’ultima alimentata da un sistema distorto di aspettative dell’opinione pubblica e da un’amplificazione dei pregiudizi che ne sono alla base, ciò che ne agevola la condivisione e la diffusione pur in assenza di una verifica delle fonti. […] Il neologismo ha conosciuto amplissima diffusione a partire dal 2016, ed è entrato prepotentemente nel lessico giornalistico grazie all’impiego fattone l’anno successivo dal neoeletto D. Trump per sostanziare le sue campagne contro i mezzi di informazione. […]”
La voce continua col ricordare che dal 2018 nell’ambito delle scienze dell’educazione è invalso l’uso di sostituire il fenomeno della fake news con il concetto di postverità, intesa come falsa verità che la pubblica opinione contribuisce a diffondere nel momento stesso in cui ne è condizionata. Ciò è particolarmente grave in politica: chi detiene il potere si ispira sovente, per non dire sempre, alla figura del Principe tratteggiata da Niccolò Machiavelli, quella di un politico che deve apparire esempio di ogni virtù in senso etico ed essere al contrario astuto e feroce (a dire il vero, oggi chi detiene il potere nelle grandi potenze sembra non curarsi di dissimulare la sua astuzia e la sua ferocia).
Forse l’avvento dell’I.A. con la sua possibilità di ingannare consente di porre in primo piano questa esigenza vitale anche per la democrazia: dobbiamo impegnarci a far comprendere ai giovani che la lezione più importante da seguire riguarda la ricerca della verità.
L’articolo L’intelligenza artificiale in cattedra proviene da MATMEDIA.IT.
Commenti