Troppi dati in rete crea un problema cognitivo nelle persone

Le organizzazioni si ritrovano ogni giorno a navigare in un mare sconfinato di dati, attratte dalla promessa, sempre più reclamizzata, di efficienza, innovazione, competitività senza precedenti.

Tuttavia, in questa presunta era della semplificazione, dell’interconnessione, dell’ottimizzazione, ci scontriamo quotidianamente con un paradosso, che spesso preferiamo dissimulare: se da un lato è vero che mai come oggi la conoscenza è stata così facilmente a disposizione, dall’altro appare sempre più difficile trasformarne il potenziale in decisioni lucide, in visioni strategiche, in intelligenza azionabile. Accumuli di report, database, archivi, sistemi di knowledge management crescono a dismisura, in una rincorsa costante alla raccolta di nuovi dati, ma l’accessibilità cognitiva – quella che potremmo chiamare infodisponibilità – sembra sfuggirci, rendendo evidente la fragilità della promessa tecnologica.

Le informazioni si moltiplicano, si stratificano, si intersecano. Ma la loro crescita non si accompagna a una pari evoluzione nella nostra capacità di comprenderle, filtrarle, convertirle in conoscenza utile.

È il sintomo evidente di una condizione di saturazione cognitiva: l’ambiente informativo si espande a ritmi vertiginosi, mentre restano ferme – o con un processo di crescita troppo lento – le competenze critiche, selettive e collaborative delle persone e dei sistemi che dovrebbero governarlo. Non ci manca più l’accesso ai dati, oramai potenzialmente attivabile in mille modi diversi: ci manca la capacità di dar loro senso, di farli dialogare tra loro, di estrarne valore. E soprattutto ci mancano il coraggio, la lungimiranza e l’onestà intellettuale per riconoscere che non tutta l’informazione ha lo stesso peso, la stessa vitalità o la stessa urgenza. In questo cambio di scenario, oggi, la vera intelligenza organizzativa si dovrebbe misurare così: nella capacità di discernere, scegliere, e creare connessioni significative in mezzo al rumore.

Dispersione strategica e paradossi della conoscenza organizzativa

In questo scenario, in maniera più o meno consapevole si stanno ponendo i presupposti per alimentare un rischio silenzioso e subdolo: la dispersione strategica. Una deriva in cui la sovrabbondanza di segnali informativi genera rumore, anziché intelligenza, indebolendo progressivamente la capacità collettiva di produrre senso, di trovare orientamento, di definire progettualità. Ecco quindi che organizzazioni intere, pur investendo milioni nella digitalizzazione di processi e patrimoni documentali, si trovano ad annaspare in una sorta di magma informativo, incapaci di distinguere ciò che conta da ciò che distrae, ciò che guida da ciò che, involontariamente, rischia di paralizzare.

Non si tratta quindi più semplicemente di gestire “troppe informazioni”, ma abbiamo a che fare con un problema più radicale: la necessità, sempre più evidente, di configurare una nuova relazione tra conoscenza e organizzazione, tra dati e decisioni, tra conoscenza individuale e intelligenza collettiva. È la sfida, urgentissima, di progettare ambienti cognitivi – nelle organizzazioni, nelle comunità, nella società intera – che non siano solo depositi statici di memoria, ma veri ecosistemi di generazione, selezione e amplificazione dell’intelligenza.

Proprio in questo contesto, tra tensioni strategiche e paradossi cognitivi, entra in gioco un altro grande equivoco del nostro tempo, tanto temuto quanto celebrato: la relazione necessaria, imprescindibile, con l’intelligenza artificiale. Troppo spesso concepita come uno strumento di automazione cognitiva passiva – sostanzialmente, una macchina a cui “delegare” il compito di gestire la complessità – l’AI rischia di essere ridotta a una sorta di scorciatoia illusoria, a una finta panacea che permette di dissimulare, senza risolverla, l’anemia cognitiva delle organizzazioni. Tuttavia, chi la conosce davvero lo sa: se progettata, sviluppata e governata con la giusta visione, potrebbe diventare il più potente agente abilitante dell’intelligenza collettiva fino ad oggi implementato.

Non siamo, com’è evidente, solo di fronte a una questione tecnologica. Siamo di fronte a una questione strategica, culturale, epistemologica, politica: chi decide cosa è conoscenza valida? Chi orchestra la condivisione di idee e competenze in un’epoca in cui la conoscenza è sempre più destinata ad essere frammentata, distribuita, accelerata? Quale ruolo vogliamo assegnare alle macchine intelligenti nel nostro futuro? Quale ruolo vogliamo rivendicare, per i decisori umani, in un mondo di sovraccarico cognitivo?

La posta in gioco non è banale: riguarda la capacità delle organizzazioni – pubbliche, private, sociali – di evolvere o di implodere sotto il peso della loro stessa, fondamentale, talvolta ingovernabile abbondanza informativa. Riguarda la possibilità di costruire ecosistemi cognitivi capaci di liberare davvero il potenziale dell’intelligenza tacita, implicita, diffusa nei corpi sociali. Riguarda, infine, la nostra capacità di usare l’AI per progettare il futuro della conoscenza come bene comune, come spazio condiviso di creazione di valore.

In questo articolo esploreremo il paradosso dell’infodisponibilità, i rischi della dispersione strategica e le potenzialità, ancora largamente inespresse, dell’AI come motore di intelligenza collettiva. Un viaggio che ci porterà, tra suggestioni e provocazioni, dalle arti della memoria medievali alle sfide delle piattaforme cognitive contemporanee, dalle botteghe rinascimentali ai nuovi modelli di design partecipativo, per interrogare criticamente il nostro rapporto con l’informazione, con la conoscenza e con la stessa possibilità di immaginare, abilitare e creare futuro.

Il paradosso dell’abbondanza: tra sovraccarico informativo e dispersione strategica

Nel cuore sempre più frenetico delle organizzazioni digitalizzate, dunque, si fa strada un paradosso ormai difficile da ignorare: la proporzionalità inversa tra i dati a disposizione e la capacità reale di capitalizzarne il valore potenziale. Secondo le stime di IDC, nel 2025 il mondo dovrebbe arrivare a produrre 175 zettabyte di dati (oltre 5 milioni di Gigabyte al secondo), generando un flusso informativo incessante, strabordante, difficilmente arginabile o indirizzabile in maniera costruttiva. Il concetto di information overload, introdotto da Alvin Toffler negli anni ’70, appare oggi più attuale che mai. Tuttavia, come ha efficacemente osservato il teorico dei media Clay Shirky, nel suo speech al Web 2.0 Expo di New York del 2008, il vero problema non è l’abbondanza di dati, ma il crollo, o l’inadeguatezza, dei filtri a disposizione: “It’s not information overload. It’s filter failure.” In un contesto in cui ogni secondo vede produrre più dati di quanti se ne possano analizzare in una vita, la sfida esige un radicale cambio di paradigma, che permetta di privilegiare la rilevanza rispetto alla quantità, la connessione rispetto all’accumulo, la comprensione profonda rispetto alla mera disponibilità.

Questa incapacità di filtrare e attribuire significato alle informazioni porta a quella che abbiamo definito “dispersione strategica”: una condizione in cui l’attenzione, le risorse disponibili e le decisioni organizzative si disperdono in una miriade di dati non correlati, riducendo l’accuratezza interpretativa, l’efficacia strategica e l’efficienza operativa. Inoltre, l’assenza di una governance efficace dei dati, che spesso viene concepita semplicemente come rigidità organizzativa, può portare a silos informativi, in cui le informazioni sono isolate all’interno di specifici dipartimenti o sistemi, impedendo una visione olistica e integrata dell’organizzazione. Questo, inevitabilmente, frammenta la conoscenza, limita la collaborazione interfunzionale, ostacola l’innovazione, l’adattabilità e la competitività.​

Per affrontare questi problemi, è dunque fondamentale sviluppare sistemi di gestione della conoscenza che non si limitino a raccogliere e archiviare dati, ma che facilitino l’accesso, la comprensione e l’attivazione del potenziale cognitivo – necessariamente relazionale – delle informazioni. Ciò implica da una parte l’adozione di tecnologie avanzate, come l’intelligenza artificiale, per supportare la selezione e l’analisi dei dati, ma esige, dall’altra, la promozione di una cultura organizzativa orientata alla condivisione, all’evoluzione costante e all’apprendimento continuo.​

In sintesi, l’era dell’informazione richiede un cambiamento di paradigma: da una focalizzazione sulla quantità di dati disponibili a un’enfasi – critica e consapevole – sulla qualità, l’accessibilità e l’utilizzabilità delle informazioni. Solo così le organizzazioni potranno trasformare l’abbondanza di dati in un reale vantaggio strategico.​

L’illusione dell’informazione: verso il concetto di “infodisponibilità”

Come abbiamo visto, l’accumulo di informazioni non corrisponde alla crescita del capitale cognitivo. Questa apparente disponibilità tecnica si rivela, troppo spesso, una disponibilità vuota. Non tutta l’informazione archiviata è effettivamente assimilabile, utilizzabile, strategicamente attivabile, o semplicemente interrogabile in modo corretto. È a partire da questa dissonanza che parliamo quindi di infodisponibilità: la misura reale di quella porzione di informazione rilevante (in base a parametri ed esigenze variabili) che non solo esiste, ma è cognitivamente accessibile, comprensibile, realmente trasformabile in valore operativo.

L’eventuale crisi di infodisponibilità non dipende dalla maggiore o minore quantità di dati, ma dall’eccesso di dati non curati, non filtrati, non sufficientemente contestualizzati. Soprattutto, dipende dalla qualità dell’ecosistema cognitivo, dai suoi processi di trasferimento, dalle sue dinamiche di relazione, dalle sue metodologie di interpretazione ed evoluzione interattiva. L’infodisponibilità si assottiglia ogni volta che il sovraccarico informativo, per quanto percepito come patrimonio imprescindibile, supera la capacità selettiva degli individui e delle organizzazioni, trasformando l’abbondanza in rumore, l’accesso in paralisi.

Le cause sono profonde e stratificate. Herbert Simon, in uno speech alla John Hopkins University nel 1971, Designing Organizations for an Information-Rich World, osservava con una lucidità davvero lungimirante che “a wealth of information creates a poverty of attention”: la ricchezza informativa rischia, inevitabilmente, di creare povertà attentiva. Oggi, com’è evidente, quella previsione si è avverata, nelle organizzazioni e nell’intera società, su scala globale. Occorre inoltre notare come la crescita incontrollata dei sistemi informativi proceda spesso in assenza di un vero pensiero curatoriale: le informazioni si sedimentano come strati geologici, senza una logica di senso che ne faciliti l’emersione o la disponibilità strategica. Infine, la sottovalutazione della gestione della conoscenza come pratica culturale e relazionale – anziché puramente tecnica – ha amplificato rapidamente la distanza tra informazione disponibile e informazione usabile.

Il risultato è dunque un paradosso sistemico: più informazioni accumuliamo, meno sappiamo come usarle. Più piattaforme adottiamo, meno intelligenza collettiva riusciamo a generare. Non è, evidentemente, solo l’individuo a essere sopraffatto, ma l’intero organismo organizzativo, che progressivamente rischia di frammentarsi, di perdere coerenza ed efficacia, alimentando, in maniera più o meno implicita, un progressivo deficit di orientamento strategico.

Affrontare la sfida dell’infodisponibilità significa dunque avere il coraggio di andare oltre la mera automazione dei flussi informativi. Significa ripensare radicalmente le architetture cognitive, progettando ambienti in cui le informazioni siano curate, filtrate, rese effettivamente navigabili e attivabili. Significa riconoscere che l’informazione, senza processi di contestualizzazione e valorizzazione, non solo rischia di perde efficacia, ma può diventare un fattore di entropia organizzativa.

Modelli storici e archetipi cognitivi per il futuro

La crisi odierna dell’infodisponibilità non è tuttavia un fenomeno isolato nella storia umana. Da sempre,infatti,  l’umanità si confronta con la sfida di organizzare, preservare e rendere accessibile il sapere. Già nel Medioevo, prima ancora dell’invenzione della stampa, i maestri delle arti della memoria — come ricordato magistralmente da Frances Yates nella sua opera The Art of Memory (1966) — svilupparono tecniche sofisticate per creare vere e proprie “memorie artificiali”: sistemi visivi e spaziali destinati a facilitare il richiamo di conoscenze complesse. Non si trattava soltanto di ricordare un numero maggiore di informazioni, ma di strutturare il pensiero attraverso spazi cognitivi organizzati, rispettosi della natura relazionale e dinamica della conoscenza, capaci di renderla accessibile, navigabile, operativa.

Un altro esempio, concettualmente utile alla riflessione odierna può essere individuato nelle botteghe, nelle accademie tecnico-artistiche e nei cantieri architettonici del Rinascimento italiano e fiammingo. Qui, l’interazione costante tra esperienza pratica, conoscenza teorica e generatività cognitiva era non solo evidente, ma necessaria, strutturale, sistematicamente integrata. I grandi cantieri, come quelli delle cattedrali o delle grandi macchine teatrali, erano ambienti ad alta densità epistemica, dove architetti, ingegneri, artigiani e filosofi collaboravano alla risoluzione di problemi complessi.

In contesti come questi, la conoscenza non era trasmessa in modo lineare, né rigidamente suddivisa in silos, ma co-generata attraverso la negoziazione continua tra teoria e prassi, tra innovazione e tradizione, tra individuo e collettività. La trasmissione del sapere avveniva per osmosi partecipativa, incorporata nei gesti, nei disegni, nelle discussioni, nelle correzioni reciproche. In questo senso, l’intelligenza collettiva era situata, pratica e generativa: produceva, dall’interazione, nuove soluzioni, nuovi strumenti, nuovi linguaggi, rendendo la conoscenza attivabile nel contesto, ma anche trasferibile al di fuori di esso.

Questi dispositivi storici non devono essere compresi semplicemente come suggestioni culturali, ma come modelli euristici che rivelano una costante antropologica: l’informazione, per trasformarsi in sapere operativo, ha bisogno di essere abitata, relazionata, praticata, condivisa. La sola accumulazione di dati non produce intelligenza; senza spazi intenzionali di progettazione cognitiva – ambienti, fisici o virtuali, che facilitino l’accesso, la connessione e la rielaborazione condivisa delle informazioni – il sapere si disperde. È in questa tensione tra struttura e relazione che si gioca, oggi, la vera sostenibilità della conoscenza.

Oggi come nel passato, siamo chiamati a capire come fare della conoscenza non solo una riserva, ma una forza generativa. E per riuscirci, in questo specifico contesto socio-tecnologico, dobbiamo interrogarci con urgenza su come vogliamo ripensare il design dei nostri ambienti informativi, su come vogliamo potenziare le architetture cognitive delle nostre organizzazioni, su come, soprattutto, vogliamo usare il vero valore abilitante dell’AI.

Ai come tessuto connettivo dell’intelligenza collettiva

In questo scenario di complessità crescente, in cui la competizione geo-economica si gioca anche sul terreno della competitività cognitiva, il ruolo dell’intelligenza artificiale non può essere confinato alla mera automazione dei processi o alla gestione passiva delle informazioni. Se interpretata con lungimiranza, l’AI dovrebbe invece essere concepita e utilizzata come un agente abilitante, un vero catalizzatore di intelligenza collettiva, capace di migliorare l’infodisponibilità e di convertirla in conoscenza dinamica e operativa.

Le applicazioni più avanzate, oramai, sono in grado di andare ben oltre l’automazione tradizionale. Sistemi come Pol.is, ad esempio, aiutano in maniera dinamica a mappare il consenso e il dissenso all’interno di grandi gruppi, facilitando decisioni più informate e partecipate. Piattaforme come Kumu.io permettono di visualizzare reti complesse di relazioni e informazioni, rendendo evidenti pattern nascosti e connessioni latenti. Tecnologie di knowledge graph aziendali, come quelle sviluppate da Diffbot, permettono di creare vere e proprie mappe semantiche navigabili della conoscenza distribuita.

Tuttavia, come abbiamo detto ripetutamente, la vera sfida non è solamente tecnologica, ma progettuale, culturale, strategica. È necessario ripensare radicalmente l’approccio stesso al concetto di “AI-first company”. Non si tratta semplicemente di adottare strumenti più avanzati o di permettere un’accelerazione dei flussi informativi esistenti, ma di reimmaginare l’intera architettura cognitiva dell’organizzazione. In questa prospettiva si inserisce l’esperienza di DiDo, un sistema di generative AI progettato dall’italiana Symboolic, non per sostituire il pensiero umano, distribuito nei sistemi complessi delle organizzazioni, ma per orchestrarlo, permettendo di liberare l’intelligenza tacita e diffusa che troppo spesso rimane intrappolata nei silos aziendali​, o nella viscosità dei processi gestionali.

Come sottolineato nella riflessione sull’AI-first organizzativa, il vero salto di paradigma non risiede nella capacità di automazione di ciò che già esiste, ma nella creazione di nuove modalità di attivazione del pensiero collettivo: un modello in cui l’AI agisca come un tessuto connettivo intelligente, capace di collegare persone, competenze, intuizioni e dati in tempo reale. DiDo sembra incarnare questa visione non come un oracolo onnisciente, ma come un orchestratore epistemico: un agente che facilita l’emergere di risposte nuove, attraverso il dialogo dinamico tra conoscenze diverse​.

Questo approccio, certamente più maieutico che prescrittivo, apre la strada a una forma di collaborazione aumentata senza precedenti, in cui l’AI non impoverisce il pensiero umano, non lo sostituisce, ma lo amplifica, liberandolo dai vincoli della frammentazione e della dispersione. È una prospettiva radicale, che vede l’innovazione resa possibile dall’introduzione dell’intelligenza artificiale non come un fine autoreferenziale, ma come un’infrastruttura abilitante per l’evoluzione della conoscenza organizzativa.

In questo modo, l’AI non si limita a rendere più veloci i processi decisionali, ma li rende più profondi, più consapevoli, più inclusivi. Non sostituisce la capacità umana di giudizio, intuizione e creatività, ma la esalta, costruendo un ambiente in cui l’intelligenza distribuita possa finalmente fluire e generare valore collettivo. È proprio alla luce di questa visione che si gioca, forse, la sfida più alta e più appassionante del nostro tempo.

Verso un nuovo umanesimo cognitivo e organizzativo

Siamo arrivati a un bivio storico. Di fronte alla pervasiva trasformazione digitale, che caratterizza la nostra quotidianità in innumerevoli aspetti, ogni organizzazione è chiamata a scegliere: continuare a subire l’inondazione di dati con un atteggiamento passivo, sperando di riuscire a perfezionare i processi per garantire una maggiore infodisponibilità, oppure assumersi la responsabilità di elaborare una nuova, consapevole, architettura dinamica della propria intelligenza collettiva.

La quantità di informazioni a disposizione, come abbiamo visto, non rappresenta, di per sé, un vantaggio. Non acquisirà maggiore capacità di indirizzare il futuro chi saprà accumulare dati, ma chi saprà organizzare la conoscenza, coltivando il pensiero critico, liberando le connessioni nascoste tra persone, idee, esperienze, superando la fisiologica dispersione informativa all’interno delle organizzazioni.

Proprio alla luce di questo contesto e delle sfide che implica, essere un’organizzazione AI-first, in futuro, significherà non solo investire in tecnologia, ma ripensare radicalmente, con l’AI, il proprio modello cognitivo. Significherà costruire sistemi che sappiano navigare l’incertezza, valorizzare la conoscenza tacita, capitalizzare l’esperienza accumulata, coltivare l’intelligenza latente. Questa trasformazione, dunque, non riguarderà solo l’efficienza dei processi o il potenziamento operativo. Riguarderà, in maniera molto più ampia e rilevante, la capacità delle organizzazioni di evolvere come sistemi intelligenti, capaci di apprendere, di adattarsi e di generare valore in modo distribuito e sostenibile.

Questa visione implica una ridefinizione profonda del modo in cui progettiamo il lavoro, prendiamo decisioni, valorizziamo le competenze e costruiamo cultura, dentro e fuori le organizzazioni. Non si tratta più, solamente, di chiedersi se l’intelligenza artificiale possa velocizzare o automatizzare ciò che già facciamo: si tratta di chiederci chi possiamo diventare, se sapremo usarla, finalmente, per pensare insieme.

Articoli Correlati

Fisco e privacy, alla ricerca dell’equilibrio tra diritti e lotta all’evasione

La recente riforma fiscale – realizzata nell’esercizio della delega legislativa conferita al Governo dalla l. n. 111 del 2023 e alla quale è stata data ampia attuazione attraverso la Legge di bilancio del 2024 – ci fa riflettere su un tema centrale per la democrazia: il rapporto tra efficienza delle politiche fiscali di lotta all’evasione, innovazione, rispetto dei diritti individuali[1].Si tratta di un tema delicatissimo per un Paese come il nostro che si caratterizza per l’elevato tasso di evasione ed elusione fiscale. Non è in dubbio che il contrasto di tali fenomeni sia indispensabile per realizzare la “promessa” dell’equità fiscale sancita dalla Costituzione e correlata al principio di progressività delle imposte. Sarebbe, tuttavia, semplicistico declinare il rapporto tra lotta all’evasione fiscale e privacy in termini di reciproca esclusione o, come talvolta è stato fatto, di antitesi. È un falso mito che il rispetto del diritto fondamentale della protezione dei dati ostacoli il raggiungimento degli obiettivi di politica fiscale.Indice degli argomenti
Perché il fisco e la privacy non si escludono a vicendaLa storia dei provvedimenti del Garante per la protezione dei dati personali, soprattutto di alcuni dei più recenti, ci dimostra esattamente il contrario: esiste una integrazione profonda tra lotta all’evasione fiscale, anche con l’ausilio della tecnologia, e protezione dati, sia in termini di tutela per l’individuo (che non può essere costantemente monitorato in ogni sua azione), sia per quanto concerne l’efficienza degli accertamenti stessi che, se condotti su dati esatti, aggiornati e pertinenti, consentono di ottenere risultati potenzialmente inattaccabili[2].    La disciplina privacy non offre, infatti, solo garanzie individuali per la persona che subisce l’accertamento, ma vere e proprie regole di efficacia dell’azione amministrativa, tanto più necessarie in un contesto, quale quello attuale, di profonda innovazione destinato a esiti rilevanti con l’impiego, sempre più significativo, dell’AI che si “nutre” principalmente di dati[3].Politiche fiscali: gli interventi del Garante privacyNegli ultimi anni la politica fiscale è andata nella direzione di una profonda digitalizzazione, con l’uso di modelli e tecniche di analisi deterministica o probabilistica basati su machine learning e intelligenza artificiale. Questi sistemi si sono sempre più alimentati di informazioni provenienti da banche dati pubbliche interconnesse.Alla luce dei pericoli legati ad una massiva raccolta di dati, ad una intensa concentrazione di informazioni rinvenibili in banche dati interoperabili e ad una eccessiva profilazione dei contribuenti, le direttici essenziali dell’attività del Garante hanno riguardato principalmente: la proporzionalità della raccolta dei dati; la sicurezza di sistemi e dei flussi informativi al fine di scongiurare accessi o esfiltrazioni di terzi non autorizzati ad informazioni, talvolta estremamente sensibili, degli interessati; la congruità delle limitazioni dell’esercizio dei diritti degli interessati; l’esattezza e la qualità dei dati utilizzati dagli algoritmi e dai sistemi di intelligenza artificiale.Tema, quest’ultimo, particolarmente rilevante nel contribuire a limitare il numero di errori nell’analisi del rischio fiscale, tanto più significativo rispetto all’analisi condotta, sempre più spesso, con procedure automatizzate anche basate sulle più avanzate tecnologie informatiche come il machine learning e l’intelligenza artificiale[4].Algoritmi e rischi fiscaliRispetto alle attività di analisi algoritmica del rischio fiscale o agli strumenti di determinazione sintetica del reddito, il requisito di esattezza e aggiornamento dei dati prescritto dall’art. 5, p. 1, lett. d) del GDPR, è prodromico, infatti, all’efficacia dell’azione accertativa. Le liste selettive di contribuenti da verificare sono elaborate con l’analisi algoritmica, incrociata, di informazioni, pseudonimizzate, tratte da diverse banche dati e sottoposte a re-identificazione solo nella fase successiva, di verifica dello scostamento registrato dall’algoritmo. Chiara, quindi, l’esigenza di selezionare le fonti di analisi dell’algoritmo anche secondo criteri di attendibilità, pena un’inevitabile distorsione del risultato. Sono, dunque, necessari non tanto e non solo, genericamente, una maggior quantità di dati, ma dati migliori, esatti, pertinenti, aggiornati, per fornire all’amministrazione una base informativa adeguata su cui fondare le proprie attività di controllo.Ci soffermiamo su tre casi significativi.I sistemi automatizzati per tracciare i profili di rischio dei singoli contribuenti: il c.d. “risparmiometro”Nel 2019 il Garante si è occupato della questione concernente lo sviluppo da parte dell’Agenzia delle Entrate di sistemi automatizzati per tracciare i profili di rischio di evasione dei singoli contribuenti. La sperimentazione, supportata da metodologie statistiche, doveva servire a sviluppare un modello di analisi volto a individuare le incongruenze tra le somme a disposizione del contribuente, rilevate dall’archivio dei rapporti finanziari, e i redditi e le spese desumibili dall’anagrafe tributaria.In altre parole, con questo sistema l’Agenzia delle Entrate sarebbe stata in grado di verificare se il contribuente avesse speso più di quanto effettivamente guadagnato grazie a un controllo incrociato e automatizzato dei suoi dati personali. Se i redditi in entrata venivano, invece, eccessivamente accantonati, si supponeva l’esistenza di guadagni non dichiarati, facendo scattare la contestazione dell’Agenzia. In altre parole, se il contribuente avesse risparmiato più del solito, sulla base delle suddette informazioni raccolte e incrociate tra loro, sarebbe stato ritenuto “sospetto” dal c.d. “risparmiometro” e sarebbe stato avviato un accertamento [5].Il Garante ha, dunque, in quella occasione, sottolineato l’importanza di verificare la qualità dei dati utilizzati, le elaborazioni effettuate e di implementare le garanzie nei trattamenti automatizzati per ridurre prudenzialmente i rischi per i diritti e le libertà degli interessati, correggendo potenziali errori o distorsioni per evitare un’errata rappresentazione della capacità contributiva del contribuente. Inoltre è stato sottolineato che la posizione di ciascun contribuente ‘selezionato’ dall’algoritmo avrebbe dovuto essere rivista da operatori qualificati, cioè con specifica formazione, delle Direzioni provinciali. Infine prima di essere convocato in contraddittorio, il contribuente avrebbe dovuto ricevere un’informativa completa, che spiegasse le conseguenze di un’eventuale mancata presentazione o di rifiuto a rispondere all’Agenzia.    Lotta all’evasione e profilazione tributariaIl secondo caso [6] da richiamare è il parere che il Garante ha rilasciato al MEF nel 2021 in merito al tema della profilazione tributaria finalizzata alla lotta all’evasione fiscale[7]. Attraverso l’ampliamento dell’efficacia di tale sistema sono state introdotte rilevanti limitazioni degli obblighi e dei i diritti di cui agli artt. 14, 15, 17, 19 e 21 del GDPR, in relazione ai trattamenti effettuati dall’Agenzia delle entrate e dalla Guardia di finanza per le attività di analisi del rischio evasione (art. 1, commi 682 e 686, della legge 27 dicembre 2019, n. 160). Ad esempio, secondo lo schema di decreto, il contribuente non avrebbe potuto sapere di essere sottoposto a profilazione, né conoscere quali dati personali fossero stati trattati fino alla ricezione dell’invito a regolarizzare la propria posizione fiscale. In altre parole, sarebbe stata drasticamente limitata la possibilità per i cittadini di comprendere se e come l’Agenzia delle Entrate stesse trattando i loro dati personali, attraverso il tracciamento delle loro abitudini e profilando la loro persona.In sostanza, una netta de-responsabilizzazione dell’Agenzia con riferimento ai propri obblighi di trasparenza che, va ricordato, non solo rappresentano la base per la garanzia del diritto a difendersi da parte dei cittadini, ma costituiscono uno dei capisaldi per esercitare correttamente il diritto all’autodeterminazione informativa.In tal senso, il Garante aveva già fornito alcune indicazioni, in sede di interlocuzioni informali,  volte, in particolare, a garantire l’esercizio del diritto di ottenere la rettifica dei dati personali inesatti, in considerazione del fatto che precluderne, o anche solo limitarne l’esercizio, avrebbe rischiato di ostacolare la rilevazione di errori nelle valutazioni prodromiche alle verifiche fiscali, determinando con ciò una falsa rappresentazione della capacità contributiva, nonché deviando e depotenziando l’efficacia dell’azione di contrasto dell’evasione fiscale.Il Garante ha, inoltre, rimarcato come in questo caso, tuttavia, le ipotizzate limitazioni all’esercizio dei diritti risultavano ultronee perché: non erano strettamente limitate ad accertamenti in corso, ma riguardavano anche i “potenziali” evasori; non sarebbero cessate al termine delle indagini condotte dall’amministrazione finanziaria; non era stato dimostrato come la restrizione al diritto di accesso avrebbe in concreto fatto emergere posizioni da sottoporre a controllo e incentivare l’adempimento spontaneo.Inoltre, sono state suggerite specifiche misure per garantire agli interessati il diritto di accesso ai dati presenti nel dataset di controllo, anche se non destinatari di inviti o provvedimenti tributari entro i termini di prescrizione, trovando un punto di equilibrio tra il diritto dell’interessato ad accedere a informazioni rilevanti e la tutela del dataset tributario per combattere l’evasione fiscale. Il che si può realizzare contemplando, ad esempio, specifiche ipotesi nelle quali i contribuenti non possono accedere ai dataset, nonché appositi termini di differimento del diritto di accesso, in modo tale da circoscrivere il più possibile la limitazione del diritto.In aggiunta, è stato richiesto di garantire che il processo decisionale volto all’avvio dei controlli fiscali non risultasse fondato esclusivamente su trattamenti automatizzati, prevedendo espressamente l’intervento umano, precisando – in seguito ad un’adeguata valutazione delle conseguenze e dei rischi per i diritti e le libertà degli interessati, riferibili anche alle limitazioni oggetto dello schema – se tale intervento fosse preliminare o meno all’inserimento dei dati nel dataset di controllo.Analisi dei rischi tramite machine learning e intelligenza artificialeNel 2022 l’Agenzia delle entrate ha manifestato l’intenzione di ricorrere a tecniche di machine learning, supervisionate e non, e a soluzioni di intelligenza artificiale per elaborare i dati dell’archivio dei rapporti finanziari e incrociarli con altre banche dati, con l’obiettivo di analizzare i rischi e i fenomeni evasivi/elusivi.L’uso del machine learning è stato autorizzato dal Garante[8] a condizione di offrire determinate garanzie a tutela degli interessati sulla base dei principi elaborati dai giudici amministrativi, dalle istituzioni europee e dal Consiglio d’Europa: in particolare, correttezza, non discriminazione, trasparenza, comprensibilità delle logiche degli algoritmi, robustezza e cybersicurezza, responsabilizzazione, limitazione del trattamento.Seguendo queste direttrici, tra le misure suggerite, spiccava la verifica in ordine all’individuazione delle banche dati utilizzate per creare il dataset usato per sviluppare i modelli di analisi, al fine di scongiurare l’opacità nella fase di sviluppo dell’algoritmo, che avrebbe potuto portare a errori e distorsioni nella rappresentazione della situazione del contribuente. Se i dati di addestramento dell’algoritmo sono inesatti, falsi, inattendibili, possono verificarsi errori di analisi e distorsioni, talvolta irreparabili. È, pertanto, necessario che i dataset siano accurati, costantemente aggiornati e prevedano un utilizzo ben circoscritto di dati particolarmente delicati (quali quelli dati appartenenti alle categorie particolari di cui all’art. 9 del GDPR, con specifico riguardo a quelli sulla salute) onde evitare conseguenze che possano determinare gravi discriminazioni in capo a uno o più interessati, adottando misure adeguate a tutelare soggetti vulnerabili quali i minori i cui dati dovessero risultare presenti all’interno dei dataset.Si pensi, solo per fare alcuni esempi, alle complicazioni dovute a un banale caso di omonimia che porti all’avviamento di un procedimento o, ancora, al contribuente che, per errore, si ritrovi in una black list e venga, pertanto, continuamente bersagliato da controlli e richieste di chiarimenti senza che vi sia una reale ragione. Si tratta di conseguenze immediate derivanti dall’utilizzo di dati inesatti, mentre altre non sono nemmeno visibili, o sono, comunque, difficilmente decifrabili, se non quando ormai è troppo tardi. Per tale motivo, la scelta e la cura dei data set sono – come ampiamente detto – un aspetto fondamentale a tutela degli individui da possibili discriminazioni.Fisco e privacy nella riforma fiscale (d.lgs. n. 13/2024)Sistematizzando queste esperienze, in sede di audizione dinanzi alla Commissione di vigilanza sull’anagrafe tributaria, poco prima dell’avvio dell’esame della delega fiscale, il Garante aveva suggerito di inscrivere le riforme in un piano organico di digitalizzazione dell’attività fiscale, per circoscrivere con certezza l’ambito di circolazione legittima dei dati ed evitarne l’ipertrofia indiscriminata, razionalizzandone l’acquisizione (da limitare alle sole informazioni fiscalmente rilevanti), assicurando anche garanzie di sicurezza adeguate e stringenti presupposti, soggettivi e oggettivi, di accesso per evitare esfiltrazioni indebite dei dati.Le indicazioni del Garante sono state, complessivamente, seguite in sede di redazione della delega fiscale e, quindi, di esercizio delle relative deleghe legislative[9].Se, infatti, comprensibilmente, i criteri direttivi del d.lgs. n. 13/2024 individuano come obiettivi, anche per ridurre il tax gap, la piena utilizzazione dei dati nella disponibilità dell’Agenzia anche mediante interoperabilità (art. 2, comma 3), il potenziamento dell’analisi del rischio, il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale (art. 1),è comunque espressamente previsto il vincolo di conformità di tali attività alla disciplina di protezione dati (art. 2, comma 1, lett. a).Questo comporta, in primo luogo, una congrua selezione del patrimonio informativo, sulla base appunto dei principi di proporzionalità, minimizzazione, esattezza, limitazione della finalità e della conservazione, sicurezza, trasparenza, di cui all’art. 5 GDPR.In secondo luogo, va registrata positivamente l’esclusione dal novero delle informazioni acquisibili dall’amministrazione quelle contenute nelle banche dati di polizia o degli uffici giudiziari, o consentendone l’uso da parte della Guardia di finanza, ma con le garanzie speciali previste, per questa particolare categoria di dati, dal relativo plesso normativo applicabile (d.lgs. n. 51 del 2018 di recepimento della cd. “direttiva” polizia). Semplificando, i dati giudiziari per l’analisi tramite machine learning e intelligenza artificiale potranno essere utilizzati nel rispetto delle garanzie rafforzate previste a livello europeo.Rispetto alla limitazione dell’esercizio dei diritti degli interessati, fondamentale l’esclusione, dal novero dei diritti suscettibili di limitazione, del diritto di rettifica, nella consapevolezza della sua utilità per la stessa esattezza delle informazioni trattate e, quindi, della corretta rappresentazione del rischio fiscale dell’interessato.Il nodo del web scraping ai fini dell’analisi del rischio fiscaleIndubbiamente il nodo più complesso da sciogliere in relazione alla riforma ha riguardato la possibilità di utilizzo, da parte dell’Agenzia delle entrate, di informazioni “pubblicamente disponibili” ai fini dell’analisi del rischio fiscale.In sede di parere (reso l’11 gennaio 2024) il Garante ha chiesto – e ottenuto – di espungere il riferimento a queste informazioni non meglio individuate, in quanto prive dei necessari requisiti di esattezza – non potendosi quindi ritenere affidabili, né aggiornati e pertanto suscettibili di violare il principio di qualità del dato – e raccolte per fini diversi da quelli per le quali esse vengono rese disponibili[10]. La norma, nella sua generalità, legittimava infatti ipotesi molto diverse tra loro, non tutte compatibili con la disciplina di protezione dati e con lo stesso Ai Act.Se, infatti, l’uso di fonti aperte qualificate (ad esempio la sezione “amministrazione trasparente” di molti siti di pp.aa.) non presenta particolari criticità in quanto riguarda informazioni complessivamente attendibili e previamente vagliate, in particolare da organi pubblici, maggiori perplessità suscita l’uso (che, appunto, la dizione normativa poteva comprendere) di dati “rastrellati” dal web. La norma sembrava, in altri termini, legittimare quel web scraping (il “socialometro”) cui, pure, la c.d. Nadef (Nota di aggiornamento del documento di economia e finanza) del 2022 accennava come possibile tecnica di analisi del rischio fiscale, in particolare per i casi di sotto-fatturazione delle partite Iva.Ciò che va scongiurato è la possibilità di fondare analisi di rischio fiscale propedeutiche a veri e propri accertamenti su dati del tutto inattendibili. Se addestrato su dati anche soltanto parzialmente inesatti, infatti, l’algoritmo restituirà risultati errati in proporzione geometrica, con bias che dalla base informativa si propagano lungo tutto l’arco della decisione algoritmica. Rischierebbe, insomma, di emergere non il sommerso ma il falso, con effetti distorsivi (in proporzione geometrica) sulla corretta rappresentazione della capacità fiscale dei contribuenti.Web scraping, cosa dicono Gdpr e Ai ActNon a caso, il requisito di qualità dei dati è richiesto, oltre che dal GDPR (art. 5, p. 1, lett. d), anche dall’Ai Act, nella consapevolezza dell’importanza di allenare gli algoritmi (soprattutto se utilizzati a fini accertativi) su informazioni attendibili, complete, sufficientemente rappresentative (Cons. 38, 44, artt. 10, 13). L’utilizzo dei dati acquisiti dal web dovrebbe essere reso possibile soltanto dopo una loro adeguata verifica di attendibilità e garantendo l’esercizio dei diritti (alla spiegazione della decisione algoritmica, alla sua contestazione e a ottenere l’intervento umano) sanciti dall’art. 22 GDPR rispetto al processo decisionale automatizzato. Tali previsioni si conformerebbero, oltretutto, ai principi di “legalità algoritmica”: conoscibilità dello strumento informatico utilizzato, comprensibilità del modulo decisorio, non esclusività della decisione automatizzata.Per evitare di incorrere nella violazione del principio di proporzionalità, l’acquisizione dei dati dal web dovrebbe avvenire in maniera mirata, per corroborare con riscontri estrinseci l’anomalia desunta, sulla base di fonti informative qualificate, da uno scostamento significativo tra capacità patrimoniale dichiarata e tenore di vita. I social contengono, oggi, intere biografie: non può pensarsi di rastrellarli integralmente per tutta la popolazione italiana con una sorta di pesca a strascico, ma semmai di acquisire alcuni, selezionati contenuti ove emerga l’esigenza di un riscontro sull’effettivo tenore di vita (o, meglio, sul tenore di vita sommerso che si auspica possa emergere dai social). Tali accorgimenti, lungi dal depotenziare l’efficacia dell’azione di contrasto dell’evasione, potrebbero invece promuoverla, correggendo potenziali errori o distorsioni nel processo decisionale automatizzato. Ma soprattutto, queste cautele potrebbero conferire alle politiche fiscali, anche nella percezione dei cittadini, quella più forte legittimazione che una combinazione equa di tecnologia e “fattore umano” può assicurare all’azione amministrativa, perché si avvalga dell’innovazione senza, tuttavia, indebolire le garanzie individuali.Accertamento fiscale e Ai ActUna disciplina efficace dell’intelligenza artificiale in ambito tributario dovrà trovare un equilibrio adeguato tra le esigenze pubbliche di contrasto ai fenomeni evasivi/elusivi e la tutela dei diritti fondamentali dei contribuenti, inclusi il diritto alla protezione dei dati personali, al contraddittorio e al giusto procedimento.È emerso che non bisogna inevitabilmente compromettere la protezione dei dati personali per combattere l’evasione/elusione fiscale. Al contrario, se l’azione amministrativa opera in combinato con i principi di protezione dei dati personali, risulterà non solo rispettosa dei diritti del contribuente, ma anche più efficace.In questo contesto, l’Ai Act lascia sorprendentemente un vuoto in termini di tutela specifica per i cittadini europei. Infatti, l’Ai Act non proibisce né classifica come “ad alto rischio” l’uso di sistemi di intelligenza artificiale per scopi di giustizia tributaria predittiva o per la determinazione dell’affidabilità fiscale di un individuo, né per la stima del rischio di commissione di illeciti tributari. Analizzando il punto 6 dell’Allegato III del Regolamento, si potrebbe ritenere che l’uso di questi sistemi rientri tra quelli “ad alto rischio”, in quanto assimilabili a “sistemi di i.a. destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell’Unione a sostegno delle autorità di contrasto, come poligrafi e strumenti analoghi”. Tuttavia, il considerando n. 59 dell’Ai Act specifica diversamente che: «I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali, come pure dalle unità di informazione finanziaria che svolgono compiti amministrativi di analisi delle informazioni conformemente al diritto dell’Unione in materia di antiriciclaggio, non dovrebbero essere classificati come sistemi di i.a. ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati».In altre parole, mentre l’uso di sistemi di intelligenza artificiale per attività di cd. law enforcement è accompagnato da importanti tutele, queste non si applicano al settore fiscale, poiché detti sistemi utilizzati in questo contesto non sono considerati “ad alto rischio”. Di conseguenza, nell’ambito fiscale non troveranno applicazione, ad esempio, le garanzie relative all’addestramento, il test e la convalida dei sistemi di intelligenza artificiale per prevenire inesattezze, lacune, errori e bias, evitando così il ripetersi di effetti discriminatori o distorsivi, particolarmente problematici in questo contesto perché capaci di determinare false rappresentazioni della capacità contributiva del cittadino.Ancora, ai sensi dell’Ai Act, non sarà obbligatorio garantire una supervisione umana sul funzionamento dei sistemi di intelligenza artificiale in ambito fiscale, legittimando così l’adozione di decisioni interamente automatiche senza l’intervento di addetti competenti ed esperti dei rischi e dei limiti intrinseci di queste tecnologie. Il Garante conserva pertanto, in un siffatto contesto, un ruolo cruciale di vigilanza, considerando che, a fronte dell’assenza nell’Ai Act di norme specifiche sull’attività fiscale, i trattamenti di dati personali in quest’ambito, svolti con il ricorso all’intelligenza artificiale, sono interamente soggetti alla disciplina di protezione dati (e al conseguente controllo dell’Autorità), con le garanzie che essa prevede, per il singolo e per la correttezza dell’azione amministrativa al tempo stesso.__Note[1] Cfr. sul tema: F. Farri, Digitalizzazione dell’amministrazione finanziaria e diritti del contribuente, in Riv. dir. trib., 2020, n. 5, 115 ss.; G. Pitruzzella, Dati fiscali e diritti fondamentali, in Dir. prat. trib. int., 2022, n. 2, 666; G. Consolo, Sul trattamento dei dati personali nell’ambito delle nuove procedure automatizzate per il contrato all’evasione fiscale, in A. Contrino, E. Marello, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 179 ss.[2] Cfr. G. Palumbo, Fisco e privacy. Il difficile equilibrio tra lotta all’evasione e tutela dei dati personali, Pisa, 2021.[3] Su i.a. e fisco cfr. R. Cordeiro Guerra, L’intelligenza artificiale nel prisma del diritto tributario, in Dir. prat. trib., 2020, n. 3, 921; S. Dorigo, L’intelligenza artificiale e i suoi usi pratici nel diritto tributario: Amministrazione finanziaria e giudici, in R. Cordeiro Guerra, S. Dorigo, Fiscalità dell’economia digitale, Pisa, 2022, 199 ss.; C. Francioso, Intelligenza artificiale nell’istruttoria e nuove esigenze di tutela, in Rass. trib., 2023, n. 1, 47 ss.; F. Paparella, Procedimento tributario, algoritmi e intelligenza artificiale: potenzialità e rischi della rivoluzione digitale, in A. Contrino, E. Marello, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 3 ss.[4] In informatica si usa l’espressione garbage in – garbage out (cioè, letteralmente, “spazzatura dentro, spazzatura fuori”), a sottolineare che se i sistemi di intelligenza artificiale sono allenati con dati non esatti o in generale di scarsa qualità (garbage in) l’algoritmo che li elabora produrrà, a sua volta, risultati errati (garbage out); cfr. G. D’Acquisto, Qualità dei dati e intelligenza artificiale: intelligenza dai dati e intelligenza dei dati, in F. Pizzetti, Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, 285.[5] Parere sul provvedimento del Direttore dell’Agenzia delle entrate recante “Disposizioni di attuazione dell’articolo 11, comma 4, del DL 6 dicembre 2011, n. 201, convertito, con modificazioni, dalla legge 22 dicembre 2011, n. 214, e successive modificazioni. Analisi del rischio di evasione. Estensione all’anno 2014-2015 della sperimentazione della procedura di selezione basata sull’utilizzo delle informazioni comunicate all’Archivio dei rapporti finanziari” – 14 marzo 2019, n. 58 del 14 marzo 2019, doc. web n. 9106329.[6] Sulla profilazione in ambito tributario, cfr. M. Pontillo, Algoritmi fiscali tra efficienza e discriminazione, in Riv. trim. dir. trib., 2023, n. 3, 649 ss.; D. Conte, Digitalizzazione, Data protection e tecniche di profilazione nell’attività di accertamento tributario: quali diritti per i contribuenti?, in La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, cit., 133 ss.[7] Parere sullo schema di decreto attuativo dell’art. 1, comma 683, della legge 27 dicembre 2019, n. 160, n. 453 del 22 dicembre 2021, doc. web n. 9738520.[8] Cfr. parere reso dal Garante sulla valutazione di impatto sulla protezione dei dati relativa al trattamento posto in essere nell’ambito dell’analisi dei rischi e dei fenomeni evasivi/elusivi tramite l’utilizzo dei dati contenuti nell’Archivio dei rapporti finanziari e l’incrocio degli stessi con le altre banche dati di cui dispone l’agenzia (cfr. provvedimento n. 276 del 30 luglio 2022 – doc. web n. 9808839).[9] Sulla riforma fiscale del 2024, cfr. M.G. Ortoleva, L’intelligenza artificiale nell’analisi del rischio fiscale tra auspicata efficienza e tutela dei diritti dei contribuenti, in Dir. prat. trib. inter., 2024, n. 4, 1136 ss.[10] Cfr. Parere del Garante su uno schema di decreto legislativo recante disposizioni in materia di accertamento tributario e di concordato preventivo biennale doc. web n. 9978230: “alcune disposizioni andrebbero modificate per assicurare maggiore garanzie nei trattamenti di dati personali previsti ed altre potrebbero essere ulteriormente perfezionate, segnatamente al fine di fugare possibili dubbi interpretativi. In tale prospettiva, sotto il primo profilo, all’articolo 2, comma 3, andrebbero espunte le informazioni “pubblicamente disponibili” dal novero di quelle suscettibili di utilizzo, da parte dell’Agenzia delle entrate, mediante interconnessione con altre, in quanto prive dei necessari requisiti di affidabilità e raccolte per finalità diverse da quelle sottese al trattamento considerato”. Tra le altre condizioni, si è richiesto di “1) sopprimere, al comma 3 dell’articolo 2, le seguenti parole: “ovvero pubblicamente disponibili””. In effetti, nell’art. 2 del d.lgs. n. 13/2024 risulta ancora il riferimento ai dati personali “pubblicamente disponibili”, ma soltanto nel comma 1 concernente le definizioni; nel comma 3 tale riferimento non c’è. Essendo un riferimento contenuto soltanto nelle definizioni, ma poi espunto al comma 3, sembra privo di risvolti applicativi.

La scuola che prepara alla sanità del domani

Dalle aule ai laboratori virtuali: La scuola che prepara alla sanità del domani

di Bruno Lorenzo Castrovinci

Viviamo in un’epoca in cui l’innovazione tecnologica avanza a un ritmo vertiginoso, trasformando profondamente ogni aspetto della nostra società. L’intelligenza artificiale (IA), il metaverso, l’Internet of Things (IoT), la robotica e le macchine intelligenti stanno ridefinendo le nostre vite con una rapidità tale che ciò che oggi appare all’avanguardia rischia di diventare obsoleto in breve tempo. Questa accelerazione è alimentata dalla capacità dell’IA di elaborare enormi quantità di dati in frazioni di secondo e dall’interconnessione globale delle menti più brillanti, che collaborano in tempo reale per un’evoluzione sociale senza precedenti.

In questo scenario dinamico, la telemedicina emerge come una delle innovazioni più significative nel campo della sanità moderna. Utilizzando tecnologie avanzate per fornire servizi medici a distanza, la telemedicina sta trasformando il settore sanitario, rendendo le cure più accessibili, efficienti e personalizzate. Questo cambiamento non si limita all’adozione di nuove tecnologie, ma richiede anche una profonda riforma del sistema educativo per formare professionisti competenti, pronti a operare in questo nuovo contesto.

La telemedicina non solo rivoluziona le modalità di cura e assistenza, ma anticipa anche sviluppi futuri nella bionica, promuovendo un’integrazione sempre più stretta tra uomo e macchina. Questo processo di ibridazione ci conduce verso la realizzazione dei primi esseri umani bionici e degli androidi, aprendo nuove frontiere nella medicina e nella tecnologia.

In sintesi, la telemedicina rappresenta un punto di convergenza tra innovazione tecnologica e pratica medica, offrendo opportunità senza precedenti per migliorare la qualità della vita e l’efficienza dei servizi sanitari. Tuttavia, per sfruttare appieno queste potenzialità, è essenziale investire nella formazione di nuove figure professionali, capaci di navigare con competenza e sensibilità in questo panorama in continua evoluzione.

Cos’è la telemedicina e come funziona

La telemedicina è una delle risposte più potenti e innovative alle sfide che il mondo moderno pone al sistema sanitario. Con l’obiettivo di abbattere le barriere geografiche e garantire cure di qualità indipendentemente dalla posizione del paziente, la telemedicina si basa sull’utilizzo di strumenti digitali avanzati per trasformare il modo in cui medici e pazienti interagiscono. Grazie a tecnologie come la televisita, il teleconsulto, il telemonitoraggio e persino la telechirurgia, il concetto di assistenza sanitaria viene completamente ridefinito, spostandosi verso una dimensione globale e interconnessa.

Attraverso piattaforme digitali sicure e intuitive, unite a dispositivi connessi di ultima generazione, i medici possono accedere in tempo reale ai dati clinici dei loro pazienti. Parametri vitali, immagini diagnostiche e informazioni anamnestiche vengono condivisi senza soluzione di continuità, garantendo diagnosi rapide e personalizzate. Questo approccio non solo aumenta l’efficienza del sistema sanitario, ma offre anche un supporto immediato e continuo ai pazienti, riducendo drasticamente la necessità di spostamenti fisici.

La telemedicina non si limita alla mera trasposizione digitale di pratiche mediche tradizionali. Essa rappresenta un vero e proprio cambio di paradigma, in cui l’accessibilità e la personalizzazione delle cure diventano centrali. Attraverso l’uso di sensori, dispositivi portatili e piattaforme integrate, anche le aree più remote o con carenze strutturali possono beneficiare di un’assistenza sanitaria di alto livello. Non si tratta solo di curare malattie, ma di garantire una qualità della vita superiore, portando l’innovazione al servizio delle persone.

L’integrazione dell’intelligenza artificiale nella telemedicina e nella medicina di oggi

L’integrazione dell’intelligenza artificiale (IA) nella telemedicina sta rivoluzionando il panorama sanitario, offrendo strumenti avanzati per l’analisi e l’interpretazione dei dati clinici. Algoritmi sofisticati sono in grado di esaminare immagini mediche, come radiografie e tomografie assiali computerizzate (TAC), identificando anomalie con una precisione che spesso supera quella umana. Questa capacità consente diagnosi più rapide e accurate, fondamentali per interventi tempestivi e per migliorare gli esiti terapeutici.

Un esempio concreto di questa applicazione è rappresentato dall’utilizzo dell’IA nella diagnosi precoce di patologie oncologiche. Attraverso l’analisi di immagini radiologiche, gli algoritmi possono rilevare lesioni sospette in stadi iniziali, aumentando significativamente le possibilità di successo dei trattamenti. Inoltre, l’IA è impiegata per prevedere l’evoluzione di determinate patologie, supportando i medici nella scelta delle strategie terapeutiche più appropriate.

Oltre alla diagnostica, l’IA svolge un ruolo cruciale nella personalizzazione dei trattamenti. Analizzando i dati specifici di ciascun paziente, come il profilo genetico, lo stile di vita e la storia clinica, gli algoritmi possono suggerire piani terapeutici su misura, ottimizzando l’efficacia delle cure e riducendo gli effetti collaterali. Questo approccio, noto come medicina di precisione, rappresenta un cambiamento paradigmatico nella pratica medica, focalizzandosi sulle esigenze individuali piuttosto che su protocolli standardizzati.

Gli assistenti virtuali basati su IA stanno trasformando l’interazione tra pazienti e sistema sanitario. Questi strumenti forniscono supporto nella gestione dei sintomi, offrono informazioni tempestive e facilitano l’accesso ai servizi sanitari. Ad esempio, chatbot intelligenti possono rispondere a domande comuni, aiutare nella prenotazione di appuntamenti e ricordare l’assunzione di farmaci, migliorando l’aderenza terapeutica e l’esperienza complessiva del paziente.

L’implementazione dell’IA nella telemedicina comporta anche sfide significative, tra cui questioni etiche, la necessità di garantire la privacy dei dati e l’importanza di mantenere un controllo umano sulle decisioni cliniche. È essenziale che l’IA sia utilizzata come strumento di supporto, integrando l’expertise dei professionisti sanitari senza sostituirla. La formazione continua degli operatori e l’aggiornamento delle normative sono fondamentali per garantire un utilizzo responsabile e efficace di queste tecnologie emergenti.

In conclusione, l’integrazione dell’intelligenza artificiale nella telemedicina offre opportunità straordinarie per migliorare la qualità e l’accessibilità delle cure. Tuttavia, è cruciale affrontare con attenzione le sfide associate, assicurando che l’innovazione tecnologica sia sempre al servizio del benessere umano.

Il ruolo dell’Internet of Things (IoT) nella telemedicina

L’Internet of Things (IoT) rappresenta una rivoluzione tecnologica che connette oggetti fisici alla rete, permettendo loro di comunicare e scambiare dati senza l’intervento umano. Questa interconnessione trasforma oggetti quotidiani in dispositivi “intelligenti”, capaci di raccogliere, elaborare e trasmettere informazioni. In ambito sanitario, l’IoT ha dato origine all’Internet of Medical Things (IoMT), un insieme di dispositivi e applicazioni mediche che interagiscono attraverso reti online per migliorare l’assistenza ai pazienti.

Un esempio pratico dell’IoMT è l’utilizzo di sensori indossabili che monitorano costantemente parametri vitali come la frequenza cardiaca, la pressione arteriosa e i livelli di ossigeno nel sangue. Questi dispositivi raccolgono dati in tempo reale e li trasmettono a piattaforme cloud accessibili ai professionisti sanitari, consentendo una valutazione immediata e accurata dello stato di salute del paziente.

Questa tecnologia è particolarmente vantaggiosa nella gestione delle malattie croniche. Ad esempio, pazienti affetti da diabete possono utilizzare glucometri intelligenti che monitorano continuamente i livelli di glucosio e inviano i dati al medico curante. In caso di valori anomali, il sistema può allertare sia il paziente che il medico, permettendo interventi tempestivi e prevenendo complicanze.

In situazioni di emergenza, come aritmie cardiache o crisi ipoglicemiche, i dispositivi IoT possono rilevare rapidamente l’evento e inviare notifiche immediate ai servizi di emergenza o ai familiari, garantendo una risposta rapida e appropriata. Ad esempio, un pacemaker connesso può monitorare il ritmo cardiaco e segnalare anomalie critiche, attivando protocolli di emergenza.

L’implementazione dell’IoT nella telemedicina non solo migliora la qualità delle cure, ma promuove anche un approccio proattivo alla salute, dove la prevenzione e il monitoraggio continuo riducono la necessità di interventi ospedalieri e migliorano la qualità della vita dei pazienti. Tuttavia, è fondamentale garantire la sicurezza e la privacy dei dati raccolti, adottando misure adeguate per proteggere le informazioni sensibili dei pazienti.

In conclusione, l’IoT sta trasformando la telemedicina, offrendo soluzioni innovative per il monitoraggio e la gestione della salute. L’integrazione di dispositivi connessi nel sistema sanitario rappresenta un passo significativo verso un’assistenza più efficiente, personalizzata e reattiva alle esigenze dei pazienti.

Lo stato della telemedicina in Italia e nel mondo

A livello globale, la telemedicina si è affermata come una componente chiave dei sistemi sanitari moderni, con esempi di successo in paesi come gli Stati Uniti e le nazioni scandinave. In queste aree, infrastrutture tecnologiche avanzate e politiche sanitarie lungimiranti hanno favorito una rapida adozione di strumenti e servizi di telemedicina. Negli Stati Uniti, aziende come Teladoc Health e Amwell guidano il settore, offrendo accesso 24/7 a teleconsulti e monitoraggi remoti, spesso integrati con assicurazioni sanitarie. Nei paesi scandinavi, invece, la telemedicina è diventata una parte intrinseca dei sistemi sanitari pubblici, grazie a programmi governativi che promuovono l’uso di dispositivi connessi per monitorare condizioni croniche, come il diabete e le malattie cardiovascolari.

In Italia, la pandemia di COVID-19 ha rappresentato un punto di svolta per la telemedicina. La necessità di mantenere il distanziamento sociale e la pressione sul sistema sanitario hanno portato all’implementazione di piattaforme per la gestione a distanza dei pazienti cronici e l’introduzione della televisita in molte regioni. Progetti sperimentali, come quelli della Lombardia e del Veneto, hanno dimostrato l’efficacia della telemedicina nel ridurre gli accessi in ospedale e garantire continuità assistenziale, soprattutto per i pazienti fragili.

Nonostante questi progressi, l’Italia si trova ancora di fronte a sfide importanti. La mancanza di uniformità nelle infrastrutture digitali tra le diverse regioni crea disparità nell’accesso ai servizi di telemedicina, con alcune aree rurali che restano penalizzate. Inoltre, l’assenza di una normativa unificata rende complessa l’integrazione della telemedicina nel sistema sanitario nazionale, sollevando questioni legate alla privacy dei dati e alla responsabilità medica. Per colmare queste lacune, sono necessari investimenti significativi in infrastrutture tecnologiche e un quadro normativo chiaro che standardizzi i requisiti tecnici e organizzativi dei servizi di telemedicina.

La telemedicina rappresenta quindi un’opportunità straordinaria per migliorare l’efficienza e l’equità del sistema sanitario, ma il suo pieno potenziale può essere raggiunto solo superando le barriere attuali attraverso politiche coordinate e uno sforzo collettivo per modernizzare il settore.

Nuove competenze richieste dalla telemedicina

L’avvento della telemedicina sta ridefinendo il panorama sanitario, richiedendo la formazione di figure professionali altamente specializzate e in grado di gestire la complessità di un ecosistema tecnologico avanzato. Tra queste emergono tecnici capaci di installare e manutenere dispositivi e piattaforme digitali, infermieri digitali che uniscono competenze cliniche tradizionali all’uso di strumenti tecnologici e data scientist sanitari, esperti nell’analisi e interpretazione di grandi volumi di dati clinici per supportare decisioni mediche.

In questo contesto, le competenze tecniche (hard skills) includono la capacità di utilizzare piattaforme di telemedicina, come sistemi di telemonitoraggio e teleconsulto, e di gestire tecnologie emergenti come l’Intelligenza Artificiale e l’Internet of Things (IoT). La conoscenza di strumenti per la raccolta, l’archiviazione e l’analisi di dati sanitari è fondamentale, così come l’applicazione di algoritmi di machine learning per migliorare la diagnosi e il trattamento dei pazienti. Allo stesso tempo, è cruciale la padronanza delle normative sulla privacy e sulla sicurezza dei dati, garantendo il rispetto delle leggi nazionali e internazionali in materia.

Accanto a queste, le competenze trasversali (soft skills) diventano essenziali per affrontare un ambiente in rapida evoluzione. La capacità di lavorare in team multidisciplinari, comprendendo le prospettive di medici, ingegneri, informatici e amministratori, è una priorità per ottimizzare il funzionamento delle tecnologie e garantire un’assistenza sanitaria efficace. Il problem solving, l’empatia e la capacità di comunicare in modo chiaro e accessibile con pazienti e colleghi sono indispensabili per costruire fiducia e collaborazione.

Infine, le life skills, come l’autogestione e la flessibilità, aiutano i professionisti a navigare in un settore dove il cambiamento è costante. La curiosità intellettuale e la disponibilità a imparare nuove tecnologie e metodologie consentono di rimanere aggiornati e di sfruttare al meglio le opportunità offerte dalla telemedicina.

Questo insieme di competenze, che integra hard, soft e life skills, non solo prepara i professionisti a utilizzare strumenti avanzati, ma li rende protagonisti attivi del cambiamento, capaci di modellare il futuro della sanità in un mondo sempre più digitale e interconnesso.

Il chirurgo del futuro: competenze nel metaverso, robotica e nanotecnologie

L’avvento del metaverso, combinato con la robotica chirurgica e le nanotecnologie, rappresenta una frontiera emergente nel settore sanitario. Questa convergenza tecnologica sta trasformando il modo in cui i medici apprendono, interagiscono e operano, richiedendo competenze altamente specializzate che vanno ben oltre le tradizionali capacità cliniche.

Per operare nel metaverso, i professionisti sanitari devono acquisire competenze in realtà virtuale (VR) e aumentata (AR), strumenti che permettono di simulare ambienti chirurgici complessi per la formazione o di sovrapporre informazioni digitali in tempo reale durante gli interventi. Questi strumenti non solo migliorano la precisione e l’efficacia delle procedure, ma consentono anche ai chirurghi di lavorare da remoto, collaborando con esperti situati in diverse parti del mondo.

La robotica chirurgica, già ampiamente utilizzata con sistemi come il da Vinci, si integra nel metaverso per offrire livelli senza precedenti di precisione e controllo. I chirurghi, attraverso interfacce immersive, possono manipolare robot dotati di strumenti miniaturizzati per eseguire interventi complessi, sfruttando le nanotecnologie per operare su scala microscopica. Questo richiede una comprensione approfondita dei sistemi robotici, delle interfacce uomo-macchina e delle tecniche avanzate di navigazione chirurgica in spazi tridimensionali.

In questo contesto, le competenze tecniche includono la padronanza delle piattaforme di simulazione chirurgica VR e AR, la capacità di utilizzare software per la modellazione 3D dei tessuti e degli organi, e una conoscenza avanzata dei principi di fisica e ingegneria applicati alla robotica e alle nanotecnologie. I chirurghi devono anche saper interpretare dati complessi provenienti da sensori intelligenti e immagini ad alta risoluzione, integrandoli in tempo reale per prendere decisioni operative.

Le soft skills, come il lavoro in team multidisciplinari, diventano ancora più cruciali in un ambiente chirurgico virtuale. La collaborazione con ingegneri, programmatori e data scientist è essenziale per ottimizzare le tecnologie utilizzate e per affrontare problemi tecnici durante le procedure. Inoltre, la capacità di adattarsi rapidamente alle innovazioni e di apprendere nuove tecnologie è fondamentale in un settore in rapida evoluzione.

Infine, operare nel metaverso con tecnologie così avanzate solleva importanti questioni etiche e di sicurezza. I professionisti devono essere formati per garantire la privacy dei pazienti, prevenire errori dovuti alla tecnologia e mantenere un controllo umano diretto, anche in scenari altamente automatizzati. Questa combinazione di competenze tecniche, etiche e umane definisce il profilo del chirurgo del futuro, in grado di sfruttare il metaverso, la robotica e le nanotecnologie per trasformare la pratica medica.

Il modello formativo 4+2 come risposta alle esigenze del settore

Il modello formativo 4+2 rappresenta una rivoluzione nell’istruzione tecnica e professionale italiana, introdotto dalla Legge 8 agosto 2024, n. 121, e delineato dal Decreto Legislativo del 21 settembre 2022. Questo percorso educativo integra una base solida di conoscenze nei primi quattro anni di istruzione secondaria tecnica o professionale con una specializzazione avanzata nei successivi due anni presso gli Istituti Tecnici Superiori (ITS Academy). Gli istituti tecnici forniscono una preparazione bilanciata tra teoria e pratica, puntando sull’innovazione tecnologica e sulla digitalizzazione. La successiva specializzazione negli ITS Academy si caratterizza per un forte collegamento con il mondo del lavoro, grazie a collaborazioni strutturate con aziende e università, rispondendo alle esigenze di settori strategici come la sanità digitale, le biotecnologie e l’intelligenza artificiale. I piani di studio includono discipline innovative come bioingegneria, biotecnologie, programmazione e informatica applicata. Gli studenti vengono formati per utilizzare tecnologie IoT, piattaforme di telemedicina e algoritmi di IA per l’analisi dei dati clinici, con un approccio che integra aspetti etici e normativi, come la protezione dei dati e la privacy. Questo modello mira a formare professionisti altamente qualificati, capaci di affrontare le sfide di un mercato del lavoro in costante evoluzione, aumentando le opportunità di occupazione e colmando il divario di competenze rispetto al panorama internazionale. Grazie alla sua struttura innovativa, il modello 4+2 non solo rende il sistema educativo italiano competitivo a livello globale, ma favorisce anche il progresso economico e sociale del Paese, creando una sinergia tra formazione e produzione.

Conclusione

La telemedicina non è solo il futuro della sanità, ma l’alba di una nuova era, dove tecnologia e cura si intrecciano in un abbraccio rivoluzionario, per donare al mondo una sanità più vicina, efficiente e umana. Questo straordinario progresso, però, non può esistere senza figure capaci di interpretarlo, professionisti con competenze visionarie e una preparazione proiettata verso l’orizzonte del domani. Ed è qui che il modello formativo 4+2, nato dalla sinergia tra istituti tecnici e ITS Academy, si erge come una risposta innovativa, pronta a forgiare gli esperti che guideranno un mondo interconnesso, dominato dall’Internet delle Cose (IoT) e dall’Intelligenza Artificiale (IA).

Non si tratta solo di un percorso educativo, ma di una chiave per accedere a carriere di straordinario valore, che spaziano dalla medicina alla chirurgia, fino alle professioni sanitarie più avanzate. In un mondo in costante trasformazione, investire nella formazione non è solo un dovere, ma un’occasione per plasmare un sistema sanitario all’altezza dei sogni e delle esigenze di una società in evoluzione.

In questo contesto, la formazione non è semplicemente un cammino, ma un atto di fede nell’ingegno umano, una promessa impressa nel cuore della nostra specie. È la trama sottile che ci unisce al futuro, dove il coraggio dell’innovazione incontra la potenza immaginativa dei sogni. È il ponte verso un ideale di perfezione e resilienza, un viaggio che avvicina l’eternità, trasformandola da mito a possibilità.

Commenti

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000