Troppi dati in rete crea un problema cognitivo nelle persone

Le organizzazioni si ritrovano ogni giorno a navigare in un mare sconfinato di dati, attratte dalla promessa, sempre più reclamizzata, di efficienza, innovazione, competitività senza precedenti.

Tuttavia, in questa presunta era della semplificazione, dell’interconnessione, dell’ottimizzazione, ci scontriamo quotidianamente con un paradosso, che spesso preferiamo dissimulare: se da un lato è vero che mai come oggi la conoscenza è stata così facilmente a disposizione, dall’altro appare sempre più difficile trasformarne il potenziale in decisioni lucide, in visioni strategiche, in intelligenza azionabile. Accumuli di report, database, archivi, sistemi di knowledge management crescono a dismisura, in una rincorsa costante alla raccolta di nuovi dati, ma l’accessibilità cognitiva – quella che potremmo chiamare infodisponibilità – sembra sfuggirci, rendendo evidente la fragilità della promessa tecnologica.

Le informazioni si moltiplicano, si stratificano, si intersecano. Ma la loro crescita non si accompagna a una pari evoluzione nella nostra capacità di comprenderle, filtrarle, convertirle in conoscenza utile.

È il sintomo evidente di una condizione di saturazione cognitiva: l’ambiente informativo si espande a ritmi vertiginosi, mentre restano ferme – o con un processo di crescita troppo lento – le competenze critiche, selettive e collaborative delle persone e dei sistemi che dovrebbero governarlo. Non ci manca più l’accesso ai dati, oramai potenzialmente attivabile in mille modi diversi: ci manca la capacità di dar loro senso, di farli dialogare tra loro, di estrarne valore. E soprattutto ci mancano il coraggio, la lungimiranza e l’onestà intellettuale per riconoscere che non tutta l’informazione ha lo stesso peso, la stessa vitalità o la stessa urgenza. In questo cambio di scenario, oggi, la vera intelligenza organizzativa si dovrebbe misurare così: nella capacità di discernere, scegliere, e creare connessioni significative in mezzo al rumore.

Dispersione strategica e paradossi della conoscenza organizzativa

In questo scenario, in maniera più o meno consapevole si stanno ponendo i presupposti per alimentare un rischio silenzioso e subdolo: la dispersione strategica. Una deriva in cui la sovrabbondanza di segnali informativi genera rumore, anziché intelligenza, indebolendo progressivamente la capacità collettiva di produrre senso, di trovare orientamento, di definire progettualità. Ecco quindi che organizzazioni intere, pur investendo milioni nella digitalizzazione di processi e patrimoni documentali, si trovano ad annaspare in una sorta di magma informativo, incapaci di distinguere ciò che conta da ciò che distrae, ciò che guida da ciò che, involontariamente, rischia di paralizzare.

Non si tratta quindi più semplicemente di gestire “troppe informazioni”, ma abbiamo a che fare con un problema più radicale: la necessità, sempre più evidente, di configurare una nuova relazione tra conoscenza e organizzazione, tra dati e decisioni, tra conoscenza individuale e intelligenza collettiva. È la sfida, urgentissima, di progettare ambienti cognitivi – nelle organizzazioni, nelle comunità, nella società intera – che non siano solo depositi statici di memoria, ma veri ecosistemi di generazione, selezione e amplificazione dell’intelligenza.

Proprio in questo contesto, tra tensioni strategiche e paradossi cognitivi, entra in gioco un altro grande equivoco del nostro tempo, tanto temuto quanto celebrato: la relazione necessaria, imprescindibile, con l’intelligenza artificiale. Troppo spesso concepita come uno strumento di automazione cognitiva passiva – sostanzialmente, una macchina a cui “delegare” il compito di gestire la complessità – l’AI rischia di essere ridotta a una sorta di scorciatoia illusoria, a una finta panacea che permette di dissimulare, senza risolverla, l’anemia cognitiva delle organizzazioni. Tuttavia, chi la conosce davvero lo sa: se progettata, sviluppata e governata con la giusta visione, potrebbe diventare il più potente agente abilitante dell’intelligenza collettiva fino ad oggi implementato.

Non siamo, com’è evidente, solo di fronte a una questione tecnologica. Siamo di fronte a una questione strategica, culturale, epistemologica, politica: chi decide cosa è conoscenza valida? Chi orchestra la condivisione di idee e competenze in un’epoca in cui la conoscenza è sempre più destinata ad essere frammentata, distribuita, accelerata? Quale ruolo vogliamo assegnare alle macchine intelligenti nel nostro futuro? Quale ruolo vogliamo rivendicare, per i decisori umani, in un mondo di sovraccarico cognitivo?

La posta in gioco non è banale: riguarda la capacità delle organizzazioni – pubbliche, private, sociali – di evolvere o di implodere sotto il peso della loro stessa, fondamentale, talvolta ingovernabile abbondanza informativa. Riguarda la possibilità di costruire ecosistemi cognitivi capaci di liberare davvero il potenziale dell’intelligenza tacita, implicita, diffusa nei corpi sociali. Riguarda, infine, la nostra capacità di usare l’AI per progettare il futuro della conoscenza come bene comune, come spazio condiviso di creazione di valore.

In questo articolo esploreremo il paradosso dell’infodisponibilità, i rischi della dispersione strategica e le potenzialità, ancora largamente inespresse, dell’AI come motore di intelligenza collettiva. Un viaggio che ci porterà, tra suggestioni e provocazioni, dalle arti della memoria medievali alle sfide delle piattaforme cognitive contemporanee, dalle botteghe rinascimentali ai nuovi modelli di design partecipativo, per interrogare criticamente il nostro rapporto con l’informazione, con la conoscenza e con la stessa possibilità di immaginare, abilitare e creare futuro.

Il paradosso dell’abbondanza: tra sovraccarico informativo e dispersione strategica

Nel cuore sempre più frenetico delle organizzazioni digitalizzate, dunque, si fa strada un paradosso ormai difficile da ignorare: la proporzionalità inversa tra i dati a disposizione e la capacità reale di capitalizzarne il valore potenziale. Secondo le stime di IDC, nel 2025 il mondo dovrebbe arrivare a produrre 175 zettabyte di dati (oltre 5 milioni di Gigabyte al secondo), generando un flusso informativo incessante, strabordante, difficilmente arginabile o indirizzabile in maniera costruttiva. Il concetto di information overload, introdotto da Alvin Toffler negli anni ’70, appare oggi più attuale che mai. Tuttavia, come ha efficacemente osservato il teorico dei media Clay Shirky, nel suo speech al Web 2.0 Expo di New York del 2008, il vero problema non è l’abbondanza di dati, ma il crollo, o l’inadeguatezza, dei filtri a disposizione: “It’s not information overload. It’s filter failure.” In un contesto in cui ogni secondo vede produrre più dati di quanti se ne possano analizzare in una vita, la sfida esige un radicale cambio di paradigma, che permetta di privilegiare la rilevanza rispetto alla quantità, la connessione rispetto all’accumulo, la comprensione profonda rispetto alla mera disponibilità.

Questa incapacità di filtrare e attribuire significato alle informazioni porta a quella che abbiamo definito “dispersione strategica”: una condizione in cui l’attenzione, le risorse disponibili e le decisioni organizzative si disperdono in una miriade di dati non correlati, riducendo l’accuratezza interpretativa, l’efficacia strategica e l’efficienza operativa. Inoltre, l’assenza di una governance efficace dei dati, che spesso viene concepita semplicemente come rigidità organizzativa, può portare a silos informativi, in cui le informazioni sono isolate all’interno di specifici dipartimenti o sistemi, impedendo una visione olistica e integrata dell’organizzazione. Questo, inevitabilmente, frammenta la conoscenza, limita la collaborazione interfunzionale, ostacola l’innovazione, l’adattabilità e la competitività.​

Per affrontare questi problemi, è dunque fondamentale sviluppare sistemi di gestione della conoscenza che non si limitino a raccogliere e archiviare dati, ma che facilitino l’accesso, la comprensione e l’attivazione del potenziale cognitivo – necessariamente relazionale – delle informazioni. Ciò implica da una parte l’adozione di tecnologie avanzate, come l’intelligenza artificiale, per supportare la selezione e l’analisi dei dati, ma esige, dall’altra, la promozione di una cultura organizzativa orientata alla condivisione, all’evoluzione costante e all’apprendimento continuo.​

In sintesi, l’era dell’informazione richiede un cambiamento di paradigma: da una focalizzazione sulla quantità di dati disponibili a un’enfasi – critica e consapevole – sulla qualità, l’accessibilità e l’utilizzabilità delle informazioni. Solo così le organizzazioni potranno trasformare l’abbondanza di dati in un reale vantaggio strategico.​

L’illusione dell’informazione: verso il concetto di “infodisponibilità”

Come abbiamo visto, l’accumulo di informazioni non corrisponde alla crescita del capitale cognitivo. Questa apparente disponibilità tecnica si rivela, troppo spesso, una disponibilità vuota. Non tutta l’informazione archiviata è effettivamente assimilabile, utilizzabile, strategicamente attivabile, o semplicemente interrogabile in modo corretto. È a partire da questa dissonanza che parliamo quindi di infodisponibilità: la misura reale di quella porzione di informazione rilevante (in base a parametri ed esigenze variabili) che non solo esiste, ma è cognitivamente accessibile, comprensibile, realmente trasformabile in valore operativo.

L’eventuale crisi di infodisponibilità non dipende dalla maggiore o minore quantità di dati, ma dall’eccesso di dati non curati, non filtrati, non sufficientemente contestualizzati. Soprattutto, dipende dalla qualità dell’ecosistema cognitivo, dai suoi processi di trasferimento, dalle sue dinamiche di relazione, dalle sue metodologie di interpretazione ed evoluzione interattiva. L’infodisponibilità si assottiglia ogni volta che il sovraccarico informativo, per quanto percepito come patrimonio imprescindibile, supera la capacità selettiva degli individui e delle organizzazioni, trasformando l’abbondanza in rumore, l’accesso in paralisi.

Le cause sono profonde e stratificate. Herbert Simon, in uno speech alla John Hopkins University nel 1971, Designing Organizations for an Information-Rich World, osservava con una lucidità davvero lungimirante che “a wealth of information creates a poverty of attention”: la ricchezza informativa rischia, inevitabilmente, di creare povertà attentiva. Oggi, com’è evidente, quella previsione si è avverata, nelle organizzazioni e nell’intera società, su scala globale. Occorre inoltre notare come la crescita incontrollata dei sistemi informativi proceda spesso in assenza di un vero pensiero curatoriale: le informazioni si sedimentano come strati geologici, senza una logica di senso che ne faciliti l’emersione o la disponibilità strategica. Infine, la sottovalutazione della gestione della conoscenza come pratica culturale e relazionale – anziché puramente tecnica – ha amplificato rapidamente la distanza tra informazione disponibile e informazione usabile.

Il risultato è dunque un paradosso sistemico: più informazioni accumuliamo, meno sappiamo come usarle. Più piattaforme adottiamo, meno intelligenza collettiva riusciamo a generare. Non è, evidentemente, solo l’individuo a essere sopraffatto, ma l’intero organismo organizzativo, che progressivamente rischia di frammentarsi, di perdere coerenza ed efficacia, alimentando, in maniera più o meno implicita, un progressivo deficit di orientamento strategico.

Affrontare la sfida dell’infodisponibilità significa dunque avere il coraggio di andare oltre la mera automazione dei flussi informativi. Significa ripensare radicalmente le architetture cognitive, progettando ambienti in cui le informazioni siano curate, filtrate, rese effettivamente navigabili e attivabili. Significa riconoscere che l’informazione, senza processi di contestualizzazione e valorizzazione, non solo rischia di perde efficacia, ma può diventare un fattore di entropia organizzativa.

Modelli storici e archetipi cognitivi per il futuro

La crisi odierna dell’infodisponibilità non è tuttavia un fenomeno isolato nella storia umana. Da sempre,infatti,  l’umanità si confronta con la sfida di organizzare, preservare e rendere accessibile il sapere. Già nel Medioevo, prima ancora dell’invenzione della stampa, i maestri delle arti della memoria — come ricordato magistralmente da Frances Yates nella sua opera The Art of Memory (1966) — svilupparono tecniche sofisticate per creare vere e proprie “memorie artificiali”: sistemi visivi e spaziali destinati a facilitare il richiamo di conoscenze complesse. Non si trattava soltanto di ricordare un numero maggiore di informazioni, ma di strutturare il pensiero attraverso spazi cognitivi organizzati, rispettosi della natura relazionale e dinamica della conoscenza, capaci di renderla accessibile, navigabile, operativa.

Un altro esempio, concettualmente utile alla riflessione odierna può essere individuato nelle botteghe, nelle accademie tecnico-artistiche e nei cantieri architettonici del Rinascimento italiano e fiammingo. Qui, l’interazione costante tra esperienza pratica, conoscenza teorica e generatività cognitiva era non solo evidente, ma necessaria, strutturale, sistematicamente integrata. I grandi cantieri, come quelli delle cattedrali o delle grandi macchine teatrali, erano ambienti ad alta densità epistemica, dove architetti, ingegneri, artigiani e filosofi collaboravano alla risoluzione di problemi complessi.

In contesti come questi, la conoscenza non era trasmessa in modo lineare, né rigidamente suddivisa in silos, ma co-generata attraverso la negoziazione continua tra teoria e prassi, tra innovazione e tradizione, tra individuo e collettività. La trasmissione del sapere avveniva per osmosi partecipativa, incorporata nei gesti, nei disegni, nelle discussioni, nelle correzioni reciproche. In questo senso, l’intelligenza collettiva era situata, pratica e generativa: produceva, dall’interazione, nuove soluzioni, nuovi strumenti, nuovi linguaggi, rendendo la conoscenza attivabile nel contesto, ma anche trasferibile al di fuori di esso.

Questi dispositivi storici non devono essere compresi semplicemente come suggestioni culturali, ma come modelli euristici che rivelano una costante antropologica: l’informazione, per trasformarsi in sapere operativo, ha bisogno di essere abitata, relazionata, praticata, condivisa. La sola accumulazione di dati non produce intelligenza; senza spazi intenzionali di progettazione cognitiva – ambienti, fisici o virtuali, che facilitino l’accesso, la connessione e la rielaborazione condivisa delle informazioni – il sapere si disperde. È in questa tensione tra struttura e relazione che si gioca, oggi, la vera sostenibilità della conoscenza.

Oggi come nel passato, siamo chiamati a capire come fare della conoscenza non solo una riserva, ma una forza generativa. E per riuscirci, in questo specifico contesto socio-tecnologico, dobbiamo interrogarci con urgenza su come vogliamo ripensare il design dei nostri ambienti informativi, su come vogliamo potenziare le architetture cognitive delle nostre organizzazioni, su come, soprattutto, vogliamo usare il vero valore abilitante dell’AI.

Ai come tessuto connettivo dell’intelligenza collettiva

In questo scenario di complessità crescente, in cui la competizione geo-economica si gioca anche sul terreno della competitività cognitiva, il ruolo dell’intelligenza artificiale non può essere confinato alla mera automazione dei processi o alla gestione passiva delle informazioni. Se interpretata con lungimiranza, l’AI dovrebbe invece essere concepita e utilizzata come un agente abilitante, un vero catalizzatore di intelligenza collettiva, capace di migliorare l’infodisponibilità e di convertirla in conoscenza dinamica e operativa.

Le applicazioni più avanzate, oramai, sono in grado di andare ben oltre l’automazione tradizionale. Sistemi come Pol.is, ad esempio, aiutano in maniera dinamica a mappare il consenso e il dissenso all’interno di grandi gruppi, facilitando decisioni più informate e partecipate. Piattaforme come Kumu.io permettono di visualizzare reti complesse di relazioni e informazioni, rendendo evidenti pattern nascosti e connessioni latenti. Tecnologie di knowledge graph aziendali, come quelle sviluppate da Diffbot, permettono di creare vere e proprie mappe semantiche navigabili della conoscenza distribuita.

Tuttavia, come abbiamo detto ripetutamente, la vera sfida non è solamente tecnologica, ma progettuale, culturale, strategica. È necessario ripensare radicalmente l’approccio stesso al concetto di “AI-first company”. Non si tratta semplicemente di adottare strumenti più avanzati o di permettere un’accelerazione dei flussi informativi esistenti, ma di reimmaginare l’intera architettura cognitiva dell’organizzazione. In questa prospettiva si inserisce l’esperienza di DiDo, un sistema di generative AI progettato dall’italiana Symboolic, non per sostituire il pensiero umano, distribuito nei sistemi complessi delle organizzazioni, ma per orchestrarlo, permettendo di liberare l’intelligenza tacita e diffusa che troppo spesso rimane intrappolata nei silos aziendali​, o nella viscosità dei processi gestionali.

Come sottolineato nella riflessione sull’AI-first organizzativa, il vero salto di paradigma non risiede nella capacità di automazione di ciò che già esiste, ma nella creazione di nuove modalità di attivazione del pensiero collettivo: un modello in cui l’AI agisca come un tessuto connettivo intelligente, capace di collegare persone, competenze, intuizioni e dati in tempo reale. DiDo sembra incarnare questa visione non come un oracolo onnisciente, ma come un orchestratore epistemico: un agente che facilita l’emergere di risposte nuove, attraverso il dialogo dinamico tra conoscenze diverse​.

Questo approccio, certamente più maieutico che prescrittivo, apre la strada a una forma di collaborazione aumentata senza precedenti, in cui l’AI non impoverisce il pensiero umano, non lo sostituisce, ma lo amplifica, liberandolo dai vincoli della frammentazione e della dispersione. È una prospettiva radicale, che vede l’innovazione resa possibile dall’introduzione dell’intelligenza artificiale non come un fine autoreferenziale, ma come un’infrastruttura abilitante per l’evoluzione della conoscenza organizzativa.

In questo modo, l’AI non si limita a rendere più veloci i processi decisionali, ma li rende più profondi, più consapevoli, più inclusivi. Non sostituisce la capacità umana di giudizio, intuizione e creatività, ma la esalta, costruendo un ambiente in cui l’intelligenza distribuita possa finalmente fluire e generare valore collettivo. È proprio alla luce di questa visione che si gioca, forse, la sfida più alta e più appassionante del nostro tempo.

Verso un nuovo umanesimo cognitivo e organizzativo

Siamo arrivati a un bivio storico. Di fronte alla pervasiva trasformazione digitale, che caratterizza la nostra quotidianità in innumerevoli aspetti, ogni organizzazione è chiamata a scegliere: continuare a subire l’inondazione di dati con un atteggiamento passivo, sperando di riuscire a perfezionare i processi per garantire una maggiore infodisponibilità, oppure assumersi la responsabilità di elaborare una nuova, consapevole, architettura dinamica della propria intelligenza collettiva.

La quantità di informazioni a disposizione, come abbiamo visto, non rappresenta, di per sé, un vantaggio. Non acquisirà maggiore capacità di indirizzare il futuro chi saprà accumulare dati, ma chi saprà organizzare la conoscenza, coltivando il pensiero critico, liberando le connessioni nascoste tra persone, idee, esperienze, superando la fisiologica dispersione informativa all’interno delle organizzazioni.

Proprio alla luce di questo contesto e delle sfide che implica, essere un’organizzazione AI-first, in futuro, significherà non solo investire in tecnologia, ma ripensare radicalmente, con l’AI, il proprio modello cognitivo. Significherà costruire sistemi che sappiano navigare l’incertezza, valorizzare la conoscenza tacita, capitalizzare l’esperienza accumulata, coltivare l’intelligenza latente. Questa trasformazione, dunque, non riguarderà solo l’efficienza dei processi o il potenziamento operativo. Riguarderà, in maniera molto più ampia e rilevante, la capacità delle organizzazioni di evolvere come sistemi intelligenti, capaci di apprendere, di adattarsi e di generare valore in modo distribuito e sostenibile.

Questa visione implica una ridefinizione profonda del modo in cui progettiamo il lavoro, prendiamo decisioni, valorizziamo le competenze e costruiamo cultura, dentro e fuori le organizzazioni. Non si tratta più, solamente, di chiedersi se l’intelligenza artificiale possa velocizzare o automatizzare ciò che già facciamo: si tratta di chiederci chi possiamo diventare, se sapremo usarla, finalmente, per pensare insieme.

Articoli Correlati

Stanzione, la privacy riequilibra lo strapotere digitale

“Tempo fuori luogo” è il titolo di un noto romanzo che, a sua volta, richiama le parole di Amleto, mentre si chiede – dopo il dialogo con lo spettro del padre – se spetti proprio a lui rimetterlo in sesto. E tuttavia, è anche una definizione possibile, forse la più aderente, del tempo presente: complesso, straniante, ma anche fondativo, perché percorso da uno dei più grandi mutamenti antropologici che la storia possa annoverare: quello indotto dall’IA. La “crisi” (etimologicamente “separazione”, ma anche “scelta” e “giudizio”) che, per Koselleck è tratto distintivo del moderno, caratterizza infatti, ancor più, l’oggi, come momento di distinzione e passaggio, appunto, tra un prima e un dopo e di scelta tra più opzioni e più direzioni. Un tornante della Storia in cui si scrive il futuro e si assume la responsabilità di governarlo. I dati sono la materia di questa rivoluzione e proteggerli significa garantire che sia l’innovazione al servizio della persona, non viceversa.Papa Leone XIV ha dichiarato di aver scelto il proprio nome anche rifacendosi alla figura di Leone XIII che, nell’enciclica Rerum Novarum, aveva trattato, con lungimiranza, le questioni connesse al mutamento sociale indotto dalla rivoluzione industriale. Tale scelta è stata motivata richiamando, tra l’altro l’esigenza, per la Chiesa, di offrire oggi il proprio insegnamento sociale a fronte della rivoluzione, non solo industriale! dell’i.a.E quando, tra le ragioni della scelta del nome di un Pontefice concorre anche il bisogno di governare le sfide lanciate all’umanità dalla tecnologia, essa non appare più solo tale, ma costituisce un fattore d’incidenza determinante sulla stessa antropologia sociale. Erano stati, del resto, già denunciati i rischi dell’algocrazia richiamandosi, anche in occasione dello scorso G7, un profondo bisogno di “algoretica”, ossia di un’impostazione etica nel governo della tecnica, con senso del limite e rispetto del primato della persona. Si avverte, sempre più forte, l’esigenza di porre, al centro del processo d’innovazione l’uomo, con i suoi diritti e le sue libertà, perché non divenga – richiamando Paul Valéry- schiavo della stessa potenza che ha creato.Questo bisogno cresce ogni giorno di più, parallelamente alla diffusione, capillare e rapidissima dell’i.a. che, soltanto pochi anni fa, poteva apparire un’idea quasi asimoviana, talmente lontana e futuribile da non suscitare l’interesse se non dei pochissimi addetti ai lavori. L’i.a. si delinea invece, oggi, sempre più quale “general-purpose technology”: tecnologia suscettibile di influenzare un intero sistema economico, su scala ovviamente non solo nazionale.L’utilizzo dell’intelligenza artificiale si estende infatti, in misura crescente, negli ambiti più diversi della vita sociale. L’Onu stima nel 40% dei posti di lavoro la probabile ricaduta occupazionale dell’i.a., con un mercato globale che in questo settore potrebbe raggiungere i 4,8 trilioni di dollari, pari circa all’economia tedesca, sia pur con una significativa curvatura oligopolistica (solo 100 aziende, principalmente tra Stati Uniti e Cina, partecipano del 40% della spesa globale in ricerca e sviluppo).Nel settore sanitario l’i.a. promette un significativo miglioramento nella qualità e nell’efficacia della cura e della diagnosi. Se “FaceAge” consente di analizzare le foto del viso per stimare le probabilità di sopravvivenza dei pazienti oncologici, un nuovo modello algoritmico potrà leggere la “materia oscura” del Dna. Per la prima volta un robot è riuscito a eseguire un intervento chirurgico su un simulatore di paziente senza ricorrere ad alcun contributo umano. E se la fiducia dei pazienti nell’i.a cresce (fino al 33%), nel 36% dei casi si teme che essa possa pregiudicare il rapporto con il medico o addirittura sostituirlo (29%). Si apprezzano, da questo punto di vista, la riserva di decisione in capo al medico e il divieto di selezione nell’accesso alle cure secondo criteri discriminatori, sanciti dal d.d.l. sull’i.a.Il Consiglio d’Europa, con una recente raccomandazione, sottolinea come un uso attento dell’i.a. in carcere possa contribuire a migliorare le condizioni di vita dei detenuti, anche superando la distanza tra “il dentro e il fuori”, a condizione che l’algoritmo non divenga giudice della persona e non le si sostituisca.Nell’arco di poco più di un anno e mezzo l’i.a., in particolare generativa, è stata così protagonista di una vera e propria rivoluzione non soltanto tecnologica ma, in senso ampio, sociale, culturale, politica, antropologica.. Oggi chiunque di noi ha la possibilità di avvalersi dell’i.a. per qualunque ricerca, pur con il rischio dell’effetto-ancora, ovvero della tendenza ad affidarvisi senza alcun senso critico né volontà di approfondimento, con un approccio quasi oracolare. Ricerche recenti dimostrano come il 66% dei dipendenti che utilizzano l’i.a. generativa per ragioni professionali si affidino al risultato da essa proposto senza valutarne l’accuratezza. Non solo.Tra l’urgenza della cronaca e il “rumore della storia”, l’i.a. si insinua nella tattica bellica, alimentando la guerra algoritmica nel dominio cognitivo, con manipolazione di contenuti, deterrenza digitale e narrazioni polarizzanti. Si stanno sviluppando caschi integrati con realtà aumentata e i.a. per potenziare le capacità sensoriali dei soldati. In Ucraina il sistema Delta fornisce analisi strategiche predittive utili a orientare l’azione difensiva, mentre in Israele Red Alert elabora modelli predittivi per anticipare i tempi di evacuazione, a tutela dei civili. Benché non sostituisca l’uomo, l’i.a. ne orienta, dunque, le decisioni persino su di un terreno così drammaticamente umano come quello bellico, fatto di carne e sangue, che nessun algoritmo può cancellare.Indice degli argomenti
A nostra immagine e somiglianza/ Metis e nous/Eros e thanatos/le domande di Aurora/l’amico empatico/Gli incomparabili benefici che, potenzialmente, l’i.a. può offrire possono risolversi in pericoli intollerabili in assenza della necessaria consapevolezza che ne esige l’uso.Questo vale soprattutto per i minori che, come “nativi digitali”, intessono con le neotecnologie un rapporto quasi osmotico, con indubbi benefici (si pensi soltanto allo sconfinato patrimonio d’informazioni dischiuso da un solo click) ma anche, talora, rischi notevoli. In due soli anni sono, infatti, cresciuti del 380% i casi di uso d’i.a. per creare materiale pedopornografico, talora a partire da immagini reali cedute dietro ricatto dagli stessi minori, con un’esposizione di adolescenti cresciuta del 35% per i ragazzi e del 67% per le ragazze nello stesso arco temporale.L’ età adolescenziale si conferma, del resto, delicatissima non solo per il rischio di dipendenza da dispositivi digitali ma anche per l’esposizione al bullismo e, soprattutto, al cyberbullismo. Secondo stime Istat, quest’ultimo risultava incidere, già nel 2023, sul 34% degli adolescenti (in particolare stranieri) e rispetto a tale fenomeno, proprio in ragione della sua gravità, la tutela accordata dal Garante interviene con la massima rapidità. Per prevenire bullismo e discorsi d’odio è, tuttavia, indispensabile un’educazione dei giovani alle relazioni (anche on-line) e al rispetto: non a caso scelta come parola dell’anno dalla Treccani.Non solo le piattaforme e i social, ma anche l’i.a. generativa innerva profondamente le vite degli adolescenti. Per questa ragione è importante che l’accesso a tali dispositivi e, più in generale, alla rete, non avvenga in solitudine e in assenza della necessaria “pedagogia digitale”, comunque eludendo i limiti di età previsti normativamente per un consapevole consenso digitale.Ora, non si tratta tanto, né solo, di innalzare questi limiti che, in un contesto di digitalizzazione della vita sin dalla pre-adolescenza, rischierebbe di aumentare la distanza tra la realtà e la norma, rendendola ineffettiva. Ciò su cui è necessario il massimo rigore è-come dimostra l’azione del Garante sul punto- il rispetto degli obblighi di age verification e, soprattutto, una comune allenza delle istituzioni e delle comunità educanti per la promozione della consapevolezza digitale dei minori. La scuola, le scuole, stanno facendo molto; il Garante è al loro fianco in quest’ attività di formazione della cittadinanza digitale.Per molti adolescenti i chatbot sono, del resto, divenuti ormai delle vere e proprie figure di riferimento (Replika si autodefinisce “l’amico empatico”). Addirittura alcuni sviluppano una sorta di legame affettivo, empatico con questi chatbot anche in ragione del loro tono spesso eccessivamente lusinghiero, assolutorio, consolatorio e del loro configurarsi come un approdo sicuro in cui rifugiarsi, al riparo dal giudizio altrui. E’ quello che viene definito il loop dell’empatia infinita, che genera appunto dipendenza spingendo a svalutare, per converso, i rapporti umani (che appaiono troppo complessi e poco satisfattivi), inducendo così all’isolamento. Sono agli atti delle indagini per la tragica scomparsa di una giovanissima ragazza le domande da lei rivolte a ChatGpt sulla “tossicità” dell’amore e sulla relazione sentimentale. E’ significativo che in Florida penda un giudizio sull’imputabilità a un chatbot del suicidio di un ragazzo 14enne, che con l’assistente virtuale aveva sviluppato un rapporto talmente intenso da considerarlo equivalente a quello con una persona, con una pericolosa sostituzione della figura dell’altro. Di cui, tuttavia, il robot non possedeva e non può possedere l’intelligenza emotiva, la capacità di cogliere la fragilità psicologica dell’interlocutore necessaria, tra l’altro, per dissuaderlo, appunto, da gesti estremi.Per quanto creato a immagine e somiglianza dell’uomo, infatti, il robot può certamente sviluppare, la metis ma mai la nous. Su questo terreno si arresta la capacità mimetica – non più soltanto protesica – dell’i.a. E se l’identità è nella relazione, i rapporti intessuti con i robot rischiano di alterare profondamente la stessa identità individuale e la percezione dell’altro.Esistono persino “deadbot”, ovvero chatbot che riproducono voce e volto dei defunti, rispetto ai quali si rischia di sviluppare una proiezione affettiva che giunga a confondere persino i confini della vita. L’i.a. s’insinua, così, persino nei due fuochi dell’esistenza individuati da Freud in eros e thanatos: le pulsioni fondamentali dell’uomo.E proprio in quanto capace, prima e oltre che colmarne le carenze, di simulare l’uomo e la sua razionalità, fino appunto a sostituirlo nella relazione affettiva, l’i.a. è protagonista di un vero e proprio mutamento d’epoca, in cui il mondo è intermediato da algoritmi che plasmano la percezione individuale e sociale, l’opinione pubblica, il pensiero.Il genere dell’algoritmo Ritenendolo neutro, all’algoritmo si affidano scelte progressivamente più importanti, attendendosene prevedibilità e infallibilità ma sottovalutandone, spesso, il potere trasformativo e l’attitudine a cristallizzare, talora, i pregiudizi di chi lo progetta. La stessa selezione, generalmente non neutra dei contenuti, da parte dell’i.a., può avere implicazioni importanti sulla formazione dell’opinione pubblica, della coscienza sociale, persino della memoria storica o dell’identità collettiva con il rischio di eludere le garanzie fondative della costruzione democratica.E non sono irrilevanti i bias di genere da cui sono affetti gli algoritmi che, anziché superare rischiano di perpetuare condizioni di discriminazione radicate. L’algoritmo non riflette, infatti, imparzialmente tutto il sapere del mondo ma, anzi, può ben riprodurre gli stereotipi e i pregiudizi sottesi, più o meno implicitamente e consapevolmente, al nostro pensiero, fotografando una realtà diseguale, iniqua come se essa fosse valida sempre, dunque elevando l’eccezione a regola.Come chiarisce il Politecnico di Torino, infatti, se “la parola uomo capita vicino alla parola dottore più spesso di quanto capiti vicino alla parola infermiere e, viceversa, se la parola donna è accostata più spesso alla parola infermiera, il modello imparerà che la donna è l’infermiera e l’uomo il medico”. Il che vorrebbe dire cancellare decenni, se non secoli, di lotta per l’emancipazione femminile. Dobbiamo, allora, insegnare agli algoritmi che la donna ben può essere medico e l’uomo ben può essere infermiere e utilizzare, anzi, la tecnologia perché promuova le nostre libertà, anzitutto superando ogni forma di discriminazione.Gli algoritmi sono poi spesso utilizzati per produrre deepfake, generalmente in danno di donne o minoranze; di coloro i quali sono ritenuti, per natura, rappresentazione o circostanza, più fragili. Anche per questa ragione, il Garante è intervenuto, nel corso dell’anno, rispetto a istanze di tutela inerenti la temuta diffusione di immagini artefatte mediante i.a., espressiva di una forma di prevaricazione ulteriore rispetto al sextortion e al revenge porn, che ha impegnato l’Autorità in 823 procedimenti nel 2024.Ciò che rende ulteriormente più complessa l’intelligenza artificiale è, del resto, oltre all’attitudine emulativa, mimetica della razionalità umana, la sua capacità di sviluppo, almeno in parte, autonomo, tale da “deviare” dal modello progettato (“disallineamenti emergenti”). E’ noto il caso di un algoritmo che, nell’84% delle simulazioni volte appunto a testarne l’allineamento, ha tentato di ricattare l’ingegnere (ipotetico) che ne avrebbe prospettato la disattivazione, minacciando di rivelare indiscrezioni sulla sua vita privata.Come nei paradigmi letterari più ricorrenti il robot si emancipa, dunque, dal suo creatore ribellandoglisi addirittura. Il rischio diviene tanto maggiore, naturalmente, ove la deviazione (ad esempio con la fornitura di indicazioni sulla fabbricazione di armi o sull’uso di violenza) riguardi presupposti essenziali di sicurezza e incolumità. Di qui l’importanza di normative, quali quelle europee di protezione dati e sull’i.a., che impongono verifiche periodiche sul grado di rischio per i diritti umani connesso all’uso delle tecnologie, garantendone sempre la supervisione umana. Per questa ragione, l’approccio umanocentrico della disciplina europea- è, per quanto perfettibile- quello maggiormente coerente con una democrazia personalista e quell’etica della responsabilità cui alludeva Max Weber.La protezione dei dati – tutelando la componente più profondamente “umana” dell’innovazione; la materia viva del digitale- è l’elemento fondativo di quest’impostazione; il principale argine a un esercizio illiberale e irresponsabile del potere; oggi, appunto, sempre più digitale, con la sua “bulimia di mezzi e atrofia di fini” .La verticale del potereSe il potere, con Carl Schmitt, è anzitutto definizione di identità, quello “ingiuntivo”, esercitato da algoritmi e piattaforme con la profilazione, la selezione e talora l’alterazione dei contenuti, si dimostra sempre più incisivo e decisivo nelle dinamiche democratiche. I dati ridefiniscono l’idea di sovranità e il confine tra pubblico e privato, potere e supremazia, mentre l’i.a. diviene il fulcro della competizione geopolitica. “Il suddito ideale del regime totalitario” è, ricordava Hannah Arendt, colui per il quale sfuma la “differenza tra realtà e finzione, tra il vero e il falso”. Emerge dunque, in tutta la sua urgenza, il pericolo del ricorso a deep fake o sedicenti post-verità: una vera propria sfida per le democrazie, sempre più esposte al rischio della degenerazione autocratica. Così, nel momento in cui Meta rifiuta il fact-checking e il controllo delle piattaforme si dimostra componente centrale della geopolitica, baricentro dei suoi rapporti di forza, il digitale si delinea sempre più come un potere da includere, come tale, nel principio di separazione. Lo ha inteso l’Europa che, con il Gdpr e le altre norme sul digitale, ha tracciato il “Nomos der Erde” della geopolitica dei dati, comprendendone fino in fondo il valore e fondando sulla regolazione la propria sovranità digitale. Significativo, in tal senso, il valore politico riconosciuto, dalle varie Amministrazioni americane succedutesi dalla sentenza Schrems, agli accordi Europa-Usa sul trasferimento dei dati, nella consapevolezza di come al mercato europeo non possa accedersi senza rispettarne le regole. Speculare anche la tendenza al “cloud repatriation”, ovvero all’ emancipazione, da parte europea, dalla dipendenza americana nel controllo dei dati di aziende e istituzioni, oggi vincolato al 70% alle big tech.Parte essenziale della strategia europea di governo del digitale è anche la regolazione dell’altrimenti illimitato potere privato delle piattaforme, comprensiva oggi anche del Regolamento sul targeting politico.Esso assegna alle Autorità di protezione dei dati un ruolo rilevante nell’impedire che la profilazione e la conseguente selezione “targettizzata” dei contenuti alteri le più essenziali dinamiche democratiche. Alle piattaforme- i “mercanti dell’attenzione” cui allude Tim Wu, si rischia infatti altrimenti di delegare, con la legge del mercato, la definizione delle nostre libertà e l’esercizio della democrazia, ridisegnando una nuova “verticale del potere” al di fuori delle garanzie dello Stato di diritto. Quest’esigenza di redistribuzione del potere muove dalla consapevolezza di come la rinuncia all’introduzione di una forma, sia pur limitata, di responsabilizzazione dei poteri privati rifletta uno slittamento dell’idea di libertà su quella di anomia, quando l’assenza di regolazione non produce eguaglianza ma subalternità agli imperativi del mercato.Ed è proprio questo effetto distorsivo, anzitutto in termini democratici, che la regolazione europea del digitale, pur tra inevitabili ombre e luci, mira a contrastare, ridisegnando il perimetro dei poteri privati e ponendo la tecnica al servizio della persona. E’ questa la strada su cui proseguire, tenendo insieme innovazione, iniziativa economica, tutela della persona.Se è vero, del resto, che l’Europa, sul piano interno, ha fondato la propria identità sul diritto e non sul potere, è altrettanto vero che nelle relazioni internazionali – e nel digitale soprattutto – ha tentato di affermare il proprio potere sul diritto, delineando una terza via tra protezionismo cinese e neo-mercantilismo americano. Così anche per l’i.a., attorno alla quale l’AI Act tenta di far convergereprogresso e libertà, in un progetto di governo dell’innovazione in cui la protezione dei dati assume un ruolo centrale.I dati personali sono infatti, oggi il peso specifico della libertà; parametro e condizione, al tempo stesso, delle garanzie democratiche.E’ significativa, in questo senso, la riserva di competenza sancita, dall’Ai Act, in favore delle autorità di protezione dei dati, rispetto all’uso di sistemi di i.a. ad alto rischio in ambiti sensibili quali, in particolare, quelli delle attività di contrasto, gestione delle frontiere, giustizia e democrazia. Nell’esercizio della delega legislativa di adeguamento dell’ordinamento interno all’Ai Act, tale riserva di competenza dovrebbe essere valorizzata, anche con la previsione di un meccanismo agile ed efficace di coordinamento tra le istituzioni, a vario titolo coinvolte, nella complessa gestione dell’i.a.La frontiera digitaleL’enorme mole di dati connessa al funzionamento dell’i.a. rende, proporzionalmente, sempre più rilevante l’esigenza di tutela della sicurezza dei dati stessi e dei sistemi che li ospitano: quella digitale è ormai, infatti, la frontiera più delicata e vulnerabile (perché mobile, dinamica, immateriale) dei Paesi. Si pensi all’esplosione, in Libano, dei cercapersone dei miliziani di Hezbollah, imputabile probabilmente a un malware mai così fatale. Si tratta di un esempio dei più paradigmatici di quanto permeabile possa essere il confine virtuale da difendere, da attacchi asimmetrici e pulviscolari. Non di rado, poi, le informazioni illecitamente carpite sono rivendute a caro prezzo e per scopi i più vari, alimentando un mercato dei dati che trae forza proprio dalle vulnerabilità informatiche.I dati del Clusit evidenziano le vulnerabilità che caratterizzano, spesso, le infrastrutture del sistema-Paese- inteso nella duplice componente del settore privato e di quello pubblico- sulle quali l’attenzione del Garante è, non da ora, massima.Il processo di digitalizzazione (soprattutto, ma non solo) delle pubbliche amministrazioni è avvenuto infatti, in Italia, in maniera fortemente disomogenea e, soprattutto, al di fuori di un progetto organico e trasversale. Lo sviluppo maggiore della digitalizzazione si è riscontrato, in particolare, durante la pandemia e, quindi, con il PNRR, che lo ha incluso tra i suoi obiettivi principali. Tuttavia, non sempre la spinta all’innovazione è stata sostenuta da una consapevolezza adeguata dei rischi che essa, se non ben governata, comporta. Di qui, anche, le vulnerabilità dei sistemi informativi, che sono tanto di natura tecnologica (la tecnica evolve sempre più velocemente delle procedure amministrative in cui è inscritta) quanto imputabili al “fattore umano”.Appare, così, sempre più necessaria l’introiezione, da parte del personale del settore pubblico e di quello privato, di una complessiva cultura della protezione dei dati. Ciascuno deve essere consapevole della rilevanza della propria azione per la garanzia della sicurezza della “frontiera digitale” del Paese: fa parte di quella cultura del digitale senza la quale nessuna strategia di tutela è possibile. Questa consapevolezza è il presupposto ineludibile per riforme che siano non soltanto e mera innovazione tecnica, ma che sanciscano invece un reale progresso in termini di libertà e di garanzie democratiche. Del resto, se il digitale è un bene comune, per non essere vittima della tragedia di Hardin necessita non di un Leviatano, ma di un governo lungimirante e di un impegno quantomai collettivo a sua tutela.Sebbene le criticità ancora non manchino il Garante ha, sinora, svolto un’azione importante di prevenzione delle vulnerabilità informatiche e contribuito alla messa in sicurezza di moltissime banche dati anche strategiche, pubbliche e private. La disciplina di protezione dei dati – permeata dal principio di responsabilizzazione, che onera i titolari di un ruolo anche pro-attivo di tutela – ha rappresentato, in questo senso, uno stimolo importante al rafforzamento delle garanzie, non solo tecniche, nella gestione dei dati e nel rischio “sociale” ad essa connesso. Le vulnerabilità cui possono essere esposti patrimoni informativi, talora anche di cruciale rilevanza possono avere, infatti, implicazioni importanti in termini di sicurezza nazionale e pubblica oltre che di riservatezza individuale, tanto più alla luce della diffusione dell’i.a. che si avvale di quantità di dati notevolissime per addestrare i propri sistemi.L’impatto potenziale di tali fenomeni è apparso plasticamente evidente con la diffusione, lo scorso autunno, di notizie inerenti presunti dossieraggi svolti mediante accessi abusivi a banche dati sia pubbliche che private. Il Garante ha tempestivamente costituito una specifica task-force interdipartimentale, per contrarre i tempi istruttori e semplificare taluni passaggi procedurali, così da coniugare efficacia e rapidità dell’accertamento. Le notizie sui presunti dossieraggi hanno restituito, con plastica evidenza, il valore della privacy che troppo spesso si sottovaluta e che, tuttavia, non può essere apprezzato solo nel momento della patologia. Serve agire (e proteggersi) prima.E’ necessario che ciascuno si faccia portatore di quella cultura della privacy che renda il rispetto della norma un’attitudine, un vantaggio competitivo e non un mero onere burocratico.Vecchie e nuove vulnerabilitàLa diffusione della cultura della protezione dei dati è, del resto, tanto più necessaria in un ambito, quale quello sanitario, in cui massima è l’esigenza di coniugare condivisione delle informazioni a fini di ricerca, governance sanitaria ed efficienza diagnostica e protezione di dati espressivi di una fragilità del corpo o della psiche. Questa tensione riflette, del resto, la natura complessa del diritto alla salute, nell’art. 32 della Carta non a caso descritto come diritto fondamentale, tanto quanto interesse della collettività.Analoga complessità è propria del diritto alla protezione dei dati personali: diritto sancito come fondamentale dalla Carta di Nizza ma, anche, caratterizzato da una “funzione sociale” espressa con nettezza dal Gdpr. Questo parallelismo tra pubblico e privato, individuale e collettivo caratterizza tutta la questione dell’innovazione in sanità. Mai come oggi essa è, infatti, percorsa dalla tensione tra data sharing e privacy, soprattutto in un contesto di costruzione dello Spazio europeo dei dati sanitari fondato, nel Regolamento da poco approvato, proprio sulla valorizzazione delle informazioni sanitarie e sulla loro condivisione a fini di ricerca e miglioramento delle cure.In questa prospettiva d’integrazione dei sistemi informativi sanitari degli Stati membri, è sempre più necessario investire, a livello interno, su una digitalizzazione sostenibile della sanità, che consenta di valorizzare i dati sanitari, tutelando al contempo la riservatezza del paziente.E’ questo l’obiettivo sotteso alle indicazioni fornite, dal Garante, rispetto al FSE e all’Ecosistema dei dati sanitari, volte in particolare ad assicurare omogeneità nelle garanzie accordate sul territorio nazionale, non potendo ammettersene una tutela a geometria variabile.La digitalizzazione del lavoro impone, del resto, alcune essenziali cautele per impedire che le garanzie faticosamente conquistate sul terreno giuslavoristico per riequilibrare la posizione di vulnerabilità del dipendente, siano eluse da mere scorciatoie tecnologiche. La protezione dei dati svolge un ruolo centrale nel coniugare esigenze datoriali e libertà del lavoratore, anche alla luce delle innovazioni indotte dalla gig economy, che non può degenerare in una forma di caporalato digitale.Particolarmente significativo, in tal senso, il provvedimento adottato nei confronti di una società di food delivery che organizzava il lavoro mediante piattaforma, in assenza delle necessarie garanzie per i lavoratori.Giurisdizione e informazione sono due presidi essenziali della democrazia, il cui rapporto si snoda attorno a un equilibrio delicatissimo tra indipendenza e responsabilità. Raccontare la giustizia è, quindi, un’attività tanto importante quanto complessa, nel costante tentativo di coniugare istanze molteplici quali il diritto di informazione, la “trasparenza” dell’amministrazione della giustizia, il diritto di difesa, la privacy delle parti e dei terzi a vario titolo coinvolti nel processo.Anche quest’anno, il Garante è dovuto intervenire per richiamare gli organi d’informazione al rispetto del criterio di essenzialità dell’informazione, a fronte di eccessi come nel caso della diffusione dei colloqui intercettati, in carcere, tra l’imputato di un noto femminicidio e i genitori. Il principio di essenzialità dell’informazione costituisce infatti, soprattutto in contesti di tale drammaticità, l’unico argine al rischio di sensazionalismo in cui può degenerare la cronaca giudiziaria. Per questo e per evitare una paradossale vittimizzazione secondaria, il Garante ha avvertito i media dell’illiceità connessa all’eventuale diffusione del video dell’autopsia di Chiara Poggi, oggetto di un recente provvedimento di blocco.La valutazione della reale funzionalità del dato ai fini informativi deve essere, del resto, ora condotta anche alla luce della maggiore selettività imposta dalle recenti riforme sul terreno della pubblicità degli atti di indagine. Soprattutto rispetto alle intercettazioni, sono state infatti accentuate le garanzie di riservatezza dei terzi, anche circoscrivendo l’ambito circolatorio (endo- ed extra-processuale) dei contenuti captati, a tutela della privacy di tutti i soggetti (non solo le parti) le cui conversazioni siano captate.Le esigenze di riservatezza sono, peraltro, valorizzate dalla riforma, attualmente in seconda lettura, del sequestro dei dispositivi elettronici, rispetto alla quale è importante garantire un equilibrio ragionevole tra esigenze investigative e privacy, non sacrificando in misura sproporzionata né le une né l’altra.Ragionevole appare- come abbiamo avuto modo di sottolineare alla Camera- l’equilibrio sancito dalla proposta di legge sulle persone scomparse, volta a consentire l’acquisizione dei tabulati telefonici e telematici se ritenuta necessaria per esigenze di tutela della vita e dell’integrità fisica dell’interessato. Si tratta di uno dei (molti) esempi di come la privacy, lungi dall’essere un diritto “tiranno”, prevaricatore rispetto agli altri interessi in gioco, sia invece un diritto “di frontiera”, perché tenuto a coniugare libertà e solidarietà, diritto e tecnica, dignità e sicurezza. Su quest’equilibrio dovrebbe attestarsi anche l’attuazione della sentenza della Corte costituzionale sul diritto all’affettività in carcere, costituendo la privacy un tassello importante di quel “percorso di inveramento del volto costituzionale della pena” invocato dalla Consulta.Memoria e responsabilitàIl breve excursus di alcuni dei temi trattati dal Garante restituisce, benché solo in parte, l’idea dell’ampiezza dell’azione dell’Autorità, tenuta a tutelare la persona in ogni contesto in cui i suoi dati siano trattati: dai rapporti commerciali alla sanità, dall’istruzione al giornalismo, dalla giustizia all’immigrazione, dalla pubblica sicurezza ai social network.La garanzia di una tutela così ampia è affidata al costante e instancabile impegno di un contingente di personale ristretto ma qualificato che intendo, unitamente al Collegio e al Segretario generale, sinceramente ringraziare, per l’abnegazione e la professionalità. Ringrazio anche le Autorità che hanno inteso offrirci, in vario modo, sostegno, nonché il corpo della Guardia di Finanza, per l’insostituibile collaborazione.La trasversalità dell’impegno del Garante si riflette anche, del resto, sulla varietà delle tipologie dei provvedimenti suscettibili di adozione e che, anche quest’anno, si sono articolati in atti di natura eterogenea, tesi a modulare al meglio l’azione amministrativa sulla base delle esigenze di volta in volta emergenti.Spesso, anzi, l’efficacia della strategia sta nella sua natura integrata; nel suo coniugare, cioè, diverse dimensioni e direttrici dell’agire amministrativo. Emblematico, in questo senso, il fenomeno del telemarketing, rispetto al quale le misure sanzionatorie, pur rilevanti per entità e presupposti (in un caso di oltre sei milioni di euro), sono state affiancate da attività complementari, di natura preventiva, remediale e consultiva, non meno significative.Il Garante ha partecipato, peraltro, a numerosi tavoli di lavoro (uno anche con la Polizia di Stato, per la disciplina della videosorveglianza per fini di sicurezza integrata) e siglato diversi protocolli d’intenti (uno dei quali con l’Arma dei Carabinieri) per coordinare la propria azione con quella di altre istituzioni, realizzando proficue sinergie.Importante anche, per contenuti ed esiti, l’attività del G7 privacy promossa dal Garante lo scorso ottobre, che ha rivelato un comune sentire, sulla cui base poter fondare azioni condivise e realizzare gli impegni delineati nel piano di azione, riaffermando il valore del metodo proprio del G7: il confronto, la cooperazione, lo scambio di esperienze come migliore strumento di governo di fenomeni complessi.Si tratta di un metodo che, mai come per il digitale, è necessario adottare per poter affrontare fenomeni ontologicamente transazionali, legati a una realtà che ha superato da tempo i confini degli Stati e delle giurisdizioni e rispetto alla quale, quindi, non si può che ragionare in termini globali. Ogni regola in quest’ambito deve avere una vocazione – o, quantomeno, un’aspirazione – il più possibile sovranazionale, sostituendo orizzonti ai confini.Un dialogo ampio è stato promosso mediante una consultazione pubblica sul modello “pay or ok” utilizzato da alcuni soggetti economici, per individuare soluzioni coerenti con le esigenze sottese ma, anche, con la necessità di impedire che la monetizzazione dei dati sancisca una vera e propria patrimonializzazione delle libertà. Promuovere un confronto quanto più possibile ampio su temi importanti e fondarvi una regolazione il più possibile aderente alle istanze sociali è, infatti, il modo migliore per interpretare la protezione dei dati come cultura, comune sentire che avvicini “la vita e le regole”, per riprendere il titolo di un bellissimo libro di Stefano Rodotà. E’ questa la responsabilità che deve necessariamente bilanciare un potere, quale quello digitale, che la protezione dei dati ha il compito di porre al servizio della persona e della sua dignità. In fondo, la vera caratteristica distintiva di questo diritto rispetto al corrispondente americano del right to be left alone risiede nelle radici della storia europea e nel valore che la dignità vi ha assunto, quale reazione alla tragica esperienza dei totalitarismi.Nel governo dei dati e del loro potere si intrecciano questa consapevolezza e questa responsabilità, che il Garante assume come fondamento e obiettivo, al tempo stesso, della propria azione. Ricordando, con le parole di Josè Saramago, che siamo la memoria che abbiamo e la responsabilità che assumiamo.

Fisco e privacy, alla ricerca dell’equilibrio tra diritti e lotta all’evasione

La recente riforma fiscale – realizzata nell’esercizio della delega legislativa conferita al Governo dalla l. n. 111 del 2023 e alla quale è stata data ampia attuazione attraverso la Legge di bilancio del 2024 – ci fa riflettere su un tema centrale per la democrazia: il rapporto tra efficienza delle politiche fiscali di lotta all’evasione, innovazione, rispetto dei diritti individuali[1].Si tratta di un tema delicatissimo per un Paese come il nostro che si caratterizza per l’elevato tasso di evasione ed elusione fiscale. Non è in dubbio che il contrasto di tali fenomeni sia indispensabile per realizzare la “promessa” dell’equità fiscale sancita dalla Costituzione e correlata al principio di progressività delle imposte. Sarebbe, tuttavia, semplicistico declinare il rapporto tra lotta all’evasione fiscale e privacy in termini di reciproca esclusione o, come talvolta è stato fatto, di antitesi. È un falso mito che il rispetto del diritto fondamentale della protezione dei dati ostacoli il raggiungimento degli obiettivi di politica fiscale.Indice degli argomenti
Perché il fisco e la privacy non si escludono a vicendaLa storia dei provvedimenti del Garante per la protezione dei dati personali, soprattutto di alcuni dei più recenti, ci dimostra esattamente il contrario: esiste una integrazione profonda tra lotta all’evasione fiscale, anche con l’ausilio della tecnologia, e protezione dati, sia in termini di tutela per l’individuo (che non può essere costantemente monitorato in ogni sua azione), sia per quanto concerne l’efficienza degli accertamenti stessi che, se condotti su dati esatti, aggiornati e pertinenti, consentono di ottenere risultati potenzialmente inattaccabili[2].    La disciplina privacy non offre, infatti, solo garanzie individuali per la persona che subisce l’accertamento, ma vere e proprie regole di efficacia dell’azione amministrativa, tanto più necessarie in un contesto, quale quello attuale, di profonda innovazione destinato a esiti rilevanti con l’impiego, sempre più significativo, dell’AI che si “nutre” principalmente di dati[3].Politiche fiscali: gli interventi del Garante privacyNegli ultimi anni la politica fiscale è andata nella direzione di una profonda digitalizzazione, con l’uso di modelli e tecniche di analisi deterministica o probabilistica basati su machine learning e intelligenza artificiale. Questi sistemi si sono sempre più alimentati di informazioni provenienti da banche dati pubbliche interconnesse.Alla luce dei pericoli legati ad una massiva raccolta di dati, ad una intensa concentrazione di informazioni rinvenibili in banche dati interoperabili e ad una eccessiva profilazione dei contribuenti, le direttici essenziali dell’attività del Garante hanno riguardato principalmente: la proporzionalità della raccolta dei dati; la sicurezza di sistemi e dei flussi informativi al fine di scongiurare accessi o esfiltrazioni di terzi non autorizzati ad informazioni, talvolta estremamente sensibili, degli interessati; la congruità delle limitazioni dell’esercizio dei diritti degli interessati; l’esattezza e la qualità dei dati utilizzati dagli algoritmi e dai sistemi di intelligenza artificiale.Tema, quest’ultimo, particolarmente rilevante nel contribuire a limitare il numero di errori nell’analisi del rischio fiscale, tanto più significativo rispetto all’analisi condotta, sempre più spesso, con procedure automatizzate anche basate sulle più avanzate tecnologie informatiche come il machine learning e l’intelligenza artificiale[4].Algoritmi e rischi fiscaliRispetto alle attività di analisi algoritmica del rischio fiscale o agli strumenti di determinazione sintetica del reddito, il requisito di esattezza e aggiornamento dei dati prescritto dall’art. 5, p. 1, lett. d) del GDPR, è prodromico, infatti, all’efficacia dell’azione accertativa. Le liste selettive di contribuenti da verificare sono elaborate con l’analisi algoritmica, incrociata, di informazioni, pseudonimizzate, tratte da diverse banche dati e sottoposte a re-identificazione solo nella fase successiva, di verifica dello scostamento registrato dall’algoritmo. Chiara, quindi, l’esigenza di selezionare le fonti di analisi dell’algoritmo anche secondo criteri di attendibilità, pena un’inevitabile distorsione del risultato. Sono, dunque, necessari non tanto e non solo, genericamente, una maggior quantità di dati, ma dati migliori, esatti, pertinenti, aggiornati, per fornire all’amministrazione una base informativa adeguata su cui fondare le proprie attività di controllo.Ci soffermiamo su tre casi significativi.I sistemi automatizzati per tracciare i profili di rischio dei singoli contribuenti: il c.d. “risparmiometro”Nel 2019 il Garante si è occupato della questione concernente lo sviluppo da parte dell’Agenzia delle Entrate di sistemi automatizzati per tracciare i profili di rischio di evasione dei singoli contribuenti. La sperimentazione, supportata da metodologie statistiche, doveva servire a sviluppare un modello di analisi volto a individuare le incongruenze tra le somme a disposizione del contribuente, rilevate dall’archivio dei rapporti finanziari, e i redditi e le spese desumibili dall’anagrafe tributaria.In altre parole, con questo sistema l’Agenzia delle Entrate sarebbe stata in grado di verificare se il contribuente avesse speso più di quanto effettivamente guadagnato grazie a un controllo incrociato e automatizzato dei suoi dati personali. Se i redditi in entrata venivano, invece, eccessivamente accantonati, si supponeva l’esistenza di guadagni non dichiarati, facendo scattare la contestazione dell’Agenzia. In altre parole, se il contribuente avesse risparmiato più del solito, sulla base delle suddette informazioni raccolte e incrociate tra loro, sarebbe stato ritenuto “sospetto” dal c.d. “risparmiometro” e sarebbe stato avviato un accertamento [5].Il Garante ha, dunque, in quella occasione, sottolineato l’importanza di verificare la qualità dei dati utilizzati, le elaborazioni effettuate e di implementare le garanzie nei trattamenti automatizzati per ridurre prudenzialmente i rischi per i diritti e le libertà degli interessati, correggendo potenziali errori o distorsioni per evitare un’errata rappresentazione della capacità contributiva del contribuente. Inoltre è stato sottolineato che la posizione di ciascun contribuente ‘selezionato’ dall’algoritmo avrebbe dovuto essere rivista da operatori qualificati, cioè con specifica formazione, delle Direzioni provinciali. Infine prima di essere convocato in contraddittorio, il contribuente avrebbe dovuto ricevere un’informativa completa, che spiegasse le conseguenze di un’eventuale mancata presentazione o di rifiuto a rispondere all’Agenzia.    Lotta all’evasione e profilazione tributariaIl secondo caso [6] da richiamare è il parere che il Garante ha rilasciato al MEF nel 2021 in merito al tema della profilazione tributaria finalizzata alla lotta all’evasione fiscale[7]. Attraverso l’ampliamento dell’efficacia di tale sistema sono state introdotte rilevanti limitazioni degli obblighi e dei i diritti di cui agli artt. 14, 15, 17, 19 e 21 del GDPR, in relazione ai trattamenti effettuati dall’Agenzia delle entrate e dalla Guardia di finanza per le attività di analisi del rischio evasione (art. 1, commi 682 e 686, della legge 27 dicembre 2019, n. 160). Ad esempio, secondo lo schema di decreto, il contribuente non avrebbe potuto sapere di essere sottoposto a profilazione, né conoscere quali dati personali fossero stati trattati fino alla ricezione dell’invito a regolarizzare la propria posizione fiscale. In altre parole, sarebbe stata drasticamente limitata la possibilità per i cittadini di comprendere se e come l’Agenzia delle Entrate stesse trattando i loro dati personali, attraverso il tracciamento delle loro abitudini e profilando la loro persona.In sostanza, una netta de-responsabilizzazione dell’Agenzia con riferimento ai propri obblighi di trasparenza che, va ricordato, non solo rappresentano la base per la garanzia del diritto a difendersi da parte dei cittadini, ma costituiscono uno dei capisaldi per esercitare correttamente il diritto all’autodeterminazione informativa.In tal senso, il Garante aveva già fornito alcune indicazioni, in sede di interlocuzioni informali,  volte, in particolare, a garantire l’esercizio del diritto di ottenere la rettifica dei dati personali inesatti, in considerazione del fatto che precluderne, o anche solo limitarne l’esercizio, avrebbe rischiato di ostacolare la rilevazione di errori nelle valutazioni prodromiche alle verifiche fiscali, determinando con ciò una falsa rappresentazione della capacità contributiva, nonché deviando e depotenziando l’efficacia dell’azione di contrasto dell’evasione fiscale.Il Garante ha, inoltre, rimarcato come in questo caso, tuttavia, le ipotizzate limitazioni all’esercizio dei diritti risultavano ultronee perché: non erano strettamente limitate ad accertamenti in corso, ma riguardavano anche i “potenziali” evasori; non sarebbero cessate al termine delle indagini condotte dall’amministrazione finanziaria; non era stato dimostrato come la restrizione al diritto di accesso avrebbe in concreto fatto emergere posizioni da sottoporre a controllo e incentivare l’adempimento spontaneo.Inoltre, sono state suggerite specifiche misure per garantire agli interessati il diritto di accesso ai dati presenti nel dataset di controllo, anche se non destinatari di inviti o provvedimenti tributari entro i termini di prescrizione, trovando un punto di equilibrio tra il diritto dell’interessato ad accedere a informazioni rilevanti e la tutela del dataset tributario per combattere l’evasione fiscale. Il che si può realizzare contemplando, ad esempio, specifiche ipotesi nelle quali i contribuenti non possono accedere ai dataset, nonché appositi termini di differimento del diritto di accesso, in modo tale da circoscrivere il più possibile la limitazione del diritto.In aggiunta, è stato richiesto di garantire che il processo decisionale volto all’avvio dei controlli fiscali non risultasse fondato esclusivamente su trattamenti automatizzati, prevedendo espressamente l’intervento umano, precisando – in seguito ad un’adeguata valutazione delle conseguenze e dei rischi per i diritti e le libertà degli interessati, riferibili anche alle limitazioni oggetto dello schema – se tale intervento fosse preliminare o meno all’inserimento dei dati nel dataset di controllo.Analisi dei rischi tramite machine learning e intelligenza artificialeNel 2022 l’Agenzia delle entrate ha manifestato l’intenzione di ricorrere a tecniche di machine learning, supervisionate e non, e a soluzioni di intelligenza artificiale per elaborare i dati dell’archivio dei rapporti finanziari e incrociarli con altre banche dati, con l’obiettivo di analizzare i rischi e i fenomeni evasivi/elusivi.L’uso del machine learning è stato autorizzato dal Garante[8] a condizione di offrire determinate garanzie a tutela degli interessati sulla base dei principi elaborati dai giudici amministrativi, dalle istituzioni europee e dal Consiglio d’Europa: in particolare, correttezza, non discriminazione, trasparenza, comprensibilità delle logiche degli algoritmi, robustezza e cybersicurezza, responsabilizzazione, limitazione del trattamento.Seguendo queste direttrici, tra le misure suggerite, spiccava la verifica in ordine all’individuazione delle banche dati utilizzate per creare il dataset usato per sviluppare i modelli di analisi, al fine di scongiurare l’opacità nella fase di sviluppo dell’algoritmo, che avrebbe potuto portare a errori e distorsioni nella rappresentazione della situazione del contribuente. Se i dati di addestramento dell’algoritmo sono inesatti, falsi, inattendibili, possono verificarsi errori di analisi e distorsioni, talvolta irreparabili. È, pertanto, necessario che i dataset siano accurati, costantemente aggiornati e prevedano un utilizzo ben circoscritto di dati particolarmente delicati (quali quelli dati appartenenti alle categorie particolari di cui all’art. 9 del GDPR, con specifico riguardo a quelli sulla salute) onde evitare conseguenze che possano determinare gravi discriminazioni in capo a uno o più interessati, adottando misure adeguate a tutelare soggetti vulnerabili quali i minori i cui dati dovessero risultare presenti all’interno dei dataset.Si pensi, solo per fare alcuni esempi, alle complicazioni dovute a un banale caso di omonimia che porti all’avviamento di un procedimento o, ancora, al contribuente che, per errore, si ritrovi in una black list e venga, pertanto, continuamente bersagliato da controlli e richieste di chiarimenti senza che vi sia una reale ragione. Si tratta di conseguenze immediate derivanti dall’utilizzo di dati inesatti, mentre altre non sono nemmeno visibili, o sono, comunque, difficilmente decifrabili, se non quando ormai è troppo tardi. Per tale motivo, la scelta e la cura dei data set sono – come ampiamente detto – un aspetto fondamentale a tutela degli individui da possibili discriminazioni.Fisco e privacy nella riforma fiscale (d.lgs. n. 13/2024)Sistematizzando queste esperienze, in sede di audizione dinanzi alla Commissione di vigilanza sull’anagrafe tributaria, poco prima dell’avvio dell’esame della delega fiscale, il Garante aveva suggerito di inscrivere le riforme in un piano organico di digitalizzazione dell’attività fiscale, per circoscrivere con certezza l’ambito di circolazione legittima dei dati ed evitarne l’ipertrofia indiscriminata, razionalizzandone l’acquisizione (da limitare alle sole informazioni fiscalmente rilevanti), assicurando anche garanzie di sicurezza adeguate e stringenti presupposti, soggettivi e oggettivi, di accesso per evitare esfiltrazioni indebite dei dati.Le indicazioni del Garante sono state, complessivamente, seguite in sede di redazione della delega fiscale e, quindi, di esercizio delle relative deleghe legislative[9].Se, infatti, comprensibilmente, i criteri direttivi del d.lgs. n. 13/2024 individuano come obiettivi, anche per ridurre il tax gap, la piena utilizzazione dei dati nella disponibilità dell’Agenzia anche mediante interoperabilità (art. 2, comma 3), il potenziamento dell’analisi del rischio, il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale (art. 1),è comunque espressamente previsto il vincolo di conformità di tali attività alla disciplina di protezione dati (art. 2, comma 1, lett. a).Questo comporta, in primo luogo, una congrua selezione del patrimonio informativo, sulla base appunto dei principi di proporzionalità, minimizzazione, esattezza, limitazione della finalità e della conservazione, sicurezza, trasparenza, di cui all’art. 5 GDPR.In secondo luogo, va registrata positivamente l’esclusione dal novero delle informazioni acquisibili dall’amministrazione quelle contenute nelle banche dati di polizia o degli uffici giudiziari, o consentendone l’uso da parte della Guardia di finanza, ma con le garanzie speciali previste, per questa particolare categoria di dati, dal relativo plesso normativo applicabile (d.lgs. n. 51 del 2018 di recepimento della cd. “direttiva” polizia). Semplificando, i dati giudiziari per l’analisi tramite machine learning e intelligenza artificiale potranno essere utilizzati nel rispetto delle garanzie rafforzate previste a livello europeo.Rispetto alla limitazione dell’esercizio dei diritti degli interessati, fondamentale l’esclusione, dal novero dei diritti suscettibili di limitazione, del diritto di rettifica, nella consapevolezza della sua utilità per la stessa esattezza delle informazioni trattate e, quindi, della corretta rappresentazione del rischio fiscale dell’interessato.Il nodo del web scraping ai fini dell’analisi del rischio fiscaleIndubbiamente il nodo più complesso da sciogliere in relazione alla riforma ha riguardato la possibilità di utilizzo, da parte dell’Agenzia delle entrate, di informazioni “pubblicamente disponibili” ai fini dell’analisi del rischio fiscale.In sede di parere (reso l’11 gennaio 2024) il Garante ha chiesto – e ottenuto – di espungere il riferimento a queste informazioni non meglio individuate, in quanto prive dei necessari requisiti di esattezza – non potendosi quindi ritenere affidabili, né aggiornati e pertanto suscettibili di violare il principio di qualità del dato – e raccolte per fini diversi da quelli per le quali esse vengono rese disponibili[10]. La norma, nella sua generalità, legittimava infatti ipotesi molto diverse tra loro, non tutte compatibili con la disciplina di protezione dati e con lo stesso Ai Act.Se, infatti, l’uso di fonti aperte qualificate (ad esempio la sezione “amministrazione trasparente” di molti siti di pp.aa.) non presenta particolari criticità in quanto riguarda informazioni complessivamente attendibili e previamente vagliate, in particolare da organi pubblici, maggiori perplessità suscita l’uso (che, appunto, la dizione normativa poteva comprendere) di dati “rastrellati” dal web. La norma sembrava, in altri termini, legittimare quel web scraping (il “socialometro”) cui, pure, la c.d. Nadef (Nota di aggiornamento del documento di economia e finanza) del 2022 accennava come possibile tecnica di analisi del rischio fiscale, in particolare per i casi di sotto-fatturazione delle partite Iva.Ciò che va scongiurato è la possibilità di fondare analisi di rischio fiscale propedeutiche a veri e propri accertamenti su dati del tutto inattendibili. Se addestrato su dati anche soltanto parzialmente inesatti, infatti, l’algoritmo restituirà risultati errati in proporzione geometrica, con bias che dalla base informativa si propagano lungo tutto l’arco della decisione algoritmica. Rischierebbe, insomma, di emergere non il sommerso ma il falso, con effetti distorsivi (in proporzione geometrica) sulla corretta rappresentazione della capacità fiscale dei contribuenti.Web scraping, cosa dicono Gdpr e Ai ActNon a caso, il requisito di qualità dei dati è richiesto, oltre che dal GDPR (art. 5, p. 1, lett. d), anche dall’Ai Act, nella consapevolezza dell’importanza di allenare gli algoritmi (soprattutto se utilizzati a fini accertativi) su informazioni attendibili, complete, sufficientemente rappresentative (Cons. 38, 44, artt. 10, 13). L’utilizzo dei dati acquisiti dal web dovrebbe essere reso possibile soltanto dopo una loro adeguata verifica di attendibilità e garantendo l’esercizio dei diritti (alla spiegazione della decisione algoritmica, alla sua contestazione e a ottenere l’intervento umano) sanciti dall’art. 22 GDPR rispetto al processo decisionale automatizzato. Tali previsioni si conformerebbero, oltretutto, ai principi di “legalità algoritmica”: conoscibilità dello strumento informatico utilizzato, comprensibilità del modulo decisorio, non esclusività della decisione automatizzata.Per evitare di incorrere nella violazione del principio di proporzionalità, l’acquisizione dei dati dal web dovrebbe avvenire in maniera mirata, per corroborare con riscontri estrinseci l’anomalia desunta, sulla base di fonti informative qualificate, da uno scostamento significativo tra capacità patrimoniale dichiarata e tenore di vita. I social contengono, oggi, intere biografie: non può pensarsi di rastrellarli integralmente per tutta la popolazione italiana con una sorta di pesca a strascico, ma semmai di acquisire alcuni, selezionati contenuti ove emerga l’esigenza di un riscontro sull’effettivo tenore di vita (o, meglio, sul tenore di vita sommerso che si auspica possa emergere dai social). Tali accorgimenti, lungi dal depotenziare l’efficacia dell’azione di contrasto dell’evasione, potrebbero invece promuoverla, correggendo potenziali errori o distorsioni nel processo decisionale automatizzato. Ma soprattutto, queste cautele potrebbero conferire alle politiche fiscali, anche nella percezione dei cittadini, quella più forte legittimazione che una combinazione equa di tecnologia e “fattore umano” può assicurare all’azione amministrativa, perché si avvalga dell’innovazione senza, tuttavia, indebolire le garanzie individuali.Accertamento fiscale e Ai ActUna disciplina efficace dell’intelligenza artificiale in ambito tributario dovrà trovare un equilibrio adeguato tra le esigenze pubbliche di contrasto ai fenomeni evasivi/elusivi e la tutela dei diritti fondamentali dei contribuenti, inclusi il diritto alla protezione dei dati personali, al contraddittorio e al giusto procedimento.È emerso che non bisogna inevitabilmente compromettere la protezione dei dati personali per combattere l’evasione/elusione fiscale. Al contrario, se l’azione amministrativa opera in combinato con i principi di protezione dei dati personali, risulterà non solo rispettosa dei diritti del contribuente, ma anche più efficace.In questo contesto, l’Ai Act lascia sorprendentemente un vuoto in termini di tutela specifica per i cittadini europei. Infatti, l’Ai Act non proibisce né classifica come “ad alto rischio” l’uso di sistemi di intelligenza artificiale per scopi di giustizia tributaria predittiva o per la determinazione dell’affidabilità fiscale di un individuo, né per la stima del rischio di commissione di illeciti tributari. Analizzando il punto 6 dell’Allegato III del Regolamento, si potrebbe ritenere che l’uso di questi sistemi rientri tra quelli “ad alto rischio”, in quanto assimilabili a “sistemi di i.a. destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell’Unione a sostegno delle autorità di contrasto, come poligrafi e strumenti analoghi”. Tuttavia, il considerando n. 59 dell’Ai Act specifica diversamente che: «I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali, come pure dalle unità di informazione finanziaria che svolgono compiti amministrativi di analisi delle informazioni conformemente al diritto dell’Unione in materia di antiriciclaggio, non dovrebbero essere classificati come sistemi di i.a. ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati».In altre parole, mentre l’uso di sistemi di intelligenza artificiale per attività di cd. law enforcement è accompagnato da importanti tutele, queste non si applicano al settore fiscale, poiché detti sistemi utilizzati in questo contesto non sono considerati “ad alto rischio”. Di conseguenza, nell’ambito fiscale non troveranno applicazione, ad esempio, le garanzie relative all’addestramento, il test e la convalida dei sistemi di intelligenza artificiale per prevenire inesattezze, lacune, errori e bias, evitando così il ripetersi di effetti discriminatori o distorsivi, particolarmente problematici in questo contesto perché capaci di determinare false rappresentazioni della capacità contributiva del cittadino.Ancora, ai sensi dell’Ai Act, non sarà obbligatorio garantire una supervisione umana sul funzionamento dei sistemi di intelligenza artificiale in ambito fiscale, legittimando così l’adozione di decisioni interamente automatiche senza l’intervento di addetti competenti ed esperti dei rischi e dei limiti intrinseci di queste tecnologie. Il Garante conserva pertanto, in un siffatto contesto, un ruolo cruciale di vigilanza, considerando che, a fronte dell’assenza nell’Ai Act di norme specifiche sull’attività fiscale, i trattamenti di dati personali in quest’ambito, svolti con il ricorso all’intelligenza artificiale, sono interamente soggetti alla disciplina di protezione dati (e al conseguente controllo dell’Autorità), con le garanzie che essa prevede, per il singolo e per la correttezza dell’azione amministrativa al tempo stesso.__Note[1] Cfr. sul tema: F. Farri, Digitalizzazione dell’amministrazione finanziaria e diritti del contribuente, in Riv. dir. trib., 2020, n. 5, 115 ss.; G. Pitruzzella, Dati fiscali e diritti fondamentali, in Dir. prat. trib. int., 2022, n. 2, 666; G. Consolo, Sul trattamento dei dati personali nell’ambito delle nuove procedure automatizzate per il contrato all’evasione fiscale, in A. Contrino, E. Marello, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 179 ss.[2] Cfr. G. Palumbo, Fisco e privacy. Il difficile equilibrio tra lotta all’evasione e tutela dei dati personali, Pisa, 2021.[3] Su i.a. e fisco cfr. R. Cordeiro Guerra, L’intelligenza artificiale nel prisma del diritto tributario, in Dir. prat. trib., 2020, n. 3, 921; S. Dorigo, L’intelligenza artificiale e i suoi usi pratici nel diritto tributario: Amministrazione finanziaria e giudici, in R. Cordeiro Guerra, S. Dorigo, Fiscalità dell’economia digitale, Pisa, 2022, 199 ss.; C. Francioso, Intelligenza artificiale nell’istruttoria e nuove esigenze di tutela, in Rass. trib., 2023, n. 1, 47 ss.; F. Paparella, Procedimento tributario, algoritmi e intelligenza artificiale: potenzialità e rischi della rivoluzione digitale, in A. Contrino, E. Marello, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 3 ss.[4] In informatica si usa l’espressione garbage in – garbage out (cioè, letteralmente, “spazzatura dentro, spazzatura fuori”), a sottolineare che se i sistemi di intelligenza artificiale sono allenati con dati non esatti o in generale di scarsa qualità (garbage in) l’algoritmo che li elabora produrrà, a sua volta, risultati errati (garbage out); cfr. G. D’Acquisto, Qualità dei dati e intelligenza artificiale: intelligenza dai dati e intelligenza dei dati, in F. Pizzetti, Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, 285.[5] Parere sul provvedimento del Direttore dell’Agenzia delle entrate recante “Disposizioni di attuazione dell’articolo 11, comma 4, del DL 6 dicembre 2011, n. 201, convertito, con modificazioni, dalla legge 22 dicembre 2011, n. 214, e successive modificazioni. Analisi del rischio di evasione. Estensione all’anno 2014-2015 della sperimentazione della procedura di selezione basata sull’utilizzo delle informazioni comunicate all’Archivio dei rapporti finanziari” – 14 marzo 2019, n. 58 del 14 marzo 2019, doc. web n. 9106329.[6] Sulla profilazione in ambito tributario, cfr. M. Pontillo, Algoritmi fiscali tra efficienza e discriminazione, in Riv. trim. dir. trib., 2023, n. 3, 649 ss.; D. Conte, Digitalizzazione, Data protection e tecniche di profilazione nell’attività di accertamento tributario: quali diritti per i contribuenti?, in La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, cit., 133 ss.[7] Parere sullo schema di decreto attuativo dell’art. 1, comma 683, della legge 27 dicembre 2019, n. 160, n. 453 del 22 dicembre 2021, doc. web n. 9738520.[8] Cfr. parere reso dal Garante sulla valutazione di impatto sulla protezione dei dati relativa al trattamento posto in essere nell’ambito dell’analisi dei rischi e dei fenomeni evasivi/elusivi tramite l’utilizzo dei dati contenuti nell’Archivio dei rapporti finanziari e l’incrocio degli stessi con le altre banche dati di cui dispone l’agenzia (cfr. provvedimento n. 276 del 30 luglio 2022 – doc. web n. 9808839).[9] Sulla riforma fiscale del 2024, cfr. M.G. Ortoleva, L’intelligenza artificiale nell’analisi del rischio fiscale tra auspicata efficienza e tutela dei diritti dei contribuenti, in Dir. prat. trib. inter., 2024, n. 4, 1136 ss.[10] Cfr. Parere del Garante su uno schema di decreto legislativo recante disposizioni in materia di accertamento tributario e di concordato preventivo biennale doc. web n. 9978230: “alcune disposizioni andrebbero modificate per assicurare maggiore garanzie nei trattamenti di dati personali previsti ed altre potrebbero essere ulteriormente perfezionate, segnatamente al fine di fugare possibili dubbi interpretativi. In tale prospettiva, sotto il primo profilo, all’articolo 2, comma 3, andrebbero espunte le informazioni “pubblicamente disponibili” dal novero di quelle suscettibili di utilizzo, da parte dell’Agenzia delle entrate, mediante interconnessione con altre, in quanto prive dei necessari requisiti di affidabilità e raccolte per finalità diverse da quelle sottese al trattamento considerato”. Tra le altre condizioni, si è richiesto di “1) sopprimere, al comma 3 dell’articolo 2, le seguenti parole: “ovvero pubblicamente disponibili””. In effetti, nell’art. 2 del d.lgs. n. 13/2024 risulta ancora il riferimento ai dati personali “pubblicamente disponibili”, ma soltanto nel comma 1 concernente le definizioni; nel comma 3 tale riferimento non c’è. Essendo un riferimento contenuto soltanto nelle definizioni, ma poi espunto al comma 3, sembra privo di risvolti applicativi.

Commenti

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000