IA, diritto e (neuro-)diritti

di Melania D’Angelosante

Scenari distopici?

Si dibatte oggi sulla necessità o superfluità dei c.d. ‘neurodiritti’, per scongiurare/contenere i pericoli cui alcune applicazioni dell’IA potrebbero esporre i diritti fondamentali.

L’incremento della funzionalità delle tecnologie rispetto alle attività umane fa emergere anche questioni di tecno-etica, fondate sulla ricerca di limiti allo sviluppo tecnologico, prefigurando gli opposti scenari della assimilazione verso l’alto delle macchine all’uomo, e verso il basso dell’uomo alle macchine.

Si discute in particolare dell’incidenza delle ‘macchine’ sulle facoltà cognitive e di giudizio di chi le usa: l’IA è a es. caratterizzata dall’attitudine del software a ‘imparare’ dall’esperienza, così da indagare e ricostruire, attraverso attività di tracking (tracciamento), le preferenze dell’utente (o consumatore/elettore), la cui profilazione consente di orientarne le scelte future (social engineering), ma anche di condurle sempre nello stesso perimetro (effetto cluster).

Si pone inoltre la questione del trattamento del dato personale inconscio, ‘carpito’ dal sistema in difetto di contezza del titolare dell’informazione sulla sua ‘cattura’, sul suo uso e sulle conseguenze dell’uso.

I più recenti sviluppi degli studi sull’applicazione delle tecnologie in ambito giuridico riguardano le ricerche di neurolaw, che si interrogano sui limiti di tale utilizzo, sull’impiego delle neuroscienze e delle tecnologie mediche, a esempio in ambito giudiziario: si pensi al rapporto fra una patologia rivelata dalle neuroimmagini e l’indagine sulla responsabilità.

Emerge il tema delle conseguenze giuridiche dell’eventuale idoneità dell’IA a cogliere stati mentali inespressi, a carpire il modo in cui le informazioni sono acquisite dal cervello e la volontà si produce (brain-reading), a manipolare questo processo.

Le neurotecnologie utilizzabili a tal fine sono quelle di neuroimaging (per la rappresentazione dell’attività cerebrale), le interfacce uomo-macchina (che consentono di comunicare impulsi alle macchine, a es. tramite l’attività elettrica rilevabile dal cuoio capelluto), le interfacce cervello-macchina (che rilevano segnali cerebrali facendoli comunicare con dispositivi esterni).

In ambito medico i trattamenti incidenti sull’attività cerebrale sono soggetti a controllo, e ammessi solo per esigenze cliniche.

Invece le tecnologie per il wellness sono di regola direttamente fruibili dal consumatore: si pensi a quelle in grado di trasmettere impulsi che possono favorire la concentrazione o il rilassamento.

Abbiamo bisogno dei neuro-diritti?

I neuro-diritti risponderebbero alla necessità di garantire alle persone l’integrità della sfera dell’auto-determinazione (mental-integrity) e la libertà d’informazione e giudizio soprattutto a fronte delle insidie dell’IA.

Questione preliminare è la preservazione dell’identità personale, il cui nucleo essenziale si ritiene costituito dalla mente come spazio inaccessibile. Su questo assunto si giustifica a es. l’impossibilità di usare, nel processo penale, mezzi di prova fondati su tecnologie quali i lie-detector (macchine della verità), per evitare di violare la libertà morale, essenziale alla garanzia della dignità umana.

Ma le nuove tecnologie hanno anche contribuito alla parcellizzazione e dinamizzazione del concetto di identità: all’identità personale si potrebbero oggi aggiungere le mutevoli identità narrativa (definita dai percorsi tracciati coi motori di ricerca), transattiva (derivante dalla profilazione) e predittiva. All’ultima si correlerebbe la necessità di tutelare la mental-privacy, ossia il diritto a scongiurare che le informazioni personali inespresse siano carpite attraverso ‘letture’ dello stato mentale, e quindi trattate in senso predittivo.

La tesi della superfluità dei neuro-diritti si fonda sulla necessità di evitare che una inflazione delle garanzie mini il grado di protezione esistente.

Il panorama delle tutele già presenti o adattabili alle nuove esigenze è vastissimo. Si pensi, per l’ordinamento italiano, agli artt. 2 e 21 Cost., 188 ss. e 64 c. 2 c.p.p., alle norme sull’invalidità contrattuale, sulla tutela dei consumatori. Per l’ambito sovranazionale si possono citare gli artt. 8-9 Cedu, gli artt. 1, 3, 7-8 e 11 CdfUe, l’art. 16 Tfue, il GDPR, il Regolamento Ue sul mercato unico dei servizi digitali (2022/2065).

Nell’aprile 2021 la Commissione Ue ha inoltre pubblicato la ormai nota proposta di Regolamento sull’IA (COM/2021/206), emendata sino a dicembre 2023.

Già nel Libro bianco sull’IA (2020) la Commissione aveva evidenziato l’inadeguatezza dei processi decisionali algoritmici, operando i meccanismi di apprendimento automatico (di machine learning o deep learning), su cui tali sistemi si fondano, troppo velocemente e in base a enormi quantità di dati. Essi producono decisioni opache (black box), poiché mutanti nel tempo tramite l’acquisizione incrementale di informazioni non conoscibili ex ante.

Peraltro, i big data non riescono a incrementare le conoscenze acquisite, ma solo ad agevolarne la diffusione.

L’attivismo normativo dell’Ue induce a ritenere che essa condivida la tesi favorevole alla necessità di tutele ulteriori.

Fra gli Stati Ue, la Spagna ha adottato, nel 2021, una Carta dei diritti digitali, includenti i neuro-diritti: ma vi si precisa che essa non intende introdurre nuovi diritti, essendo solo orientata a rendere più visibili quelli esistenti (come i diritti digitali di cui alla legge 3/2018). Nell’agosto 2023 ha inoltre istituito l’Agenzia per la Supervisione dell’IA.

Fra i Paesi extra-Ue, nel 2020 il Cile ha proposto una riforma costituzionale per inserire l’integrità mentale fra i diritti umani fondamentali. La Costituzione vigente risale al 1980 e ha subìto diverse modifiche sino al 2015. A dicembre 2023 si è svolto con esito negativo il referendum per l’approvazione di una nuova Costituzione. Il progetto di riforma del 2020 si riferisce ancora alla Costituzione del 1980. È stata altresì proposta una legge sulla protezione dei neuro-diritti tramite l’etica medica applicata alle neurotecnologie. Anche sull’onda di questi sviluppi, nell’agosto 2023 la Corte costituzionale cilena ha affermato che – secondo l’art. 19 Cost., il quale tutela l’integrità psico-fisica della persona e la riservatezza dei suoi dati – i devices idonei a tracciare l’attività cerebrale umana per uso privato devono essere autorizzati dalle autorità sanitarie, e l’impiego dei dati da essi raccolti è subordinato al consenso informato dinamico dell’interessato: un assenso non solo consapevole, ma da rinnovare laddove i fini di uso dei dati mutino rispetto a quelli per cui il consenso era stato già espresso (sentenza 105.065-2023).

Alfabetizzare i decisori pubblici e usare il diritto in senso progettuale

La scelta delle possibili soluzioni riflette opzioni valoriali.

Al di là di tali opzioni, una più intensa alfabetizzazione tecnologica dei decisori pubblici è essenziale per assicurare un rapporto sano fra l’evoluzione delle tecnologie e la necessità di approntare un adeguato livello di tutela ai diritti delle persone. La circostanza che la proposta di Regolamento sull’IA preveda di affiancare all’Ufficio per l’IA, appena istituito dalla Commissione con decisione del 24.1.2024, un Gruppo scientifico di esperti indipendenti, sembra muoversi in tale direzione.

Anche questa resterebbe però azione inadeguata senza un ripensamento del ruolo dei decisori pubblici. Il diritto dovrebbe essere impiegato più miratamente nella fase della progettazione delle tecnologie, per minimizzarne o scongiurarne i rischi applicativi, esaltandone i vantaggi.

Secondo Claudio Palomba la normazione potrebbe «incidere sulle modalità di utilizzo delle nuove tecnologie, non sul loro sviluppo».

Ritengo invece che il limite individuato andrebbe inteso non come insuperabile, bensì come un confine da provare a valicare.

La proposta di Regolamento sembra considerare pure questa esigenza, riferendosi ad alcune misure a sostegno dell’innovazione, includenti spazi di sperimentazione normativa per l’IA, funzionali allo svolgimento di test ex ante sullo sviluppo di sistemi di IA in condizioni reali, valutandone le ricadute tecnico-scientifiche e giuridiche.

Resterebbero alcuni ostacoli, uno materiale, l’altro ideologico.

Quello materiale riguarda la propensione delle tecnologie a svilupparsi più velocemente del diritto. L’ostacolo potrebbe essere governato, non necessariamente evitato, dall’uso anche ‘progettuale’ del diritto, appunto. La diversa velocità di sviluppo non dovrebbe invece interessare il raffronto fra evoluzione antropica e tecnologica: fintanto che il funzionamento della mente umana resterà parzialmente sconosciuto alla scienza, è improbabile che si riescano a clonare il cervello e l’identità delle persone.

L’ostacolo ideologico riguarda il rapporto fra regolazione e suoi possibili effetti di contenimento sullo sviluppo scientifico/tecnologico: può questa eventualità rallentare il passo del diritto e limitarne il ruolo? La libertà della scienza va assicurata accompagnandone l’evoluzione anche attraverso un uso progettuale del diritto, per evitare che essa scivoli in derive tali da rendere le persone suoi strumenti, piuttosto che suoi utenti. Ovvio, ma a rischio di essere dimenticato.

Fonti

A.C. AMATO MANGIAMELI, Tecno-diritto e tecno-regolazione. Spunti di riflessione, Riv. fil. dir., 2017

BENANTI, La dignità della persona al centro dello sviluppo gentile, AA.VV., Privacy e neurodiritti. La persona al tempo delle neuroscienze, www.garanteprivacy.it, 2021

BOLOGNINI, Mordi la mela? Privacy come diritto del Sè nell’era dell’Intelligenza Artificiale e dell’Augmented Reality, Psiche, 2/2019

CIRILLO, Ambiguità della “libertà cognitiva” e prospettive di tutela, Consulta on line, 2/2023

GULOTTA – M. CAPONI BELTRAMO, Neurodiritti: tra tutela e responsabilità, Sistema penale, 2021

IENCA, Neurodiritti: storia di un concetto e scenari futuri, AA.VV., Privacy, op. cit.

A.A. MOLLO, La vulnerabilità tecnologica. Neurorights ed esigenze di tutela: profili etici e giuridici, EJPLT, 1/2021

MORELLI, Dati neurali, prima sentenza al mondo sulla loro tutela, https://www.altalex.com/documents/news/2023/09/18/dati-neurali-prima-sentenza-al-mondo-sulla-loro-tutela#

PALOMBA, Le prospettive della digital transformation tra Politica, Amministrazione e Algoritmi, J.B. AUBY – G. DE MINICO – G. ORSONI, L’Amministrazione digitale – Quotidiana efficienza e intelligenza delle scelte, Napoli, 2023

POLLICINO, Di cosa parliamo quando parliamo di costituzionalismo digitale?, Quad. cost., 3/2023

POLLICINO, Costituzionalismo, privacy e neurodiritti, Media Laws, 2021

SIMONCINI, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle li-bertà, BioLaw J., 1/2019

STANZIONE, Neurodiritti, I confini della scienza, Corriere della Sera, 27.1.2021