L’inquietante disegno del nostro futuro

La relazione di Antonello Soro, Garante Privacy, alla Giornata europea della protezione dei dati personali

ROMA – “Dio è il primo tecnico. La tecnica è l’ultimo dio”. Così Emanuele Severino descrive “la tendenza fondamentale del nostro tempo”, ovvero l’abbandono, da parte della tecnica, del suo carattere strumentale, per assurgere a fine in sé, esponendo l’uomo al rischio di divenire, paradossalmente, egli stesso strumento della tecnica anziché suo signore…..

Il 27 dicembre 1982 la rivista “Time” dedicava al computer – per la sua “grande influenza nella nostra vita quotidiana” – la propria copertina, assegnando per la prima volta la qualifica di soggetto dell’anno a una “macchina” anziché a una persona.

La pubblicazione – che sembrò quasi suggerire la fine della centralità culturale e sociale dell’uomo – precedeva di poco più di un anno quel 1984 in cui George Orwell prefigurava, già settant’anni fa, la riduzione dell’uomo a codice e l’affermazione della sorveglianza totale quale tecnica di governo della complessità sociale.

Non si trattava, del resto, di una preoccupazione isolata se pochi anni dopo Erich Fromm avrebbe osservato come “la civiltà sta producendo macchine che si comportano come uomini e uomini che si comportano come macchine. Il pericolo del passato era che gli uomini diventassero schiavi. Il pericolo del futuro è che gli uomini diventino robot”……

Se, dunque, il mero calcolatore suggeriva l’idea di un potere smisurato della tecnica e del costo umano del progresso, la rivoluzione – cognitiva, simbolica, antropologica – determinata da internet (of things, of toys, of beings) e dall’intelligenza artificiale, dovrebbe oggi indurci ad un supplemento di riflessione.
Essenzialmente perché il digitale è divenuto la trama stessa delle nostre vite, agente potentissimo di trasformazione sociale, struttura e sovrastruttura insieme, testo e contesto: la cornice entro cui si svolge ogni espressione dell’uomo, che condiziona secondo i soli parametri della funzionalità e dell’efficienza.

Con internet, la tecnologia da strumento si è fatta dimensione, ecosistema in cui siamo così profondamente immersi da non renderci conto, fino in fondo, delle sue implicazioni. Che si estendono dal lavoro (con inquietanti interrogativi sulle prospettive di occupazione) alla salute e alla ricerca scientifica ma anche alla giustizia, che finisce con il divenire “predittiva”, affidando agli algoritmi persino quelle decisioni dirimenti sull’uomo -colpevolezza, libertà, punibilità-che sembravano l’ultimo baluardo della sovranità e, quindi, della razionalità umana.

L’impatto sull’esistenza individuale e collettiva non è, del resto, meno rilevante. La genomica infrange il dogma dell’immutabilità del testo del nostro futuro, così come scritto nei cromosomi. Con le tecnologie indossabili la persona è modificata nella sua stessa fisicità: incorpora la tecnica e, quindi, la predisposizione al controllo.

Il corpo diviene una password che rende accessibile a chiunque la nostra identità più remota;  la fisicità è ridotta a superficie di scrittura di un’identità indifesa. Del resto, affidare a un algoritmo impronte digitali, reticolo venoso, iridi, può sottrarci quanto di più intimo custodiamo come riferimento ultimo del nostro essere……

E finiremo con l’essere sconosciuti a noi stessi ma trasparenti a chiunque sia capace di estrarre frammenti di noi dalla galassia delle nostre tracce on-line. E’ quello che Derrick de Kerckhove chiama inconscio digitale: ciò che ancora non sappiamo di noi ma che la rete sa, per effetto del pedinamento dello sciame informativo prodotto dal nostro comportamento on-line. Nel 2016 abbiamo generato tanti dati quanti ne ha prodotti l’intera storia dell’umanità sino al 2015. Tra dieci anni questa quantità raddoppierà ogni 12 ore….

Scienziati e ingegneri in tutto il mondo puntano al prossimo salto nella capacità di elaborazione, ai cosiddetti supercomputer alla esascala, con capacità di calcolo fino a mille volte quelle dei migliori supercomputer attuali: macchine in grado di risolvere problemi che oggi non è possibile affrontare in campi diversi come la climatologia, le energie rinnovabili, la genomica, la geofisica.

L’intelligenza artificiale, dal canto suo, diviene sempre più capace di auto-apprendimento e, quindi, di autonomia. E viene usata sempre più spesso a fini di difesa, con il ricorso a dispositivi  la cui intrinseca predisposizione al dual use fa sfumare il confine tra civile e militare. Il passaggio dalla “guerra ibrida all’iperguerra informatica” si annuncia come tutt’altro che irrilevante.

E’ significativo che personalità come Elon Musk, Bill Gates o Stephen Hawking manifestino forti preoccupazioni sui rischi legati agli sviluppi dell’intelligenza artificiale.

Per altro verso, è convincimento diffuso tra gli esperti che nei prossimi dieci o al massimo vent’anni, circa la metà dei lavori attuali saranno realizzati da macchine dotate di intelligenza artificiale. E non solo lavori manuali, ma soprattutto lavori che comportano lo sviluppo di processi intelligenti. Molti osservatori prevedono una grande crisi occupazionale, non delle tute blu ma dei colletti bianchi, e non è infondato il rischio di una stagione di grandi tensioni sociali a livello globale.

Pur non accedendo alla teoria del pendio scivoloso e dunque al netto di ogni visione apocalittica, ciò che è certo è che stiamo vivendo la più radicale trasformazione sociale, economica, antropologica, persino politica, dalla fine della seconda guerra mondiale.

L’assunzione di lavoratori, la determinazione dell’affidabilità per un prestito, la valutazione della capacità di un insegnante, persino il rating di legalità ai fini dell’aggiudicazione degli appalti sono sempre meno il frutto di una scelta umana e sempre più l’esito di selezioni algoritmiche, alle quali deleghiamo, quasi fideisticamente, il compito di decidere aspetti determinanti della vita delle persone…..

Ogni cosa, dunque, sarà “smart”: non solo i telefoni ma anche le nostre auto, le nostre case, le nostre città; l’internet degli oggetti e l’analisi dei big data convergeranno con l’intelligenza artificiale e i sistemi biometrici: in definitiva vivremo in un pianeta “intelligente”.

Tutto ciò favorirà certamente, per un verso, un netto miglioramento della qualità della vita, liberandoci – come già oggi è evidente- del peso di molte incombenze quotidiane e dischiudendo possibilità prima precluse. Ma il processo di connessione di tutte le cose deve essere governato con lungimiranza, per minimizzare i rischi cui già oggi questi fenomeni ci espongono…..

La normativa di protezione dati, sotto questo profilo, rappresenta un fondamentale presidio di garanzia, tanto in termini di diritti esercitabili dall’utente quanto in termini di complessiva responsabilizzazione dei titolari, a vario titolo coinvolti, nella sempre più articolata filiera in cui si snodano questi trattamenti……

Numerose applicazioni hanno dimostrato che gli algoritmi non sono matematica pura – infallibile e neutra – ma piuttosto opinioni umane strutturate in forma matematica e riflettono quindi spesso, in misura più o meno rilevante, le precomprensioni di chi li progetta o le serie storiche assunte a riferimento. Con il rischio, dunque, non soltanto di cristallizzare il futuro nel passato, leggendo sempre il primo con gli schemi del secondo, ma anche di assumere le correlazioni (quasi sempre contingenti) delle serie storiche considerate, come relazioni necessariamente causali….

Il risultato che si trae dall’impiego di tecnologie che dovrebbero assicurare la massima terzietà rischia dunque di essere, paradossalmente, più razzista, lombrosiano o anche solo antistorico di quanto possa essere la pur fallibile razionalità dell’uomo.

Eppure la giustizia predittiva continua a esercitare un fascino particolare, assecondando l’antica idea di un diritto talmente positivo da essere capace di autoapplicazione senza l’intermediazione umana, legittimato non dalla sovranità ma dalla sua stessa, sola, infallibilità.

E’ lecito chiedersi se questa giustizia, paradossalmente così performativa, sarà ancora umana  e se, quando ad emettere le sentenze sarà un algoritmo anziché un uomo, saranno garantite davvero la giustizia e l’equità.
La discriminazione algoritmica rischia pertanto, se non sapientemente governata, di approfondire le iniquità alle quali vorrebbe ovviare, senza che ne siamo neppure consapevoli perché la precomprensione coperta da veste statistica non ci appare più tale e perché le modalità di decisione algoritmica non sono sindacabili perché neppure conoscibili……

Traendo informazioni dal nostro comportamento passato, l’algoritmo rafforza e conferma le nostre opinioni, indebolendo quell’etica del dubbio che è il presupposto necessario del rispetto della differenza e di ogni altra attitudine democratica. Come schiavi digitali, siamo così prigionieri di una bolla di filtri autoreferenziale, capace di renderci sempre più intolleranti verso le differenze e di negare il pluralismo informativo e le stesse straordinarie opportunità di arricchimento cognitivo che pur la rete potrebbe offrire.

Sul piano politico, la possibilità offerta dagli algoritmi di “informatica persuasiva” di personalizzare i contenuti proposti agli utenti per renderli maggiormente appetibili e appunto persuasivi, ha sancito l’affermazione del “big nudging”. Ovvero dell’uso dei big data e di metodi profilativi per esercitare quel tipo di intervento pubblico di stampo paternalistico, fondato appunto sul “nudge” (pungolo), che consente di “guidare” la condotta dei cittadini persuadendoli all’adozione di comportamenti socialmente desiderabili.

Come dimostrano questi sommari esempi, dunque, il tema della neutralità dell’algoritmo, dell’equità delle sue soluzioni e, più in generale, della sostenibilità etica e giuridica della tecnologia diviene, oggi, una questione democratica cruciale.

Per scongiurare – o quantomeno minimizzare- i rischi connessi al digitale, valorizzando peraltro le sue straordinarie opportunità, è necessaria un’assunzione di responsabilità da parte di ciascun soggetto coinvolto nel governo della tecnologia, che per restare “umano” deve incentrarsi su irrinunciabili principi etici e giuridici……
Vi è in gioco, del resto, anche una sfida culturale: non cedere all’idea che la nostra persona sia definita dal punteggio attribuitogli da un sistema di classificazione e valutazione  computerizzata, irresponsabile e dal funzionamento opaco.

Di qui l’importanza delle norme del Regolamento generale sulla protezione dei dati sulla contestabilità e la trasparenza del processo decisionale automatizzato, dei suoi criteri e delle sue conseguenze, esigendo la possibilità di un intervento umano, contrastando la delega assoluta al cieco e neppure neutro determinismo dell’algoritmo……

La salvaguardia dell’autodeterminazione informativa, dell’autonomia e della responsabilità delle scelte – articolata non soltanto nei vari istituti del consenso informato, ma anche nella valutazione di impatto privacy, della minimizzazione del trattamento, della protezione sin dalla progettazione e per impostazione predefinita – è in questo senso presidio essenziale per mantenere il governo sulle nostre tracce digitali, che più di ogni altro aspetto concorrono oggi a definire la nostra identità e, con essa, la nostra libertà.

Tutto questo diverrà ancor più importante con l’avvento dell’internet of beings e, dunque, l’incorporazione delle nuove tecnologie all’interno della nostra stessa fisicità, che determineranno mutamenti radicali nell’antropologia, nel rapporto tra natura e cultura, biologia e biografia, perdendo la prima la funzione di limite della seconda.
In tale contesto, noi pensiamo che nella dignità e non nella materialità del dato biologico vada ricercato il limite oltre cui la tecnica non può e non deve spingersi.

E in un mondo iperconnesso e in un’economia fondata sui dati e alimentata dall’intelligenza artificiale, presupposto per la dignità e quindi anche per la libertà dell’uomo è la protezione di ciò che, come i suoi dati personali, lo caratterizza più emblematicamente.

E se il diritto in generale svolge oggi, sempre più, una funzione di umanizzazione della tecnica- soprattutto quando il soggetto di diritti rischia di divenire mero oggetto di calcoli predittivi e tecniche manipolative – il diritto alla protezione dei dati rappresenta una straordinaria risorsa per mantenere la persona, nella sua libertà e nella sua responsabilità, al centro della società digitale.

Potrebbero interessarti anche