Videosorveglianza e biometria
L’uso della biometria nella videosorveglianza
Contact tracing, termoscanning, biometria e privacy sono diventati termini comunemente utilizzati, nella comunicazione mediatica come nel linguaggio quotidiano, da quando, purtroppo, il mondo è entrato in quel periodo storico che verrà tristemente ricordato come pandemia da COVID-19
Il tracciamento dei contatti, la rilevazione della temperatura corporea, l’uso di software in grado di eseguire l’identificazione biometrica e la connessa tutela della riservatezza dei dati personali hanno ovviamente interessato non solo le autorità che dovevano provvedere a fronteggiare l’emergenza ma anche i giuristi che dovevano confrontarsi con i problemi che l’uso di tali tecnologie comportava, soprattutto con riferimento alle libertà e ai diritti dei cittadini che, loro malgrado, devono essere sottoposti a controllo per finalità di tutela della salute, individuale e collettiva
Complice l’accelerazione data dal Covid all’uso degli strumenti digitali di sorveglianza e controllo, e la loro diffusione anche in ambienti fino ad ora mai coinvolti in tali problematiche, le argomentazioni si sono ovviamente spostate, in breve tempo, anche sulla possibilità di continuare ad utilizzare tali sistemi di rilevamento al termine dell’emergenza, per finalità di prevenzione e repressione dei reati, attraverso l’identificazione di soggetti già resisi responsabili di gravi crimini e ricercati dalle forze dell’ordine, ovvero di criminali noti a livello internazionale per atti di terrorismo ed altri crimini contro l’umanità
Il passo verso un uso ancor più generale è stato compiuto da alcune aziende che, con l’intento di evitare contatti tra i dipendenti che potessero favorire la diffusione del virus, hanno avanzato l’ipotesi di utilizzare i sistemi di controllo e di identificazione come alternativa ai classici badge o cartellini per la registrazione delle presenze, mutuando il procedimento attraverso il quale, negli smartphone, è possibile utilizzare l’impronta biometrica del viso o delle dita degli utenti come meccanismo di sblocco del dispositivo.
Ovviamente, le perplessità sulla creazione di piccoli o grandi database contenenti le impronte biometriche dei cittadini, in realtà nelle quali l’uso di tali tecnologie avrebbe potuto facilmente trascendere nel controllo a distanza dei dipendenti o nell’analisi comportamentale dei cittadini, con lo spettro della giustizia predittiva dietro l’angolo, ha provocato l’immediato intervento dell’Autorità Garante per la tutela dei dati personali e, dopo qualche tempo, anche del legislatore, che ha ritenuto necessario intervenire per posticipare la discussione su tale argomento ad un periodo storico meno delicato dal punto di vista della percezione del problema rispetto al timore diffuso di una recrudescenza della pandemia.
Già provati dalla legislazione dell’emergenza, infatti, i cittadini sono ormai propensi ad accettare passivamente ogni soluzione che possa portare serenità nella vita quotidiana ma che, come in questo caso, senza un’accurata e ponderata riflessione sulle conseguenze che potrebbe avere dal punto di vista della tutela delle libertà costituzionali e della degenerazione dei poteri, è decisamente da evitare.
Peraltro, come giustamente osservato da alcuni specialisti del settore, la disciplina della tutela dei dati personali, introdotta dal Reg. UE 679/2016, sulla quale l’Autorità Garante è intervenuta tempestivamente con riferimento all’uso della biometria per l’identificazione dei cittadini tramite sistemi di videosorveglianza, non si applica alle materie della sicurezza nazionale e della prevenzione e repressione dei reati, che sono invece soggette alla Direttiva UE 680/2016. Era quindi necessario un intervento normativo per evitare che la mancanza di una legge sull’argomento potesse dar luogo a fantasiose e pericolose interpretazioni ed applicazioni concrete.
Con la legge n. 205 del 3.12.2021, di conversione del decreto legge 8.10.2021, n. 138 (c.d. decreto capienze), sono stati introdotti nell’ordinamento italiano quattro articoli specificamente dedicati all’uso congiunto della videosorveglianza e dei sistemi di identificazione biometrica, sospendendo tutti i trattamenti eventualmente eseguiti nei luoghi pubblici o aperti al pubblico, da parte delle autorità pubbliche e dai soggetti privati, e vietando l’installazione e l’attivazione di tali sistemi fino al 31 dicembre 2023 ovvero fino all’entrata in vigore della disciplina di settore, se antecedente.
Probabilmente al fine di non rischiare di indurre in errore le autorità preposte ai controlli e all’irrogazione delle sanzioni, il legislatore ha ritenuto opportuno specificare che la sospensione non si applica agli impianti di videosorveglianza che non usano i sistemi di riconoscimento biometrico (ridondante ma efficace).
Un’eccezione è invece prevista per le attività dell’Autorità Giudiziaria inquirente e giudicante, oltre che per i trattamenti operati dalle autorità competenti a fini di prevenzione e repressione dei reati, con la condizione, per queste ultime, che sia stato preventivamente acquisito il parere favorevole dell’Autorità Garante per la protezione dei dati personali di cui all’art. 24 del D.Lgs. n. 51 del 18 maggio 2018
Del resto, il Parlamento Europeo si è già espresso chiaramente, nel mese di ottobre 2021, sollecitando la Commissione ad istituire un divieto permanente sulla videosorveglianza biometrica in pubblico e sull’uso di banche dati private, evidenziando l’elevato rischio di addivenire ad una sorveglianza di massa indiscriminata negli spazi pubblici
L’aspetto interessante della risoluzione del Parlamento Europeo è la richiesta di introdurre contestualmente anche il divieto di utilizzare sistemi di sorveglianza predittiva basati su modelli comportamentali e su connessi sistemi di punteggio sociale, che limiterebbero l’esercizio dei diritti e delle libertà dei cittadini non in base ad atti concreti (come la violazione del codice della strada, nel caso della patente a punti) ma esclusivamente sulla base di previsioni realizzate dall’intelligenza artificiale.
In effetti, nell’ultimo anno (2021), le notizie sull’uso della biometria in ambito internazionale sono poco confortanti. Dopo l’ipotesi formulata dal governo cinese, di una cittadinanza a punti basata sul riconoscimento biometrico dei cittadini resisi responsabili di comportamenti illeciti, è giunta ai media la notizia dell’attivazione di un sistema di sorveglianza analogo da parte della Corea del Sud, sebbene con la dichiarata intenzione di individuare le persone contagiate dal coronavirus e ricostruirne i movimenti al fine di tracciarne i contatti a rischio. Nella città di Bucheon sono state installate, a tal fine, oltre 10.000 telecamere dedicate alla registrazione e al tracciamento dei tratti biometrici del viso dei cittadini, con la conseguente costituzione di un immenso database, utilizzabile, ovviamente, anche per l’analisi comportamentale.
L’esperienza segue quelle già portate avanti da Cina, India, Russia, Giappone ed alcuni stati degli USA, sempre con la dichiarata finalità di fronteggiare il virus ma senza concrete tutele nei confronti di altre forme di utilizzo da parte delle Autorità Governative e, in particolare, dei servizi segreti, con ogni prevedibile conseguenza per oppositori politici, attivisti delle libertà civili, gruppi etnici, minoranze, ecc..
Alle notizie già commentate si è aggiunta quella del sistema di controllo canadese denominato ClearView AI, che ulteriormente giustifica le perplessità e i timori dei parlamentari europei.
L’azienda produttrice del software appena menzionato, infatti, ha dichiarato candidamente di aver raccolto oltre tre miliardi di fotografie “disponibili su Internet” (ed in particolare in alcuni social network, scatenando la reazione delle rispettive aziende) per addestrare al riconoscimento facciale il proprio algoritmo di intelligenza artificiale, e di essere in grado di erogare servizi di identificazione real-time a realtà pubbliche e private.
Lo spettro della sorveglianza di massa “as a service” è quindi più che concreto, almeno dal punto di vista tecnico, e perfino l’indagine giornalistica realizzata da una nota testata internazionale non ha sortito l’effetto di poter comprendere il funzionamento dell’applicazione, poiché le foto usate come test e rinvenute nel database non sono tutte quelle disponibili su Internet e l’azienda non ha saputo o voluto spiegare per quale ragione alcune sono state prelevate ed altre, benché ugualmente reperibili ed utilizzabili, sono state invece scartate.
Oltre a palesarsi dubbi sull’infallibilità del software, sulla base di un semplice calcolo probabilistico applicato alla possibilità di commettere un errore di progettazione o di stesura di un codice così complesso, appare concreto il rischio di discriminazione insito nella identificazione biometrica e nell’interpretazione di taluni comportamenti umani come precursori di determinate attività, che potrebbero essere influenzati dalle istruzioni fornite al sistema dai soggetti responsabili del suo addestramento, inconsciamente (per effetto dell’insieme di parametri e criteri di valutazione sviluppati per motivi culturali, sociali, psicologici, ecc.) o per una reale propensione a porre in essere condotte discriminatorie nei confronti di un determinato gruppo sociale, etnico o religioso.
Se ne può dedurre che l’approccio europeo al problema non è da considerare deludente né tardivo, soprattutto in un periodo storico come l’attuale, in cui il corretto trattamento dei dati personali non è un’esigenza primaria ed anche considerando che il modello cinese – con moneta elettronica, cittadinanza a punti e vita legata indissolubilmente al sistema digitale nazionale – non è affatto irrealizzabile, almeno dal punto di vista tecnologico, come forse sarebbe invece auspicabile.
Al rischio che un malfunzionamento del sistema proietti una persona qualsiasi, senza alcuna colpa, anche solo temporaneamente, fuori dalla vita sociale e lo renda incapace di procurarsi perfino i beni di prima necessità, si aggiunge quello, ancora più inquietante, di un subdolo inquinamento della democrazia basato sull’indifferenza del cittadino alla tutela dei propri diritti, determinata dalla crescente abitudine alla sorveglianza, che potrebbe facilmente aprire la strada a derive autoritarie e alla discriminazione delle categorie che la classe dirigente potrebbe ritenere opportuno ridurre in minoranza per ragioni ideologiche o politiche.
Per queste ed altre ragioni, non meno importanti, occorre che la consapevolezza dei rischi connessi all’uso di strumenti digitali sia costantemente diffusa tra gli addetti ai lavori – con l’intento di costruire anche un codice etico cui far riferimento nella progettazione e realizzazione degli apparati e dei sistemi – e tra i cittadini, affinché siano vigili e smaliziati sull’uso che altri potrebbero fare dei loro dati personali.
Gianluca Pomante