Intelligenza artificiale e software predittivi

Getting your Trinity Audio player ready...

Quanto si utilizzano i termini “intelligenza” e “artificiale” assieme, si sta indicando una branca delle tecnologie, e del diritto ad esse applicato, che riguarda la capacità di una macchina di imitare il funzionamento del cervello umano, apprendendo autonomamente nuove nozioni, dalle quali far derivare scelte ed azioni.

Contrariamente a ciò che potrebbe indurre a pensare, l’accostamento delle due parole non è ancora sinonimo di intelligenza intesa come “creatività”, poiché quest’ultima presuppone anche una presa di coscienza della propria esistenza che, al momento, non rientra tra le capacità delle macchine, che agiscono comunque sulla base di programmi (intesi come sequenze di istruzioni) sviluppati dall’uomo e da essi sono limitate ed influenzate nelle scelte.

Ciò che realmente consente di fare, l’intelligenza artificiale, è analizzare enormi quantità di dati in poco tempo e, sulla base di modelli matematici o statistici, selezionare la scelta più idonea a risolvere un problema. La capacità computazionale dei moderni elaboratori rende le macchine anche in grado di integrare le basi di dati sulle quali lavorano con ulteriori elementi, non introdotti dall’uomo ma acquisiti autonomamente, che influenzeranno le successive scelte, andando a modificare gli archivi originali e, conseguentemente, i risultati delle elaborazioni statistiche e delle logiche matematiche.

La crescente applicazione dell’IA (acronimo di Intelligenza Artificiale) ai più comuni aspetti della vita quotidiana e della Pubblica Amministrazione ha spinto il Parlamento Europeo ad interessarsi dei risvolti giuridici e pratici dell’introduzione delle funzioni automatiche delle macchine nei processi decisionali, soprattutto per quanto riguarda le responsabilità connesse e la capacità di ipotizzare (non prevedere, la differenza è sostanziale) cosa accadrà nel futuro.

A partire dai sistemi di assistenza vocale, già disponibili alla massa dei consumatori, fino alle auto a guida autonoma, che sembrano poter diventare una realtà nei prossimi dieci anni, un primo impatto rilevante sui cittadini è quello delle responsabilità connesse all’uso di prodotti basati sull’intelligenza artificiale, poiché, se è vero che l’ultimo venditore risponde comunque dei vizi del prodotto nei confronti del consumatore (almeno in Europa), è altrettanto vero che l’analisi degli elementi che sono alla base di una qualsiasi azione giudiziaria non è attualmente alla portata di qualsiasi cittadino, per i costi che è necessario sostenere per perizie ed accertamenti tecnici e scientifici, e per i non pochi ostacoli posti dai produttori a tutela della loro proprietà intellettuale ed industriale, che sarebbe messa fortemente in pericolo dalla rivelazione di codici e modelli di funzionamento delle apparecchiature che hanno determinato il problema.

Nel settore della sicurezza, l’intelligenza artificiale è utilizzata ormai da anni per la rilevazione delle infrazioni, attraverso l’analisi dei comportamenti degli automobilisti (autovelox, sistemi di controllo della velocità media, rilevazione delle infrazioni al semaforo e nelle zone a traffico limitato, ecc.) ai quali consegue l’emissione del verbale di contestazione dell’infrazione, successivamente verificato da un pubblico ufficiale ma comunque elaborato e portato all’attenzione del suddetto da un sistema completamente automatico.

Di particolare interesse, anche per gli impatti che potrebbero avere sulla vita dei cittadini, gli esperimenti avviati da alcuni settori delle Forze dell’Ordine per la prevenzione dei reati, basati sull’analisi di grandi quantità di dati provenienti dagli archivi delle Procure.

Le modalità di acquisizione ed elaborazione dei dati sono sostanzialmente due. La prima, sviluppata negli USA, utilizza le statistiche sui reati commessi nei singoli quartieri o zone per organizzare i controlli sul territorio. Questa soluzione ha già sollevato, tuttavia, diverse critiche, per l’elevato rischio di pregiudizio dei diritti dei cittadini derivante dai meccanismi che potrebbero innescarsi (e che, in alcuni casi, sono già stati rilevati sul campo), per lo stretto legame tra i controlli ed i reati. È infatti emerso che l’attenzione determinata dal software a particolari zone della città, porta ad un aumento dei controlli e, conseguentemente, ad un aumento delle contestazioni in quelle zone. Tale evidenza rischia però di determinare un effetto a spirale con l’alterazione delle statistiche e, conseguentemente, delle successive disposizioni sui controlli, che finirebbero per schierare le forze di polizia a presidiare militarmente alcuni quartieri a discapito di altri. Emerge anche, dall’analisi dei primi risultati delle varie sperimentazioni, che i software finiscono per concentrarsi su quelle etnie che hanno maggiore probabilità di commettere reati, non per una propensione genetica al crimine ma semplicemente perché nei quartieri disagiati è maggiore la presenza di taluni gruppi etnici e perfino le denunce risentono della maggiore litigiosità di alcuni di essi (gli afroamericani, ad esempio, sembra che si denuncino molto più spesso tra loro, rispetto ad altre realtà o a quanto avviene tra gruppi etnici diversi). Incide, inoltre, sulle statistiche, la maggiore o minore fiducia del cittadino nella giustizia, con la conseguenza che risulterebbero penalizzati quei soggetti che ritengono inutile o troppo oneroso il ricorso alle Forze dell’Ordine e alla Magistratura (cosa che, ad esempio in Italia, è purtroppo evidente per i reati minori e per taluni reati a sfondo sessuale).

Tutti elementi che stanno consigliando di abbandonare lo sviluppo di software predittivi legati ad algoritmi di analisi delle denunce pervenute e dei procedimenti attivati (troppe variabili influenzano negativamente i risultati) per concentrarsi, invece, sulla soluzione italiana, sviluppata da un graduato della Polizia di Stato, Marco Venturi, successivamente dedicatosi all’imprenditoria digitale.

L’intuizione di Venturi, che oggi guida una startup finalizzata allo sviluppo di un software di analisi e prevenzione dei reati (utilizzato – in via sperimentale – nella città di Milano), è stata quella di analizzare i casi già pervenuti all’attenzione delle Forze dell’Ordine e dell’Autorità Giudiziaria, i cui elementi di prova sono stati cristallizzati nei fascicoli processuali, per metterli in relazione e tracciare un profilo criminale del soggetto responsabile delle violazioni, al fine di prevenirne i futuri comportamenti.

Questo approccio, più analitico e meno basato sulle statistiche, consente di mettere in relazione eventi anche diversi e distanti tra loro, sia geograficamente che nel tempo, ricostruendo la sequenza di reati che seguono schemi comuni o hanno molte caratteristiche che coincidono. Salvo rare eccezioni, l’analisi di tali elementi porta ad individuare una sorta di “firma” dei delitti, che permette anche di prevedere futuri comportamenti e fornire elementi utili alle indagini e alla prevenzione di ulteriori crimini.

Inoltre, è un sistema non discriminatorio, nel senso che utilizza anche dati come l’etnia, l’orientamento religioso, la frequentazione di determinati ambienti o territori, non per classificare tali evidenze con connotazione negativa ma esclusivamente per fornire elementi di valutazione dei possibili sviluppi dell’attività criminale.

È infatti evidente che la condotta già accertata di un soggetto di etnia caucasica, abituato ad utilizzare armi bianche ed auto giapponesi per compiere rapine ai danni di uffici postali periferici, non è discriminatoria nei confronti di tutte le persone di etnia caucasica o dei territori periferici che ospitano uffici postali ma consente alle forze dell’ordine di notare se, all’esterno di un ufficio postale di periferia, c’è un’auto giapponese con il motore acceso ed un soggetto di etnia caucasica che si sta avvicinando all’entrata visibilmente travisato.

Come anticipato, il vero problema dell’intelligenza artificiale è dunque la realizzazione degli algoritmi che vengono posti alla base delle decisioni che permettono al sistema di autoalimentarsi, accrescere le proprie competenze ed operare in autonomia dopo una necessaria fase di apprendimento e collaudo. L’impostazione mentale “discriminatoria” del gruppo di progettazione e sviluppo inevitabilmente si ripercuoterà sull’elaborazione dei dati, sul peso dato loro nell’orientare le scelte, sull’etica e l’equilibrio di determinate conclusioni, con un effetto a cascata sempre più incontrollabile ed imprevedibile con l’aumento dei dati disponibili.

È quindi particolarmente importante la fase iniziale di analisi dei risultati che si intendono ottenere e, soprattutto, la chiara indicazione dei limiti che si intendono porre all’azione automatica del sistema informatico.

Da questo punto di vista, l’esperimento della Procura di Shanghai Pudong, che controlla uno dei territori più vasti della Cina, di sostituire l’attività del Pubblico Ministero con un sistema che, analizzando gli elementi messi a sua disposizione dalle Forze dell’Ordine, elabora le imputazioni e dispone misure cautelari, è non poco inquietante, sia per i risvolti di natura etica che per la reale efficacia di tale sistema. Innanzitutto, le scelte del “PM digitale” sono basate su circa 17.000 fascicoli (riferiti al periodo 2015 – 2020) già presenti negli archivi dell’Ufficio Giudiziario e quindi solo parzialmente attendibili, ad esempio, nel settore delle tecnologie informatiche, nel quale cinque anni corrispondono ad un’era geologica. Inoltre, molti si chiedono chi risponderà di eventuali errori commessi dal sistema: il produttore o la Procura? Secondo le dichiarazioni, decisamente di parte, del ricercatore che ha guidato il team di sviluppo, l’efficienza del sistema è già stata testata nelle carceri ed ha restituito una precisione del 97%. Al di là della semplice deduzione che anche 3 soggetti sanzionati ingiustamente rispetto ai 97 che meritavano la punizione non sono un risultato accettabile su grandi numeri (diventano 3000 su 100.000) resta il dubbio sull’efficienza di un algoritmo studiato per controllare soggetti già classificati come criminali da una corte e cittadini che, invece, non hanno precedenti e quindi dovrebbero essere valutati anche sulla base di criteri discrezionali (atteggiamento collaborativo o ostico, dolo o colpa nella perpetrazione del crimine, casualità dell’evento, ragioni di giustificazione, volontà di espiazione, ecc.) che una macchina, ovviamente, non è in grado di gestire (almeno per ora). Infine, la neppure troppo nascosta intenzione orwelliana del leader cinese Xi Jinping, di voler adottare un sistema di classificazione basato su un “credito sociale” del cittadino (una sorta di patente a punti applicata però ad ogni comportamento), lascia intendere che se il “pubblico ministero digitale” dovesse essere ritenuto un esperimento di successo, potrebbe aprire le porte al “giudice digitale”, che non sarebbe solo inquietante ma decisamente allarmante.

Gianluca Pomante per Sicurezza Magazine