IA e videosorveglianza

Getting your Trinity Audio player ready...

Il progresso tecnologico sta offrendo al mercato sistemi di allarme e videosorveglianza sempre più sofisticati, che hanno ormai come unico limite la fantasia dei committenti e degli installatori. La repentina diffusione dei processi di intelligenza artificiale sta ovviamente influenzando anche il mercato dei professionisti della sicurezza, sempre più spesso chiamati a confrontarsi con norme troppo arretrate rispetto all’evoluzione del settore ma non per questo meno vincolanti.

Le telecamere con tecnologie IA hanno la capacità di analizzare le riprese in tempo reale e di rilevare potenziali minacce alla sicurezza prima che diventino un problema o, quantomeno, di elaborare risposte immediate, anche attraverso l’attivazione di sensori e dispositivi, e allertare tempestivamente i soggetti preposti ad intervenire. Altre informazioni il sistema può assumere dai sensori dell’impianto di allarme, che per caratteristiche e quantità sono in grado di fornire una mole di dati che certamente non è secondaria rispetto a quella già acquisita dai filmati. E’ sufficiente pensare a quanti impulsi può recepire un sistema di sicurezza aziendale dai sensori volumetrici, da quelli installati su porte e finestre, dai rilevatori di fumi, liquidi e gas, dalle termocamere, dai sensori che monitorano il funzionamento dei dispositivi di apertura e chiusura e dalle sonde installate su singoli apparecchi elettrici o elettronici, per comprendere come l’idea di affidare il compito di monitorare gli eventi a persone fisiche sia ormai un’utopia.

Nonostante gli innegabili benefici apportati dall’intelligenza artificiale al settore della sicurezza, il panorama normativo che circonda le telecamere e i sistemi di allarme / sicurezza dotati di IA è spesso complesso e ostico, soprattutto a quanti – come gli installatori – hanno un background tecnico e sono poco avvezzi ad interpretare norme e precetti per cercare di adeguarli ai problemi ormai quotidianamente palesati dalle novità del settore digitale e dalle molteplici situazioni da disciplinare.

L’utilizzo di telecamere IA per la videosorveglianza e i sistemi di allarme presenta indubbiamente numerosi vantaggi. Uno dei più significativi è quello dell’analisi in tempo reale delle immagini che vengono registrate, con tempi di attenzione e di reazione assolutamente non paragonabili a quelli dell’essere umano. Un operatore può tenere sotto controllo in modo efficiente una decina di telecamere e comunque riesce a focalizzare la propria attenzione solo su una di esse. L’intelligenza artificiale è in grado di monitorare centinaia di telecamere contemporaneamente senza alcuna diminuzione del livello di attenzione su ciascuna di esse; l’unico limite è dato dalla potenza di calcolo dei suoi processori.
Rispetto all’operatore, inoltre, non risente della stanchezza e del calo di attenzione, ed è quindi in grado di erogare un servizio efficiente nello spazio e nel tempo, senza alcuna limitazione. Sebbene reagisca agli stimoli esterni, l’attivazione di uno dei settori sotto controllo non fa venire meno la continuità della sorveglianza degli altri, al contrario di quanto può accadere con un operatore nel momento in cui si verifica un evento di allarme

Nelle situazioni in cui grandi aree soggette a pubblico passaggio devono essere sottoposte a sorveglianza e controllo, come aeroporti, stazioni ferroviarie e centri commerciali, l’ausilio delle telecamere dotate di intelligenza artificiale è ormai indispensabile anche per coordinare gli interventi del personale di sicurezza, che può essere rapidamente allertato ed inviato dove necessario direttamente dal sistema, senza alcun filtro umano. Un ulteriore vantaggio di tale integrazione è che il personale addetto alla sicurezza può concentrarsi su altri compiti, nei quali l’intervento umano è insostituibile, come intervenire nelle emergenze o soccorrere chi ha bisogno d’aiuto.

Nonostante i numerosi vantaggi offerti dalle telecamere AI, vi sono diversi ostacoli normativi che devono essere superati e non è solo quello relativo alla tutela dei dati personali e della riservatezza delle persone a preoccupare il legislatore.

Se l’uso illecito delle immagini contiene sempre una componente umana che deve interagire con il sistema, per programmarlo o modificarne le impostazioni al fine di violare i diritti altrui (come potrebbe avvenire, ad esempio, se il sistema di telecamere venisse utilizzato per seguire gli spostamenti di una specifica persona e monitorarne il comportamento), al contrario, in determinate situazioni, l’algoritmo che sovrintende al controllo delle apparecchiature, per quanto correttamente implementato ed utilizzato nel rispetto delle specifiche di progetto e delle norme vigenti, potrebbe ugualmente generare risultati inaspettati ed arrecare danni.

La reazione di un impianto di allarme al rischio potenziale di una rapina in corso, ad esempio, prevede solitamente il blocco degli accessi e l’attivazione delle misure di sicurezza (isolamento degli ambienti, distacco della corrente, allerta del personale in servizio e delle forze dell’ordine, ecc.) ma se, a fronte di un falso positivo, dovesse verificarsi l’impossibilità, per i soccorsi, di accedere al sito ed assistere una persona che ha avuto un malore o, in altra e diversa ipotesi, di trasportare rapidamente un ferito verso il pronto soccorso, il proprietario dell’immobile e/o il fornitore del servizio di sicurezza si troverebbero nella sgradevole situazione di dover affrontare un problema di ordine morale e giuridico, fatto salvo il risarcimento dell’eventuale danno.

Un’altra potenziale minaccia deriva dagli algoritmi di apprendimento automatico che hanno insita una inevitabile fallacia proprio nei meccanismi di analisi dei dati, poiché non c’è filtro sulle fonti che sia diverso, ad oggi, da quello valutato dagli stessi produttori, e non c’è modo di disciplinare tutte le possibili variabili che verranno sottoposte all’attenzione del meccanismo di apprendimento. Inoltre, non c’è modo di prevedere tutte le possibili interazioni tra un’esperienza e l’altra, nè come verranno interpretate nel loro complesso e quale valore sarà ad esse attribuito rispetto agli eventi che da dall’analisi di quelle esperienze saranno generati.

Seguendo un’interpretazione codicistica, è responsabile del danno cagionato il produttore del bene, che deve sempre garantire che il suo utilizzo corretto non possa mettere a repentaglio la sicurezza dell’utente. Ma quale garanzia può offrire il produttore rispetto ad una reazione che è l’algoritmo stesso ad individuare come corretta rispetto ad un determinato stimolo, che, a sua volta, viene interpretato da un meccanismo di apprendimento automatico e non sulla base di precise istruzioni fornite dal programmatore? Appare evidente come sia molto elevata l’alea di rischio che i produttore assume con l’immissione del prodotto sul mercato, e come tale elemento debba necessariamente essere oggetto di valutazione da parte del giudice che sarà chiamato a valutare l’evento sottoposto al suo vaglio.

Del resto non è una novità che i giuristi stiano da tempo segnalando la necessità di addivenire ad una definizione dell’etica degli algoritmi che, pur senza sconfinare nella fantascienza delle tre leggi della robotica di Asimov, conceda però margini di sicurezza interpretativa anche e soprattutto per i produttori e gli installatori, che attualmente sono i soggetti più a rischio in caso di incidente

Già nella prima fase del sinistro si dovrà infatti accertare se l’installazione e la programmazione del sistema per adeguarlo al sito e ai valori rilevati dalle telecamere e dai sensori abbia influito sull’affidabilità dello stesso e sull’evento lesivo che si è inaspettatamente verificato. Tale indagine dovrà poi estendersi al teorico funzionamento dell’apparecchiature rispetto all’evento effettivamente accaduto, per comprendere se il problema possa risiedere in un segnale errato che ha generato l’evento inaspettato o se, alla luce delle istruzioni impartite al sistema, esso abbia funzionato correttamente e quindi l’evento fosse prevedibile e – come tale – addebitabile al produttore.

Analisi che non saranno semplici, nè poco costose, e che trovano un ulteriore limite nella mancanza di una disciplina dei log dei sistemi di videosorveglianza e di allarme, della quale sempre più spesso, invece, si avverte l’esigenza, proprio per la difficoltà di reperire informazioni sul comportamento dei sistemi di videosorveglianza e di allarme, Il cui monitoraggio è attualmente affidato alla sensibilità e alle esigenze (anche tecniche) del produttore.

Pubblicato su “Sicurezza“, Ed. Tecniche Nuove, Milano