Gli algoritmi della polizia non vanno al passo con il rispetto dei diritti umani
www.punto-informatico.it

Sebbene la questione venga affrontata in modo sporadico, in ambito europeo nuove tecnologie come gli algoritmi predittivi trovano sempre maggiore impiego. Per algoritmo possiamo intendere un sistema caratterizzato da un insieme di dati in entrata (input), i quali vengono rielaborati secondo un processo di calcolo basato su regole univoche e prestabilite, ben definite e sintetizzabili in dati informatici che si susseguono secondo un determinato ordine logico e con un particolare linguaggio, teso alla realizzazione di un preciso risultato finale (output). Questi sistemi di processo decisionale automatizzato hanno come finalità quella di contribuire all’individuazione di criteri che vadano oltre le interpretazioni correnti, in modo da uniformare il trattamento di forme decisionali altamente soggettive.

Nel tempo, gli algoritmi stanno venendo sempre più utilizzati dalle forze dell’ordine per garantire la sicurezza, in maniera sempre più efficiente.  Di fatto, sono stati progettati sistemi predittivi che utilizzano dati investigativi relativi a reati già commessi. Sulla base di precedenti dati in possesso, quindi, gli algoritmi dei sistemi di polizia “prevedono“, ovvero individuano prima, il tempo ed il luogo in cui saranno commessi determinati reati oppure chi li commetterà. Tra i sistemi usati, ne esistono alcuni che hanno l’obiettivo di definire il trend dei comportamenti criminali, oppure altri che prevedono i crimini contro la proprietà privata, o ancora sistemi attraverso i quali è possibile individuare zone a più alto rischio di criminalità procurandosi solamente i dati riguardanti le azioni criminose passate.

Nel 2016 la Commissione Europea ha sperimentato iBorderCtrl, un software per il riconoscimento facciale progettato per contenere la crisi migratoria, che sfrutta i dati biometrici dei volti in combinazione con un database per raccogliere le impronte digitali di migranti e richiedenti asilo. L’utilizzo preliminare di questo tipo di algoritmi è avvenuto ai confini di Ungheria, Lettonia e Grecia, ma in seguito uno studio dell’Agenzia europea per i diritti fondamentali (FRA) ha sottolineato i rischi del riconoscimento facciale, in particolare quando usato in tempo reale proprio su migranti e richiedenti asilo ignari di essere ripresi. Per questo motivo, la proposta è stata per il momento accantonata a livello europeo, dato che comunque l’Unione supporta e affianca Paesi extraeuropei nell’utilizzo di algoritmi predittivi per garantire la sicurezza delle frontiere esterne. In ogni caso, è ragionevole ritenere che sulla posizione del Consiglio d’Europa abbia avuto peso anche la campagna di attivismo in corso a livello europeo, “Reclaim Your Face“, che collega espressamente l’utilizzo di tratti comportamentali ed emotivi per sorveglianza di massa biometrica alla perdita di dignità dei cittadini europei e alla loro disumanizzazione, e di conseguenza ne chiede la messa al bando.

www.ilpopolo.news

Ad ogni modo, la questione algoritmi è ben più grave ed esteso rispetto al caso iBorderCtrl. L’Italia sembra infatti disposta a procedere per conto proprio, poiché nel novembre del 2020 il Ministero dell’Interno ha chiuso un bando di gara per individuare il miglior sistema di riconoscimento facciale da utilizzare in tempo reale sui migranti. Il tutto, avvantaggiandosi di fondi europei per la sicurezza interna e ignorando le richieste di chiarimenti del Garante Privacy. Si tratterebbe dell’ennesima evoluzione del Sistema Automatico di Riconoscimento Immagini (SARI), in uso dal 2017 dalle forze dell’ordine italiane. Questo sistema di identità digitale funziona avviando una sorta di ricerca automatica della corrispondenza dei volti, in concomitanza a una macchina della verità per analizzare volto e movimenti oculari. Una volta terminata la ricerca, computa quindi un punteggio per il riconoscimento facciale, che riassume se la macchina ha ritenuto veritieri o meno i dati rilasciati sulla propria persona. Naturalmente, persone con punteggi più bassi vengono catalogate nel sistema come individui a più alto rischio, e devono dunque sottoporsi a ulteriori controlli.

In questo caso, è evidente come l’incidenza di queste nuove tecnologie nella vita dell’uomo sia di gran lunga maggiore rispetto all’utilizzo che veniva fatto in precedenza e che, di conseguenza, i suoi effetti siano potenzialmente molto più pericolosi. Da meri strumenti di supporto alle forze dell’ordine, di fatto, gli algoritmi si stanno sempre più trasformando in veri e propri agenti di intelligenza artificiale in grado di sostituirsi all’essere umano nella decisione dei casi. Ma come per ogni algoritmo, anche questo sistema di polizia virtuale potrebbe rivelarsi fallace, dato che le espressioni facciali potrebbero assumere le sembianze di  “biomarcatori dell’inganno”, utili solamente a semplificare il lavoro di identificazione degli immigrati illegali da parte delle guardie ai confini. Del resto, per consentire di trattare ogni individuo allo stesso modo, gli algoritmi cancellano qualsivoglia alterità, riducendo l’analisi a un insieme di dati di cui occuparsi.

www.ticinotoday.ch

Ne consegue che emergono dubbi per quanto riguarda il funzionamento di questi algoritmi, considerando anche il rischio di discriminazione che queste nuove tecnologie possono causare. Di fatto, ogni algoritmo è prevenuto in base a chi lo costruisce, a come viene sviluppato e per quale motivo viene utilizzato alla fine. Conseguentemente, il tracciamento e l’identificazione realizzata attraverso tale software per il riconoscimento facciale funge da meccanismo discriminatorio e intimidatorio nei confronti dei migranti, poiché conterrebbe apposite informazioni sulle caratteristiche etniche e di genere per poterli classificare.  In altre parole, il software per il riconoscimento si rivela essere un sistema estremamente invasivo nei diritti fondamentali e le libertà delle persone migranti.

Naturalmente tutto questo non impedisce all’Unione Europea ed all’Italia di servirsene per comunicare al mondo un’immagine di sé innovativa in merito alla sicurezza ed al controllo sociale. Tuttavia sorgono forti perplessità nel comportamento di tali attori politici, a maggior ragione se si considera il ruolo di promotori dei diritti umani che essi assumono all’interno del sistema internazionale. Ragion per cui, casomai venisse utilizzato o potenziato gli algoritmi per il riconoscimento facciale, verrebbe da pensare che i diritti umani non siano universali e valevoli per tutte le nazioni, ma piuttosto uno strumento che il mondo occidentale utilizza in modo arbitrario per arrecare ingerenza nelle faccende interne di altri Stati. Spetterà dunque all’Unione europea ed all’Italia dimostrare che il rispetto dei diritti umani e delle libertà fondamentali degli individui venga sempre prima di qualunque intelligenza artificiale e, nel caso specifico, di sistemi di polizia virtuale.

Gabriele Caruso

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui