Fondazione Frontiera Elettronica

Uso da parte della polizia dell’intelligenza artificiale: 2021 in rassegna

Uso da parte della polizia dell'intelligenza artificiale: 2021 in rassegna

Decenni fa, quando immaginavano gli usi pratici dell'intelligenza artificiale, gli scrittori di fantascienza immaginavano menti digitali autonome che potessero servire l'umanità. Certo, a volte un HAL 9000 o WOPR sovvertirebbe le aspettative e diventerebbe canaglia, ma è stato del tutto involontario, giusto?

E per molti aspetti della vita, l'intelligenza artificiale mantiene le sue promesse. L'IA sta, mentre parliamo, alla ricerca di prove della vita su Marte . Gli scienziati stanno usando l'IA per cercare di sviluppare modi più accurati e veloci per prevedere il tempo.

Ma quando si tratta di polizia, l'attualità della situazione è molto meno ottimista. Il nostro HAL 9000 non afferma le proprie decisioni sul mondo, al contrario, i programmi che affermano di utilizzare l'IA per le attività di polizia riaffermano, giustificano e legittimano le opinioni e le azioni già intraprese dai dipartimenti di polizia .

L'IA presenta due problemi, il lavaggio tecnologico e un classico ciclo di feedback. Il lavaggio tecnologico è il processo mediante il quale i sostenitori dei risultati possono difendere quei risultati come imparziali perché derivati ​​​​dalla "matematica". E il ciclo di feedback è il modo in cui quella matematica continua a perpetuare risultati dannosi storicamente radicati. "Il problema dell'utilizzo di algoritmi basati sull'apprendimento automatico è che se questi sistemi automatizzati sono alimentati con esempi di giustizia parziale, finiranno per perpetuare questi stessi pregiudizi", come osserva un filosofo della scienza .

Troppo spesso l'intelligenza artificiale nelle attività di polizia viene alimentata dai dati raccolti dalla polizia e quindi può prevedere il crimine solo sulla base dei dati dei quartieri che la polizia sta già controllando. Ma i dati sulla criminalità sono notoriamente imprecisi, quindi l'IA della polizia non solo perde il crimine che si verifica in altri quartieri, ma rafforza l'idea che i quartieri in cui sono già eccessivamente sorvegliati sono esattamente i quartieri in cui la polizia ha ragione di dirigere pattugliamenti e sorveglianza.

Il modo in cui la tecnologia AI lava i dati ingiusti creati da un sistema di giustizia penale ingiusto sta diventando sempre più evidente.

Nel 2021, abbiamo avuto un'idea migliore del significato reale di "polizia basata sui dati". Un'indagine condotta da Gizmodo e The Markup ha mostrato che il software che ha messo sulla mappa PredPol, ora chiamato Geolitica, prevede in modo sproporzionato che il crimine sarà commesso in quartieri abitati da persone della classe operaia, persone di colore e in particolare neri. Puoi leggere qui l'analisi tecnica e statistica che hanno fatto per mostrare come questi algoritmi perpetuano le disparità razziali nel sistema di giustizia penale.

Gizmodo riferisce che "Per gli 11 dipartimenti che hanno fornito dati sugli arresti, abbiamo scoperto che i tassi di arresto nelle aree previste sono rimasti gli stessi indipendentemente dal fatto che PredPol avesse previsto un crimine quel giorno o meno. In altre parole, non abbiamo trovato una forte correlazione tra arresti e previsioni”. Questo è esattamente il motivo per cui non dovrebbero essere utilizzati i cosiddetti sistemi di polizia predittiva o qualsiasi schema di polizia basato sui dati. La polizia pattuglia i quartieri abitati principalmente da persone di colore, il che significa che questi sono i luoghi in cui effettuano arresti e scrivono citazioni. L'algoritmo tiene conto di questi arresti e determina che queste aree potrebbero essere testimoni di crimini in futuro, giustificando così la forte presenza della polizia nei quartieri neri. E così il ciclo continua di nuovo.

Ciò può verificarsi con altre tecnologie che si basano sull'intelligenza artificiale, come il rilevamento acustico di colpi di arma da fuoco, che può inviare avvisi falsi positivi alla polizia a significare la presenza di spari.

Quest'anno abbiamo anche appreso che almeno una cosiddetta società di intelligenza artificiale che ha ricevuto milioni di dollari e quantità incalcolabili di dati governativi dallo stato dello Utah in realtà non è stata in grado di mantenere le promesse di aiutare le forze dell'ordine e i servizi pubblici a dirigere le aree problematiche.

Questo è esattamente il motivo per cui un certo numero di città, tra cui Santa Cruz e New Orleans, hanno vietato l'uso da parte del governo di programmi di polizia predittiva. Come disse all'epoca il sindaco di Santa Cruz , "Se abbiamo pregiudizi razziali nella polizia, ciò significa che i dati che entrano in questi algoritmi sono già intrinsecamente distorti e avranno risultati distorti, quindi non ha alcun senso provare e usa la tecnologia quando è evidente la probabilità che abbia un impatto negativo sulle comunità di colore”.


L'anno prossimo, la lotta contro l'uso irresponsabile dell'intelligenza artificiale e dell'apprendimento automatico da parte della polizia continuerà. L'EFF continuerà a sostenere i governi locali e statali nella loro lotta contro la cosiddetta polizia predittiva o basata sui dati.

Questo articolo fa parte della nostra serie Year in Review. Leggi altri articoli sulla lotta per i diritti digitali nel 2021.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2021/12/police-use-artificial-intelligence-2021-review in data Sat, 01 Jan 2022 09:49:24 +0000.