Fondazione Frontiera Elettronica

La tecnologia non è in grado di prevedere il crimine, può solo armare la prossimità alla polizia

La tecnologia non è in grado di prevedere il crimine, può solo armare la prossimità alla polizia

Un ringraziamento speciale a Yael Grauer per ulteriori scritti e ricerche.

Nel giugno 2020, Santa Cruz, in California, è diventata la prima città degli Stati Uniti a vietare l'uso municipale della polizia predittiva, un metodo per distribuire risorse delle forze dell'ordine secondo analisi basate sui dati che presumibilmente sono in grado di prevedere autori, vittime o luoghi di crimini futuri. Particolarmente interessante è il fatto che Santa Cruz è stata una delle prime città del paese a sperimentare la tecnologia quando ha sperimentato, e poi adottato, un programma di polizia predittiva nel 2011. Quel programma ha utilizzato dati storici e attuali sulla criminalità per scomporre alcune aree del città in blocchi di 500 piedi per 500 piedi al fine di individuare luoghi che potrebbero essere la scena di futuri crimini. Tuttavia, dopo nove anni, il consiglio comunale ha votato all'unanimità per vietarlo per timori di come perpetuasse la disuguaglianza razziale.

La polizia predittiva è una profezia che si autoavvera. Se la polizia concentra i propri sforzi in un quartiere e arresta dozzine di persone nell'arco di una settimana, i dati rifletteranno quell'area come un focolaio di attività criminali. Il sistema considera anche solo i reati denunciati, il che significa che i quartieri e le comunità in cui la polizia viene chiamata più spesso potrebbero vedere una maggiore probabilità che la tecnologia di polizia predittiva concentri le risorse lì. Questo sistema è fatta su misura per ulteriori comunità vittimizzare che sono già overpoliced- vale a dire, le comunità di colore , individui unhoused, e gli immigrati utilizzando il manto della legittimità scientifica e la natura imparziale presunta dei dati.

L'esperimento di Santa Cruz e l'eventuale messa al bando della tecnologia sono una lezione per il resto del paese: la tecnologia non è un sostituto dell'impegno della comunità e delle misure olistiche di riduzione della criminalità. Più i dipartimenti di polizia si affidano alla tecnologia per stabilire dove concentrare gli sforzi e su chi essere sospettoso, maggiori saranno i danni che tali dipartimenti causeranno alle comunità vulnerabili. Ecco perché ai dipartimenti di polizia dovrebbe essere vietato l'uso di algoritmi presumibilmente informati sui dati per informare quali comunità, e anche quali persone, dovrebbero ricevere la parte del leone in termini di polizia e criminalizzazione.

Cos'è il predictive policing?

L' ordinanza di Santa Cruz che vieta la polizia predittiva definisce la tecnologia come " indica il software utilizzato per prevedere informazioni o tendenze su criminalità o criminalità nel passato o nel futuro, incluse ma non limitate alle caratteristiche o al profilo di qualsiasi persona che potrebbe commettere un crimine, l'identità di qualsiasi persona che possa commettere un crimine, il luogo o la frequenza del crimine o la persona o le persone colpite dal crimine previsto. "

La polizia predittiva analizza un'enorme quantità di informazioni dai crimini storici tra cui l'ora del giorno, la stagione dell'anno, i modelli meteorologici, i tipi di vittime e i tipi di posizione al fine di dedurre quando e in quali luoghi è probabile che si verifichi il crimine. Ad esempio, se un certo numero di crimini sono stati commessi nei vicoli il giovedì, l'algoritmo potrebbe dire a un dipartimento che dovrebbero inviare agenti nei vicoli ogni giovedì. Naturalmente, questo significa che la polizia è predisposta a sospettare di tutti coloro che si trovano in quella zona in quel momento.

La tecnologia tenta di funzionare in modo simile durante la conduzione della politica predittiva "basata sulla persona" meno diffusa. Ciò assume la forma di sistemi di valutazione opachi che assegnano alle persone un valore di rischio in base a una serie di flussi di dati tra cui l'età, la sospetta affiliazione a una banda e il numero di volte in cui una persona è stata vittima e presunto autore di un crimine. Il totale accumulato di questi dati potrebbe far sì che qualcuno venga inserito in una "hot list", come è successo a oltre 1.000 persone a Chicago che sono state inserite in una di queste "Strategic Subject List". Come quando luoghi specifici sono mirati, questa tecnologia non può realmente prevedere il crimine e nel tentativo di farlo, può esporre le persone a vessazioni della polizia mirati o di sorveglianza senza alcuna prova reale che un crimine sarà impegnato.

C'è un motivo per cui l'uso della polizia predittiva continua ad espandersi nonostante le sue fondamenta dubbie: fa soldi. Molte aziende hanno sviluppato strumenti per la polizia basata sui dati; alcuni dei più grandi sono PredPol , HunchLab, CivicScape e Palantir. Le istituzioni accademiche hanno anche sviluppato tecnologie di polizia predittiva, come la RTM Diagnostics della Rutgers University o la CrimeScan della Carnegie Mellon University, che viene utilizzata a Pittsburgh. Alcuni dipartimenti hanno costruito tali strumenti con aziende private e istituzioni accademiche. Ad esempio, nel 2010, il dipartimento di polizia di Memphis ha costruito il proprio strumento, in collaborazione con il dipartimento di criminologia e giustizia penale dell'Università di Memphis, utilizzando l'analisi predittiva IBM SPSS .

A partire dall'estate 2020, la tecnologia è utilizzata in dozzine di città negli Stati Uniti.

Quali problemi pone?

Uno dei maggiori difetti della polizia predittiva sono i dati errati inseriti nel sistema. Questi algoritmi dipendono dai dati che li informano di dove si è verificata l'attività criminale per prevedere dove si svolgerà l'attività criminale futura. Tuttavia, non tutti i crimini vengono registrati: alcune comunità hanno maggiori probabilità di denunciare un crimine rispetto ad altre, alcuni crimini hanno meno probabilità di essere denunciati rispetto ad altri crimini e gli ufficiali hanno discrezione nel decidere se effettuare o meno un arresto. La polizia predittiva tiene conto solo dei crimini segnalati e concentra le risorse di polizia in quelle comunità, il che rende più probabile che la polizia possa scoprire altri crimini. Tutto ciò crea un ciclo di feedback che rende la polizia predittiva una profezia che si autoavvera. Come professore Suresh Venkatasubramanian dirla :

Se costruisci la polizia predittiva, essenzialmente stai inviando la polizia in determinati quartieri sulla base di ciò che ti hanno detto, ma questo significa anche che non stai inviando la polizia in altri quartieri perché il sistema non ti ha detto di andare lì. Se presumi che la raccolta dei dati per il tuo sistema sia generata dalla polizia che hai inviato a determinati quartieri, essenzialmente il tuo modello controlla il prossimo ciclo di dati che ottieni.

Questo ciclo di feedback avrà un impatto sulle comunità vulnerabili, comprese le comunità di colore, le comunità senza alloggio e gli immigrati.

La polizia sta già controllando i quartieri delle minoranze e arrestando persone per cose che potrebbero essere passate inosservate o non segnalate in quartieri meno sorvegliati. Quando questi dati già distorti vengono inseriti in un algoritmo predittivo, verranno impiegati più agenti nelle comunità che sono già sovraffollate.

Un recente approfondimento nel programma predittivo utilizzato dall'ufficio dello sceriffo della contea di Pasco illustra i danni che rimanere bloccati in un ciclo algoritmico può avere sulle persone. Dopo che un quindicenne è stato arrestato per aver rubato biciclette da un garage, l'algoritmo ha inviato continuamente la polizia a molestare lui e la sua famiglia. Nell'arco di cinque mesi, la polizia è andata a casa sua 21 volte. Si sono presentati nella sua palestra e nel luogo di lavoro dei suoi genitori. Il Tampa Bay Times ha rivelato che dal 2015 l'ufficio dello sceriffo ha effettuato più di 12.500 visite preventive simili sulle persone.

Queste visite spesso hanno provocato altri arresti non correlati che hanno ulteriormente vittimizzato le famiglie e aumentato la probabilità che sarebbero state visitate e molestate di nuovo. In un incidente, alla madre di un adolescente preso di mira è stata inflitta una multa di $ 2.500 quando la polizia inviata per controllare il suo bambino ha visto polli nel cortile sul retro. In un altro incidente, un padre è stato arrestato quando la polizia ha guardato dalla finestra di casa e ha visto un diciassettenne che fumava una sigaretta. Questi sono i tipi di crimini solitamente non denunciati che si verificano in tutti i quartieri, in tutti gli strati economici, ma per i quali sono penalizzate solo le persone emarginate che vivono sotto una sorveglianza quasi costante.

Come hanno sottolineato gli esperti , questi algoritmi spesso attingono da fonti imperfette e non trasparenti come i database delle gang, che sono stati oggetto di controllo pubblico a causa della loro mancanza di trasparenza e dell'eccessiva inclusione di persone di colore e Latinx . A Los Angeles, ad esempio, se la polizia nota una persona che indossa una maglia sportiva o ha una breve conversazione con qualcuno per strada, potrebbe essere sufficiente includere quella persona nel database delle gang del LAPD. Essere inclusi in un database di bande spesso significa essere esposti a più molestie e sorveglianza da parte della polizia e può anche portare a conseguenze una volta nel sistema legale, come pene più dure. L'inclusione in un database di gang può influire sul fatto che un algoritmo predittivo identifichi una persona come potenziale minaccia per la società o proietti artificialmente un crimine specifico come correlato a una gang. Nel luglio 2020, il procuratore generale della California ha vietato alla polizia dello stato di accedere a qualsiasi voce della polizia di Los Angeles nel database delle bande della California dopo che gli agenti della polizia di Los Angeles sono stati sorpresi a falsificare i dati. Database delle bande inspiegabili ed eccessivamente ampi sono il tipo di dati imperfetti che fluiscono dai dipartimenti di polizia agli algoritmi predittivi, ed esattamente il motivo per cui non ci si può fidare della polizia predittiva.

Per testare le disparità razziali nella polizia predittiva, Human Rights Data Analysis Group (HRDAG) ha esaminato i crimini di droga registrati dal dipartimento di polizia di Oakland . Ha utilizzato un algoritmo di controllo dei big data per determinare dove suggerirebbe alla polizia di cercare futuri crimini legati alla droga. Abbastanza sicuro, HRDAG ha scoperto che il modello basato sui dati si sarebbe concentrato quasi esclusivamente sulle comunità di colore a basso reddito . Ma i dati di salute pubblica sui tossicodipendenti combinati con i dati del censimento degli Stati Uniti mostrano che la distribuzione dei consumatori di droga non è correlata alle previsioni del programma, dimostrando che le previsioni dell'algoritmo erano radicate in pregiudizi piuttosto che nella realtà.

Tutto questo è il motivo per cui un gruppo di matematici accademici ha recentemente dichiarato un boicottaggio contro aiutare la polizia a creare strumenti di polizia predittiva. Hanno sostenuto che le loro credenziali e competenze creano un modo conveniente per contrabbandare idee razziste su chi commetterà un crimine in base a dove vivono e chi conoscono, nel mainstream attraverso la legittimità scientifica. "È semplicemente troppo facile", scrivono, "creare una patina 'scientifica' per il razzismo".

Inoltre, vi è una preoccupante mancanza di trasparenza che circonda molti strumenti di polizia predittiva. In molti casi, non è chiaro come siano progettati gli algoritmi, quali dati vengono utilizzati e talvolta anche cosa il sistema afferma di prevedere. I fornitori hanno richiesto clausole di non divulgazione o altrimenti nascosto i loro prodotti in segreto, citando segreti commerciali o riservatezza aziendale. Quando gli strumenti di polizia basata sui dati sono scatole nere, è difficile valutare i rischi di tassi di errore, falsi positivi, limiti nelle capacità di programmazione, dati distorti o persino difetti nel codice sorgente che influenzano i risultati della ricerca.

Per i dipartimenti locali, il costo proibitivo dell'utilizzo di queste tecnologie predittive può anche essere un danno per il mantenimento della società civile. A Los Angeles, la polizia di Los Angeles ha pagato 20 milioni di dollari nel corso di nove anni per utilizzare la sola tecnologia predittiva di Palantir. Questo è solo uno dei tanti strumenti utilizzati dalla polizia di Los Angeles nel tentativo di prevedere il futuro.

Infine, la polizia predittiva solleva preoccupazioni costituzionali. Il semplice fatto di vivere o trascorrere del tempo in un quartiere o con certe persone può destare sospetti da parte della polizia o indurli a trattare le persone come potenziali autori. Come ha scritto lo studioso di diritto Andrew Guthrie Furgeson , c'è tensione tra la polizia predittiva e i requisiti legali che la polizia ha il ragionevole sospetto di fermare. Inoltre, i sistemi di polizia predittiva a volte utilizzano le informazioni dei social media per valutare se una persona potrebbe essere coinvolta in un crimine, il che solleva anche problemi di libertà di parola.

La tecnologia non può prevedere il crimine, può solo utilizzare come arma la vicinanza di una persona all'azione della polizia. Un individuo non dovrebbe subire l'erosione della presunzione di innocenza perché un conoscente occasionale, un familiare o un vicino commette un crimine. Questo apre solo i membri delle popolazioni già vulnerabili a ulteriori molestie da parte della polizia, erode la fiducia tra le misure di sicurezza pubblica e la comunità e, infine, crea più pericolo. Questo è già accaduto a Chicago, dove la polizia sorveglia e monitora i social media delle vittime di crimini , perché essere vittima di un crimine è uno dei tanti fattori che l'algoritmo predittivo di Chicago utilizza per determinare se una persona è ad alto rischio di commettere un crimine. crimini stessi.

Cosa si può fare al riguardo?

Come suggerisce il divieto di Santa Cruz, le città stanno cominciando ad accettare i pericoli della polizia predittiva. Come con il crescente movimento per vietare l'uso da parte del governo del riconoscimento facciale e di altra sorveglianza biometrica, dovremmo anche cercare di vietare la polizia predittiva. In tutto il paese, da San Francisco a Boston , quasi una dozzina di città hanno vietato l'uso del riconoscimento facciale da parte della polizia dopo aver riconosciuto il suo impatto sproporzionato sulle persone di colore, la sua tendenza ad accusare falsamente le persone di crimini, la sua erosione della nostra presunzione di innocenza e la sua capacità di seguire i nostri movimenti.

Prima che la polizia predittiva diventi ancora più diffusa, le città dovrebbero ora sfruttare l'opportunità di proteggere il benessere dei loro residenti approvando ordinanze che vietano l'uso di questa tecnologia o impediscono ai dipartimenti di acquisirla in primo luogo. Se la tua città ha una legislazione come un'ordinanza CCOPS (Community Control Over Police Surveillance), che richiede ai funzionari eletti di approvare l'acquisto da parte della polizia e l'uso delle apparecchiature di sorveglianza, l'acquisizione della polizia predittiva può essere bloccata mentre vengono effettuati i tentativi di vietare la tecnologia.

Le lezioni del romanzo e del film Minority Report valgono ancora, anche nell'era dei big data: le persone sono innocenti fino a prova contraria. Le persone non dovrebbero essere soggette a molestie e sorveglianza a causa della loro vicinanza al crimine. Le società di software a scopo di lucro con algoritmi proprietari segreti non dovrebbero creare sfere di cristallo a scatola nera esentate dal controllo pubblico e utilizzate senza vincoli dalle forze dell'ordine. Non è troppo tardi per rimettere il genio della polizia predittiva nella bottiglia, ed è esattamente ciò che dovremmo esortare a fare i leader locali, statali e federali .


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/09/technology-cant-predict-crime-it-can-only-weaponize-proximity-policing in data Thu, 03 Sep 2020 23:09:31 +0000.