Gli aggiornamenti delle funzionalità di Flock Safety non possono rendere sicuri i lettori di targhe automatici
Due recenti dichiarazioni dell'azienda di sorveglianza, una in merito alle violazioni della privacy in Illinois e l'altra in difesa della rete di sorveglianza nazionale dell'azienda , rivelano uno schema preoccupante: di fronte alle prove di abusi diffusi, Flock Safety ha incolpato gli utenti, minimizzato i danni e raddoppiato gli sforzi contro gli stessi sistemi che avevano reso possibili le violazioni in primo luogo.
L'aggressiva campagna di pubbliche relazioni di Flock per salvare la propria reputazione non sorprende. Il mese scorso, abbiamo descritto come un'inchiesta giornalistica di 404 Media abbia rivelato che l'ufficio dello sceriffo in Texas ha esaminato i dati di oltre 83.000 telecamere con lettore automatico di targhe (ALPR) per rintracciare una donna sospettata di aver autogestito un aborto. (Uno scenario che avrebbe potuto essere evitato, vale la pena sottolineare, se Flock fosse intervenuta quando è stata avvertita per la prima volta di questa minaccia tre anni fa ).
Flock definisce il resoconto dell'ufficio dello sceriffo del Texas " volutamente fuorviante ", sostenendo che la donna sia stata ricercata come persona scomparsa su richiesta della famiglia, piuttosto che per il suo aborto. Ma questo ignora il problema principale: questo agente ha utilizzato una rete di sorveglianza a tappeto a livello nazionale (di nuovo: oltre 83.000 telecamere) per rintracciare qualcuno, e ha usato le sue sospette decisioni in materia di assistenza sanitaria come pretesto per farlo. Inquadrare questo come preoccupazione per la sua sicurezza si inserisce direttamente nelle narrazioni antiabortiste che descrivono l'aborto come pericoloso e traumatico per giustificare un aumento della sorveglianza, della criminalizzazione, del controllo e, in definitiva, della sorveglianza.
Flock Safety ha incolpato gli utenti, minimizzato i danni e puntato il dito contro gli stessi sistemi che avevano reso possibili le violazioni.
Come se non bastasse, l'azienda è stata anche criticata per il modo in cui i dati della sua rete ALPR vengono utilizzati attivamente per supportare le deportazioni di massa. Nonostante l'Immigration and Customs Enforcement (ICE) statunitense non abbia un accordo formale con Flock Safety, i registri pubblici hanno rivelato "oltre 4.000 ricerche a livello nazionale e statale da parte di polizie locali e statali, effettuate su richiesta del governo federale o come favore 'informale' alle forze dell'ordine federali, o con un potenziale focus sull'immigrazione". I dati di audit della rete analizzati da 404 hanno rivelato un ambiente informale di condivisione dei dati che crea un ostacolo alle misure di supervisione e responsabilità: le agenzie federali possono accedere alla rete di sorveglianza attraverso partnership locali senza la trasparenza e i vincoli legali che si applicherebbero ai contratti federali diretti.
Flock Safety è fermamente convinta che questa "non sia una decisione di Flock" e, implicitamente, non sia colpa sua. La responsabilità ricade invece su ogni singola agenzia locale di polizia. Allo stesso tempo, insistono sull'essenzialità della condivisione dei dati, rivendicandone a gran voce il merito quando la tecnologia è coinvolta in indagini intergiurisdizionali , ma non mostrano lo stesso atteggiamento quando quell'ecosistema di condivisione dei dati viene utilizzato per terrorizzare chi cerca di abortire o gli immigrati.
Flock Safety: il social network di sorveglianza
Passando da una startup del 2017 a un'azienda da 7,5 miliardi di dollari " al servizio di oltre 5.000 comunità ", Flock ha permesso alle singole agenzie di stabilire e regolamentare le proprie politiche in modo autonomo. Di fatto, questo approccio ha offerto una tecnologia di sorveglianza a basso costo con restrizioni minime, lasciando le decisioni e le azioni più importanti nelle mani delle forze dell'ordine, mentre l'azienda cresceva rapidamente.
E non hanno alcuna intenzione di rallentare. Proprio questa settimana, Flock ha lanciato la sua Business Network, facilitando la condivisione non regolamentata di dati tra i suoi clienti di sicurezza del settore privato. "Per anni, i nostri clienti delle forze dell'ordine hanno sfruttato la potenza di una rete condivisa per identificare minacce, collegare casi e ridurre la criminalità. Ora stiamo estendendo lo stesso effetto di rete al settore privato", ha annunciato l'amministratore delegato di Flock Safety .

Flock Safety corteggia gli agenti delle forze dell'ordine alla Conferenza internazionale dei capi della polizia del 2023.
L'azienda sta sviluppando una nuova rete di sorveglianza di massa utilizzando esattamente lo stesso modello che l'ha portata a dover riqualificare migliaia di agenti in Illinois su come non infrangere le leggi statali, lo stesso modello che ha reso facile per gli agenti farlo fin dall'inizio. La continua integrazione di Flock di diverse reti di sorveglianza tra la sfera pubblica e quella privata, nonostante i danni già verificatisi, è dovuta in parte all'unica cosa in cui è diventata davvero brava negli ultimi due anni: facilitare un social network di sorveglianza.
Utilizzando espressioni di marketing come "collaborazione" e "moltiplicatore di forza", Flock incoraggia la massima condivisione possibile, arrivando persino ad affermare che gli effetti di rete possono migliorare significativamente i tassi di chiusura dei casi. Coltivano un senso di comunità e di scopo condivisi tra gli utenti, inducendoli a scegliere relazioni di condivisione in buona fede con altre forze dell'ordine in tutto il paese. Ma è proprio questo livello sociale a creare rischi incontrollabili.
La possibilità di espedienti umani a ogni livello mina qualsiasi garanzia tecnica che Flock possa rivendicare. Il blocco dei termini di ricerca si basa sull'accurata etichettatura dell'intento di ricerca da parte degli agenti: un sistema facilmente aggirabile inserendo motivazioni vaghe come "indagine" o giustificazioni errate, intenzionali o meno. E, naturalmente, parole come "indagine" o "persona scomparsa" possono significare praticamente qualsiasi cosa, senza offrire alcun valore a una supervisione significativa di come e per cosa il sistema viene utilizzato. In futuro, gli uffici dello sceriffo che cercano di evitare pubblicità negativa potranno sorvegliare senza problemi chi cerca di abortire o gli immigrati, purché utilizzino motivazioni vaghe e inconsapevoli.
Lo stesso si può dire per i requisiti relativi al numero di caso, che dipendono dall'inserimento manuale. Questo può essere facilmente aggirato riutilizzando numeri di caso legittimi per ricerche non autorizzate. I registri di controllo tracciano solo gli input, non la legittimità contestuale. Gli avvisi di controllo basati sull'intelligenza artificiale proposti da Flock, che potrebbero essere in grado di segnalare attività sospette dopo che le ricerche (e i danni) sono già avvenute, si basano sugli enti locali per automonitorare gli abusi, nonostante la loro dimostrata incapacità di farlo.
Flock opera come un singolo punto di errore che può compromettere (e ha compromesso) la privacy di milioni di americani contemporaneamente.
E, naturalmente, anche la politica dipartimentale più restrittiva potrebbe non essere sufficiente. Austin, in Texas, aveva implementato uno dei programmi ALPR più restrittivi del paese, e il programma ha comunque fallito : la stessa verifica della città ha rivelato sistematiche carenze di conformità che hanno reso inutili i suoi limiti. Il continuo ricorso dell'azienda alle "politiche locali" non ha alcun significato quando la rete di condivisione dati di Flock non tiene conto di come le politiche, i regolamenti e la responsabilità delle forze dell'ordine variano a seconda della giurisdizione. Potresti avere un buon rapporto con la polizia locale, che chiede il tuo parere su come si presenta la sua politica; non hai lo stesso rapporto con centinaia o migliaia di altre agenzie con cui condivide i propri dati. Quindi, se un agente dall'altra parte del paese viola la tua privacy, sarebbe difficile chiamarlo a risponderne.
I sistemi di sorveglianza ALPR sono intrinsecamente vulnerabili sia allo sfruttamento tecnico che alla manipolazione umana. Queste vulnerabilità non sono teoriche: rappresentano percorsi reali per i malintenzionati per accedere a vasti database contenenti i dati sulla posizione di milioni di americani. Quando i database di sorveglianza vengono violati , le conseguenze vanno ben oltre il tipico furto di dati: queste informazioni possono essere utilizzate per molestare, perseguitare o persino estorcere denaro. I dettagli intimi delle routine quotidiane delle persone, le loro relazioni e le loro attività politiche possono diventare accessibili a chiunque abbia intenzioni malevole. Flock opera come un singolo punto di errore che può compromettere – e ha compromesso – la privacy di milioni di americani simultaneamente.
Non smettere di de-floccare
Invece di affrontare le legittime preoccupazioni relative a privacy, sicurezza e diritti costituzionali, Flock ha promesso solo aggiornamenti che non rappresentano riforme significative. Queste modifiche al software e l'implementazione di nuove funzionalità non possono placare la paura generata dall'imponente sistema di sorveglianza che ha sviluppato e continua a espandere.

Un tipico esempio di lettore automatico di targhe Flock Safety.
L'insistenza di Flock sul fatto che ciò che sta accadendo con la criminalizzazione dell'aborto e l'applicazione delle leggi sull'immigrazione non abbia nulla a che fare con loro – che si tratti solo di problemi degli stati repubblicani o di colpa di funzionari corrotti – è preoccupante. Flock ha progettato la rete che viene utilizzata e l'opinione pubblica dovrebbe ritenerla responsabile per non aver integrato protezioni da abusi che non possono essere facilmente aggirati.
Per fortuna, è esattamente quello che sta succedendo: città come Austin , San Marcos ,Denver , Norfolk eSan Diego stanno reagendo. E non è una scelta così difficile come Flock vorrebbe far credere: gli abitanti di Austin stanno soppesando i vantaggi di un sistema di sorveglianza che genera un risultato positivo in meno dello 0,02% dei casi con la possibilità che la scansione di 75 milioni di targhe porti una persona che desidera abortire a essere rintracciata dalla polizia, o un immigrato segnalato dall'ICE in una cosiddetta "città santuario". Questi non sono rischi ipotetici. Stanno già accadendo.
Considerando quanto siano diventate pervasive, estese e ingovernabili le reti di condivisione ALPR, l'unico aggiornamento delle funzionalità su cui possiamo veramente contare per proteggere i diritti e la sicurezza delle persone è l'assenza di rete. E applaudiamo le comunità che stanno intraprendendo azioni decisive per smantellare la loro infrastruttura di sorveglianza.
Seguite il loro esempio: non smettete di eliminare il floccaggio .
Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2025/06/flock-safetys-feature-updates-cannot-make-automated-license-plate-readers-safe in data Sat, 28 Jun 2025 00:36:58 +0000.