Fondazione Frontiera Elettronica

I manuali utente di analisi video sono una guida alla distopia

I manuali utente di analisi video sono una guida alla distopia

Alcuni anni fa, quando hai visto una telecamera di sicurezza, potresti aver pensato che il feed video fosse andato a un videoregistratore da qualche parte in un back office a cui si poteva accedere solo quando si verifica un crimine. O forse hai immaginato una guardia assonnata che prestava solo una mezza attenzione e solo quando ha scoperto un crimine in corso. Nell'era della connettività Internet, ora è facile immaginare filmati seduti su un server da qualche parte, con qualsiasi immagine inaccessibile tranne che a qualcuno disposto ad avanzare velocemente attraverso centinaia di ore di riprese.

Potrebbe essere così che funzionava nei film di rapina degli anni '90, e potrebbe essere il modo in cui un proprietario di casa ordina ancora le riprese della propria telecamera di sicurezza domestica. Ma non è così che funzionano le telecamere nell'ambiente di sicurezza di oggi. Invece, algoritmi avanzati stanno guardando ogni fotogramma su ogni telecamera e documentano ogni persona, animale, veicolo e zaino mentre si muovono attraverso lo spazio fisico, e quindi da telecamera a telecamera, per un periodo di tempo prolungato.

Il termine "analisi dei dati video" sembra noioso, ma non confonderlo con il numero di visualizzazioni che hai ottenuto sul tutorial di YouTube "come cucinare un uovo in camicia". In un contesto di forze dell'ordine o di sicurezza privata, l'analisi video si riferisce all'uso di machine learning, intelligenza artificiale e visione artificiale per automatizzare la sorveglianza onnipresente.

Attraverso il progetto Atlas of Surveillance , EFF ha trovato più di 35 forze dell'ordine che utilizzano una tecnologia di analisi video avanzata. Questo numero è in costante crescita man mano che scopriamo nuovi fornitori, contratti e funzionalità. Per capire meglio come funziona questo software, chi lo utilizza e di cosa è capace, EFF ha acquisito una serie di manuali utente. E sì, sono anche più spaventosi di quanto pensassimo.

Briefcam, che è spesso confezionato con la tecnologia video Genetec, viene spesso utilizzato nei centri di criminalità in tempo reale . Si tratta di strutture di sorveglianza della polizia che aggregano filmati delle telecamere e altre informazioni di sorveglianza provenienti da una giurisdizione. Dozzine di dipartimenti di polizia utilizzano Briefcam per cercare ore di filmati da più telecamere al fine, ad esempio, di restringere il campo su un particolare viso o uno specifico zaino colorato. Questo potere del software di analisi video sarebbe particolarmente spaventoso se usato per identificare le persone che praticano il diritto di protesta del Primo Emendamento.

I sistemi Avigilon sono un po 'più opachi, poiché spesso vengono venduti ad aziende, che non sono soggette alle stesse leggi sulla trasparenza. A San Francisco, ad esempio, Avigilon fornisce le telecamere e il software per almeno sei distretti di miglioramento aziendale (BID) e distretti a beneficio della comunità (CBD). Questi distretti ricoprono i quartieri con telecamere di sorveglianza e ritrasmettono il filmato a una sala di controllo centrale. L'analisi video di Avigilon può eseguire l'identificazione di oggetti (ad esempio se le cose sono automobili e persone), la lettura delle targhe e potenzialmente il riconoscimento facciale.

È possibile leggere il manuale utente di Avigilon qui e il manuale Briefcam qui . Quest'ultimo è stato ottenuto attraverso il California Public Records Act da Dylan Kubeny , uno studente giornalista presso l'Università del Nevada, Reno Reynolds School of Journalism.

Ma quali sono esattamente le capacità di questi sistemi software? Ecco cosa abbiamo imparato:

Scegli un volto, traccia un volto, valuta un volto

Istruzioni su come selezionare una faccia

Se stai guardando filmati video su Briefcam, puoi selezionare qualsiasi volto, quindi aggiungerlo a una "lista di titoli". Quindi, con qualche clic in più, puoi recuperare ogni pezzo di video che hai con il volto di quella persona.

Briefcam assegna a tutte le immagini del viso 1-3 stelle. Una stella: l'IA non può nemmeno riconoscerla come persona. Due stelle: confidenza media. Tre stelle: alta confidenza. 

Rilevamento di eventi insoliti

Un grafico che mostra la differenza tra gli algoritmi.

Avigilon dispone di una coppia di algoritmi che utilizza per prevedere ciò che definisce "eventi insoliti".

Il primo è in grado di rilevare "movimenti insoliti", essenzialmente modelli di pixel che non corrispondono a ciò che normalmente ci si aspetterebbe nella scena. Occorrono due settimane per addestrare questo algoritmo di autoapprendimento. Il secondo è in grado di rilevare "attività insolite" che coinvolgono auto e persone. Ci vuole solo una settimana per allenarsi.

Inoltre, c'è "Tampering Detection" che, a seconda di come lo si imposta, può essere attivato da un'ombra in movimento:

Immettere un valore compreso tra 1 e 10 per selezionare la sensibilità di una telecamera alla manomissione degli eventi. La manomissione è un cambiamento improvviso nel campo visivo della telecamera, solitamente causato da qualcuno che sposta inaspettatamente la telecamera. Abbassare l'impostazione se piccoli cambiamenti nella scena, come ombre in movimento, causano eventi di manomissione. Se la videocamera è installata in interni ed è improbabile che la scena cambi, è possibile aumentare l'impostazione per acquisire eventi più insoliti.

Capelli rosa e maniche corte

Strumento colore

Con il filtro ombra di Briefcam , una persona che cerca una folla potrebbe filtrare in base al colore e alla lunghezza di capi di abbigliamento, accessori o persino capelli. Il manuale di Briefcam afferma anche che il programma può cercare una folla o una vasta raccolta di filmati per qualcuno con i capelli rosa.

Inoltre, gli utenti di BriefCam possono cercare specificamente in base a ciò che una persona indossa e altri " attributi personali ". Le forze dell'ordine che tentano di setacciare filmati della folla o ore di video potrebbero cercare qualcuno specificando blue jeans o una maglietta gialla a maniche corte.

Uomo, donna, bambino, animale

BriefCam ordina le persone e gli oggetti in categorie specifiche per renderli più facili da cercare per il sistema. BriefCam suddivide le persone nelle tre categorie di "uomo", "donna" e "bambino". Studi scientifici dimostrano che questo tipo di categorizzazione può identificare erroneamente persone non conformi, non binarie, trans e disabili di genere i cui corpi potrebbero non essere conformi ai rigidi criteri che il software cerca quando smista le persone. Tale errata identificazione può avere danni reali, come l'avvio di indagini fuorvianti o il negare l'accesso.

Il software suddivide anche altre categorie, inclusa la distinzione tra diversi tipi di veicoli e il riconoscimento degli animali.

Avviso di prossimità

Un esempio del filtro di prossimità

Oltre a monitorare il numero totale di oggetti in un frame o la dimensione relativa degli oggetti, BriefCam può rilevare la vicinanza tra le persone e la durata del loro contatto. Questo potrebbe rendere BriefCam un ottimo candidato per il " lavaggio COVID-19 " o il rebranding della tecnologia di sorveglianza invasiva come potenziale soluzione all'attuale crisi della salute pubblica.

Avigilon afferma inoltre di poter rilevare la temperatura della pelle , sollevando un'altra possibile affermazione di benefici per la salute pubblica. Ma, come abbiamo affermato prima , la termografia remota può spesso essere molto imprecisa e non riuscire a rilevare i portatori di virus che sono asintomatici.

La salute pubblica è uno sforzo collettivo. L'implementazione di tecnologie di sorveglianza invasive che potrebbero essere facilmente utilizzate per monitorare i manifestanti e rintracciare figure politiche rischia di suscitare maggiore sfiducia nel governo. Ciò renderà meno probabile la collaborazione in materia di sanità pubblica, non di più.

Watchlist

Una caratteristica disponibile sia con Briefcam e Avigilon sono watchlists, e non intendiamo un quaderno pieno di nomi. Invece, i sistemi ti consentono di caricare cartelle di volti e fogli di calcolo di targhe, quindi l'algoritmo troverà le corrispondenze e traccia il movimento dei bersagli. Le watchlist sottostanti possono essere estremamente problematiche. Ad esempio, EFF ha esaminato centinaia di documenti di policy per i lettori automatici di targhe (ALPR) ed è molto raro che un'agenzia descriva le regole per l'aggiunta di qualcuno a una watchlist.

Veicoli in tutto il mondo

Spesso le ALPR sono associate all'Inghilterra, il luogo di nascita della tecnologia, e agli Stati Uniti, dove si è metastatizzata. Ma Avigilon ha già gli occhi puntati su nuovi mercati e ha programmato la sua tecnologia per identificare le targhe in sei continenti . 

Vale la pena notare che Avigilon è di proprietà di Motorola Solutions, la stessa società che gestisce il famigerato provider ALPR Vigilant Solutions.

Conclusione

Stiamo entrando in un momento pericoloso. La mancanza di supervisione dell'acquisizione da parte della polizia e dell'uso della tecnologia di sorveglianza ha conseguenze pericolose per coloro che sono stati identificati erroneamente o coinvolti nelle profezie che si autoavverano della polizia AI .

In effetti, il dottor Rashall Brackney, il capo della polizia di Charlottesville, ha descritto queste analisi video come perpetuare i pregiudizi razziali in un recente panel . L'analisi video "spesso non è corretta", ha affermato. "Più e più volte creano falsi positivi nell'identificazione dei sospetti".

Questa nuova era delle capacità di analisi video causa almeno due problemi. In primo luogo, la polizia potrebbe fare sempre più affidamento su questa tecnologia segreta per stabilire chi indagare e arrestare, ad esempio, identificando il sospetto incappucciato e zaino in spalla sbagliato. In secondo luogo, le persone che partecipano a riunioni politiche o religiose temeranno giustamente di essere identificate, monitorate e punite.

Più di una dozzina di città negli Stati Uniti hanno vietato l'uso da parte del governo del riconoscimento facciale, e questo è un ottimo inizio. Ma questo va solo così lontano. Le società di sorveglianza stanno già pianificando modi per aggirare questi divieti utilizzando altri tipi di strumenti di analisi video per identificare le persone. Ora è il momento di spingere per una legislazione più completa per difendere le nostre libertà civili e ritenere la polizia responsabile.

Per saperne di più sui Real-Time Crime Center, leggi il nostro ultimo rapporto qui .

Fonte immagine banner: proposta di prezzo del dipartimento di polizia di Mesquite.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/11/video-analytics-user-manuals-are-guide-dystopia in data Thu, 19 Nov 2020 20:39:58 +0000.