Fondazione Frontiera Elettronica

Episodio podcast: Informazioni sul volto (riconoscimento)

Episodio podcast: Informazioni sul volto (riconoscimento)

Il tuo volto è davvero tuo o è una merce da vendere, un'arma da usare contro di te? Una società chiamata Clearview AI ha raschiato Internet per raccogliere (senza consenso) 30 miliardi di immagini per supportare uno strumento che consente agli utenti di identificare le persone solo tramite l'immagine. Anche se è usato principalmente dalle forze dell'ordine, se dovessimo preoccuparci che l'intercettatore al tavolo del ristorante accanto, o il mostro che ti dà fastidio al bar, o il manifestante fuori dalla clinica per aborti possano scattare di nascosto una tua foto, caricarla, e usarlo per identificarti, dove vivi e lavori, i tuoi account sui social media e altro ancora?

giocare

Informazioni sulla privacy. Questo incorporamento servirà contenuti da simplecast.com

Ascolta su Spotify Podcast Badge Ascolta sul badge Podcast di Apple Iscriviti tramite badge RSS

(Puoi trovare questo episodio anche su Internet Archive e su YouTube .)

Il giornalista del New York Times Kashmir Hill scrive dell’intersezione tra privacy e tecnologia da oltre un decennio; il suo libro sull'ascesa e le pratiche di Clearview AI è stato pubblicato lo scorso autunno. Parla con Cindy Cohn e Jason Kelley di EFF di come la rapida evoluzione della tecnologia di riconoscimento facciale potrebbe aver superato l'etica e le normative e di dove potremmo andare da qui. 

In questo episodio imparerai: 

  • La difficoltà di prevedere come le informazioni che condividi liberamente potrebbero essere utilizzate contro di te man mano che la tecnologia avanza. 
  • Come la ricerca divorante della “dolcezza tecnica” – la sensazione allettante di risolvere un puzzle in modo pulito e funzionale – può accecare gli sviluppatori tecnologici rispetto alle implicazioni dell'uso di quella tecnologia. 
  • I pregiudizi razziali incorporati in molte tecnologie di riconoscimento facciale. 
  • Come la legge del 2008 di uno stato ha effettivamente frenato il modo in cui viene utilizzata la tecnologia di riconoscimento facciale, forse creando un modello da seguire per altri stati o il Congresso. 

Kashmir Hill è un giornalista tecnologico del New York Times che scrive dei modi inaspettati e talvolta inquietanti in cui la tecnologia sta cambiando le nostre vite, in particolare quando si tratta della nostra privacy. Il suo libro, " Your Face Belongs To Us " (2023), descrive in dettaglio come Clearview AI ha fornito il riconoscimento facciale alle forze dell'ordine, ai miliardari e alle imprese, minacciando di porre fine alla privacy come la conosciamo. È entrata a far parte del Times nel 2019 dopo aver lavorato presso Gizmodo Media Group, Fusion, Forbes Magazine e Above the Law. I suoi scritti sono apparsi sul New Yorker e sul Washington Post. Ha conseguito la laurea alla Duke University e alla New York University, dove ha studiato giornalismo. 

Risorse: 

Cosa ne pensi di "Come risolvere Internet?" Condividi il tuo feedback qui . 

Trascrizione

COLLINA DEL KASHMIR
Il Madison Square Garden, la sede dei grandi eventi di New York City, ha installato la tecnologia di riconoscimento facciale nel 2018, originariamente per affrontare le minacce alla sicurezza. Sai, persone di cui erano preoccupati che erano state violente nello stadio prima, o forse il modello di Taylor Swift di, sai, noti stalker che vogliono identificarli se stanno cercando di entrare ai concerti.

Ma poi nell'ultimo anno si sono resi conto che abbiamo impostato questo sistema. Questo è un ottimo modo per tenere lontani i nostri nemici, persone che non piacciono al proprietario, James Dolan, vale a dire gli avvocati che lavorano in studi che gli hanno fatto causa e gli sono costati un sacco di soldi.

E ho visto questo, sono andato a una partita dei Rangers con un avvocato bandito e c'erano migliaia di persone che si riversavano al Madison Square Garden. Attraversiamo la porta, mettiamo le valigie sulla cintura di sicurezza e, nel momento in cui andiamo a prenderle, una guardia di sicurezza si è avvicinata a noi e le ha detto che non era la benvenuta.

E sì, una volta impostati questi sistemi di sorveglianza, si passa dalle minacce alla sicurezza al semplice monitoraggio delle persone che ti infastidiscono. E quindi questa è la sfida: come possiamo controllare il modo in cui queste cose vengono utilizzate?

CINDY COHN
Quella è la collina del Kashmir. È una reporter tecnologica per il New York Times e scrive sull'intersezione tra privacy e tecnologia da oltre un decennio.

Ha anche lavorato con EFF su diversi progetti, inclusa la ricerca sulla sicurezza delle app di monitoraggio della gravidanza. Ma più recentemente, il suo lavoro ha riguardato il riconoscimento facciale e la società Clearview AI.

Lo scorso autunno ha pubblicato un libro su Clearview intitolato Your Face Belongs to Us. Riguarda l'ascesa della tecnologia di riconoscimento facciale. Riguarda anche un'azienda disposta a superare il limite. Una linea a cui hanno rispettato anche i giganti della tecnologia. E lo ha fatto per creare un motore di ricerca facciale di milioni di persone innocenti da vendere alle forze dell’ordine.

Sono Cindy Cohn, il direttore esecutivo della Electronic Frontier Foundation.

JASON KELLEY
E io sono Jason Kelley, direttore dell'attivismo dell'EFF. Questa è la nostra serie di podcast Come risolvere Internet.

CINDY COHN
L'idea alla base di questo spettacolo è che stiamo cercando di migliorare la nostra vita digitale. In EFF passiamo molto tempo a immaginare i modi in cui le cose possono andare storte e ad entrare in azione per aiutare quando le cose vanno male online. Ma con questo spettacolo, stiamo cercando di darci una visione di cosa significhi farlo bene.

JASON KELLEY
È facile parlare del riconoscimento facciale come di una guida verso questa distopia fantascientifica, ma molti di noi lo usano ogni giorno in modi benigni e persino utili. Forse l'hai semplicemente usato per sbloccare il telefono prima di riprodurre questo episodio del podcast.

La maggior parte dei nostri ascoltatori probabilmente sa che c'è una differenza significativa tra i dati presenti sul tuo telefono e quelli utilizzati da Clearview, che sono stati estratti da Internet, spesso da luoghi che le persone non si aspettavano. Dato che Kash ha scritto diverse centinaia di pagine su ciò che ha fatto Clearview, volevamo iniziare con una breve spiegazione.

COLLINA DEL KASHMIR
Clearview AI ha recuperato miliardi di foto da Internet –

JASON KELLEY
Miliardi con la B. Mi dispiace interromperti, solo per assicurarmi che la gente lo senta.

COLLINA DEL KASHMIR
Miliardi di foto da Internet pubblico e siti di social media come Facebook, Instagram, Venmo, LinkedIn. Quando ho scritto di loro per la prima volta nel gennaio 2020, avevano 3 miliardi di volti nel loro database.

Adesso ne hanno 30 miliardi e dicono che aggiungono qualcosa come 75 milioni di immagini ogni giorno. Quindi molti volti, tutti raccolti senza il consenso di nessuno e, sai, li hanno abbinati a un potente algoritmo di riconoscimento facciale in modo che tu possa scattare una foto di qualcuno, sai, caricarla su Clearview AI e restituirà l'altra luoghi su Internet in cui appare quel volto insieme a un collegamento al sito Web in cui appare.

Quindi è un modo per scoprire chi è qualcuno. Sai, come si chiamano, dove vivono, chi sono i loro amici, come trovare i loro profili sui social media e persino trovare foto che potrebbero non sapere essere su Internet, dove il loro nome non è collegato alla foto ma il loro volto è Là.

JASON KELLEY

Oh. Ovviamente è terrificante, ma c'è un esempio che potresti avere di come questo influenzi la persona comune. Potresti parlarne un po'?

COLLINA DEL KASHMIR

Sì, quindi con uno strumento come questo, um, sai, se tu fossi fuori in un ristorante, diciamo, e stai avendo una conversazione interessante, sia sui tuoi amici che sul tuo lavoro, e in un certo senso attira l'attenzione di qualcuno seduto lì vicino, presumi di essere anonimo. Con uno strumento come questo, potrebbero scattarti una foto, caricarla, scoprire chi sei, dove lavori e all'improvviso capire il contesto della conversazione. Sai, una persona che esce da una clinica per aborti, se ci sono manifestanti fuori, possono scattare una foto di quella persona. Ora sanno chi sono e i servizi sanitari che potrebbero aver ricevuto.

Voglio dire, ci sono tanti modi diversi. Sai, vai in un bar e parli con qualcuno. Sono un po' inquietanti. Non vorrai mai più parlare con loro. Ma ti scattano la foto. Scoprono il tuo nome. Cercano i tuoi profili sui social media. Sanno chi sei.
D'altra parte, sai, sento di persone che pensano a questo in un contesto positivo, che usano strumenti come questo per ricercare le persone che incontrano sui siti di incontri, scoprendo se sono chi dicono di essere, sai , cercando le loro foto.

È complicata, la tecnologia di riconoscimento facciale. Ci sono usi positivi, ci sono usi negativi. E proprio ora stiamo cercando di capire quale posto dovrebbe avere questa tecnologia nelle nostre vite e come le autorità dovrebbero essere in grado di usarla.

CINDY COHN
Sì, penso che il "questo è inquietante" di Jason sia ampiamente condiviso, credo, da molte persone. Ma sai che il titolo è Come risolvere Internet. Mi piacerebbe sentire la tua opinione su come il riconoscimento facciale potrebbe avere un ruolo nelle nostre vite se lo facciamo bene. Ad esempio, come sarebbe se avessimo il tipo di leggi, politiche e protezioni tecnologiche che trasformerebbero questo strumento in qualcosa di cui saremmo tutti piuttosto entusiasti piuttosto che, sai, preoccupati nel complesso.

COLLINA DEL KASHMIR
Sì, voglio dire, quindi alcuni attivisti ritengono che la tecnologia di riconoscimento facciale dovrebbe essere bandita del tutto. Evan Greer di Fight for the Future, lo sai, lo paragona alle armi nucleari e dice che ci sono troppi possibili svantaggi per cui non vale i benefici e dovrebbe essere bandito del tutto. Non credo che ciò possa accadere solo perché ho parlato con così tanti agenti di polizia che apprezzano davvero la tecnologia di riconoscimento facciale, pensano che sia uno strumento molto potente che, se usato correttamente, può essere una parte così importante del loro set di strumenti. Semplicemente non li vedo arrendersi.

Ma quando guardo cosa sta succedendo in questo momento, ci sono queste aziende come non solo Clearview AI, ma PimEyes, Facecheck, Eye-D. Ci sono motori di ricerca di volti pubblici che esistono adesso. Sebbene Clearview sia limitato all'uso da parte della polizia, questi sono su Internet. Alcuni sono addirittura gratuiti, altri richiedono un abbonamento. E proprio adesso negli Stati Uniti non abbiamo una grande infrastruttura legale, sicuramente a livello nazionale riguardo alla possibilità di farlo o meno. Ma c'è stato un approccio molto diverso in Europa dove si dice che i cittadini non dovrebbero essere inclusi in questi database senza il loro consenso. E, sapete, dopo che ho rivelato l'esistenza di Clearview AI, i regolatori della privacy in Europa, Canada, Australia, hanno indagato su Clearview AI e hanno affermato che ciò che aveva fatto era illegale, che avevano bisogno del consenso delle persone per inserirli nei database.

Quindi questo è un modo per gestire la tecnologia di riconoscimento facciale: non puoi semplicemente inserire i volti di tutti in un database e renderli ricercabili, devi prima ottenere il permesso. E penso che sia un modo efficace per gestirlo. I regolatori della privacy in realtà ispirati da Clearview AA hanno effettivamente lanciato un avvertimento ad altre società di intelligenza artificiale dicendo, ehi, solo perché ci sono tutte queste, ci sono tutte queste informazioni pubbliche su Internet, non significa che ne hai diritto. Potrebbe comunque esserci un interesse personale nei dati e potresti violare le nostre leggi sulla privacy raccogliendo queste informazioni.

Non abbiamo adottato questo approccio, soprattutto negli Stati Uniti, ad eccezione dell'Illinois, che ha una legge davvero forte che è rilevante per la tecnologia di riconoscimento facciale. Quando abbiamo ottenuto le leggi sulla privacy a livello statale, si dice che hai il diritto di uscire dai database. Quindi in California, ad esempio, puoi andare su Clearview AI e dire, ehi, voglio vedere il mio file. E se non ti piace quello che hanno su di te, puoi chiedere loro di cancellarti. Quindi è un approccio molto diverso, cercare di dare alle persone dei diritti sulla propria faccia. E la California richiede anche che le aziende dicano quante di queste richieste ricevono ogni anno. E così ho guardato e negli ultimi due anni meno di mille californiani hanno chiesto di cancellarsi dal database di Clearview e sai, la popolazione della California è molto più grande di quella, penso, conosci 34 milioni di persone o giù di lì e quindi io' Non sono sicuro di quanto siano efficaci queste leggi nel proteggere le persone in generale.

CINDY COHN
Ecco cosa ne sento. Il nostro mondo in cui facciamo le cose nel modo giusto è quello in cui disponiamo di una solida infrastruttura legale che protegge la nostra privacy. Ma è anche il caso in cui se la polizia vuole qualcosa, non significa che la ottenga. È un mondo in cui il controllo dei nostri volti e delle nostre impronte digitali spetta a noi e qualsiasi utilizzo deve avere il nostro permesso. Questa è la legge dell'Illinois chiamata BIPA – Biometric Privacy Act, o le autorità di regolamentazione straniere che hai menzionato.
Significa anche che un’azienda come Venmo non può semplicemente mettere i nostri volti sull’Internet pubblica, e un’azienda come Clearview non può semplicemente copiarli. Nessuno dei due può accadere senza il nostro permesso affermativo.

Penso che tecnologie come questa siano necessarie per avere buone risposte a due domande. Numero uno: a chi è utile la tecnologia: chi trae vantaggio se la tecnologia funziona nel modo giusto? E numero due: chi viene danneggiato se la tecnologia NON funziona correttamente?

Per quanto riguarda l’uso del riconoscimento facciale da parte della polizia, le risposte a entrambe le domande sono negative. Le persone normali non traggono vantaggio dal fatto che la polizia abbia i loro volti in quello che è stato definito uno schieramento perpetuo. E se la tecnologia non funziona, le persone possono pagare un prezzo molto alto venendo arrestate ingiustamente, come documenti nel tuo libro Kash.

Ma per la tecnologia di riconoscimento facciale che mi consente di sbloccare il telefono e manipolare app come le carte di credito digitali, traggo vantaggio dall'avere un modo semplice per bloccare e utilizzare il mio telefono. E se la tecnologia non funziona, uso semplicemente la mia password, quindi non è catastrofico. Ma come si confronta questo con la tua visione di un mondo di riconoscimento facciale fisso, Kash?

COLLINA DEL KASHMIR
Beh, non sono un politico. Sono un giornalista. Quindi in un certo senso vedo il mio lavoro come, ecco cosa è successo. Ecco come siamo arrivati ​​qui. Ed ecco come diverse persone stanno affrontando questo problema e cercando di risolverlo. Una cosa che mi interessa, hai parlato di Venmo, è che Venmo è stato uno dei primissimi posti in cui il tipo di creatore tecnico di Clearview AI, Hoan Ton-That, uno dei primi posti da cui ha parlato di come ottenere volti.

E questo è stato interessante per me come reporter sulla privacy perché ricordavo molto questa critica che la comunità sulla privacy aveva nei confronti di Venmo che, sai, quando ti iscrivi al sito di pagamento sociale, hanno reso tutto pubblico per impostazione predefinita, tutto le tue transazioni, ad esempio a chi stavi inviando denaro.

E c'è stata una forte reazione che diceva: Ehi, sai, la gente non si rende conto che lo stai rendendo pubblico per impostazione predefinita. Non si rendono conto che tutto il mondo può vederlo. Non capiscono come ciò possa tornare ad essere usato contro di loro. E, sai, alcuni degli usi iniziali erano, sai, persone che si scambiavano transazioni Venmo e come se ci mettessero siringhe e sai, foglie di cannabis e come sono state usate nei processi penali.

Ma ciò che è stato interessante con Clearview è che Venmo aveva effettivamente questo iPhone sulla sua home page su Venmo.com e mostravano transazioni reali che avvenivano sulla rete. E includeva le foto dei profili delle persone e un collegamento al loro profilo. Quindi Hoan Ton-That ha inviato questo raschietto a Venmo.com e lo avrebbe premuto ogni pochi secondi e avrebbe tirato giù le foto e i collegamenti alle foto del profilo e ha ottenuto, sai, milioni di volti in questo modo, e dice di essersi ricordato che gli addetti alla privacy erano un po' infastiditi dal fatto che Venmo rendesse tutto pubblico, e ha detto che ci sono voluti anni per cambiarlo, però.

JASON KELLEY
Eravamo molto arrabbiati per questo.

CINDY COHN
Sì, li avevamo sul nostro, avevamo un piccolo elenco chiamato Fix It Già nel 2019. Non era poco, in realtà era piuttosto lungo per problemi simili di privacy e altri problemi nelle aziende tecnologiche. E quello di Venmo era lì, giusto, nel 2019, penso che sia stato quando l'abbiamo lanciato. Nel 2021, l'hanno risolto, ma è stato proprio nel mezzo che è avvenuto tutto quel raschiamento.

COLLINA DEL KASHMIR
E Venmo non è certamente il solo a costringere tutti a rendere pubbliche le foto del proprio profilo, sai, anche Facebook lo ha fatto, ma è stato interessante quando ho esposto Clearview AI e ho detto, sai, ecco alcune delle aziende che loro prelevato da Venmo e anche da Facebook e LinkedIn, Google ha inviato lettere di cessazione e desistenza a Clearview e ha detto: Ehi, sai, tu, hai violato i nostri termini di servizio nella raccolta di questi dati. Vogliamo che tu lo elimini e le persone spesso chiedono, beh, allora cosa è successo dopo? E per quanto ne so, Clearview non ha cambiato le proprie pratiche. E queste società non hanno mai fatto altro oltre alle lettere di diffida.

Sai, non hanno fatto causa a Clearview. Uhm, quindi è chiaro che le aziende da sole non proteggeranno i nostri dati, e ci hanno spinto a essere più pubblici e ora il cerchio si chiude in un modo che non credo che la gente , quando mettono le loro foto su Internet si aspettavano che ciò accadesse.

CINDY COHN
Penso che dovremmo partire dalla fonte, cioè perché raccolgono in primo luogo tutti questi volti, le aziende? Perché ti spingono a mettere la tua faccia accanto alle tue transazioni finanziarie? Non è necessario che il tuo volto sia accanto a una transazione finanziaria, anche nei social media e in altri tipi di situazioni, non è necessario che sia pubblico. Le persone perdono potere perché c'è una mancanza di protezione della privacy tanto per cominciare, e le aziende ne stanno approfittando, per poi voltarsi indietro e fingere di essere arrabbiate per lo scraping, che penso sia tutto ciò che hanno fatto con la faccenda di Clearview.

Come se ci fossero problemi quaggiù. Ma non penso che, dal nostro punto di vista, la risposta non sia rendere lo scraping, che spesso è eccessivamente limitato, ancora più limitato. La risposta è provare a restituire alle persone il controllo su queste immagini.

COLLINA DEL KASHMIR
E capisco, voglio dire, so perché Venmo vuole le foto. Voglio dire, quando uso Venmo e pago qualcuno per la prima volta, voglio vedere che questo è il volto della persona che conosco prima di inviarlo a, sai, @happy, sai, pannolino su Venmo . Quindi fa parte della fiducia, ma sembra che potresti avere un'architettura diversa. Quindi non significa necessariamente che stai mostrando la tua faccia al mondo intero. Forse potresti semplicemente mostrarlo alle persone con cui stai effettuando transazioni.

JASON KELLEY
Ciò che stavamo spingendo a fare Venmo era quello che hai menzionato era renderlo NON pubblico per impostazione predefinita. E quello che penso sia interessante di quella campagna è che all'epoca eravamo preoccupati per una cosa, cioè la capacità di setacciare queste transazioni finanziarie e ottenere informazioni dalle persone. Non eravamo preoccupati, o almeno non credo che ne abbiamo parlato molto, della disponibilità delle foto pubbliche. Ed è interessante per me che ci siano così tanti modi in cui le impostazioni pubbliche diventano predefinite e che le impostazioni sulla privacy possono avere un impatto su persone di cui non siamo ancora a conoscenza, giusto?

COLLINA DEL KASHMIR
Penso che questa sia una delle sfide più grandi per le persone che cercano di proteggere la propria privacy: è così difficile prevedere come le informazioni che, sai, in un certo senso vengono fornite liberamente ad un certo punto potrebbero essere usate contro di te o utilizzate come armi in futuro come tecnologia migliora.

E quindi penso che sia davvero impegnativo. E non penso che la maggior parte delle persone, quando mettono liberamente le foto su Internet, il loro volto su Internet si aspettasse che Internet sarebbe stato riorganizzato per essere ricercabile per volto.

Ecco perché penso che regolamentare l'uso delle informazioni possa essere molto potente. È un po' come proteggere le persone dagli errori commessi in passato.

JASON KELLEY
Prendiamoci un breve momento per ringraziare il nostro sponsor. “How to Fix the Internet” è sostenuto dal programma della Fondazione Alfred P. Sloan per la comprensione pubblica della scienza e della tecnologia. Arricchire la vita delle persone attraverso un apprezzamento più acuto del nostro mondo sempre più tecnologico e ritraendo la complessa umanità di scienziati, ingegneri e matematici. E ora torniamo alla nostra conversazione con Kashmir Hill.

CINDY COHN
Quindi un sostenitore ha posto una domanda di cui sono curioso anch'io. Ti sei immerso in profondità nelle persone che hanno costruito questi sistemi, non solo quelli di Clearview, ma anche le persone prima di loro. E cosa hai trovato? Sono come il Dr. Evil, geni del male che intendevano, sai, costruire una distopia? Oppure ci sono persone che erano brave persone che cercavano di fare cose buone e che non vedevano le conseguenze di ciò che stavano vedendo o erano sorprese dalle conseguenze di ciò che stavano costruendo?

COLLINA DEL KASHMIR
Il libro parla di Clearview AI, ma parla anche di tutte le persone che hanno lavorato per realizzare la tecnologia di riconoscimento facciale per molti decenni.
Il governo stava cercando di far sì che i computer fossero in grado di riconoscere i volti umani nella Silicon Valley prima ancora che fosse chiamata Silicon Valley. La CIA, si sa, finanziava i primi ingegneri lì per provare a farlo con quegli enormi computer che, si sa, all'inizio degli anni '60 non erano in grado di farlo molto bene.

Ma in un certo senso sono tornato indietro e ho chiesto alle persone che ci avevano lavorato per così tanti anni quando era molto goffo e non funzionava molto bene, sai, stavi pensando a ciò a cui stai lavorando? Una specie di mondo in cui tutti sono facilmente rintracciabili dal volto, facilmente riconoscibili dal volto. Ed è stato semplicemente interessante. Voglio dire, queste persone che ci lavoravano negli anni '70, '80, '90, dicevano semplicemente che era impossibile immaginarlo perché i computer erano pessimi in questo, e non avremmo mai pensato davvero che avremmo mai raggiunto questo risultato dove siamo adesso, dove fondamentalmente, i computer sono più bravi degli umani nel riconoscimento facciale.

E quindi questo mi ha davvero colpito, e penso che ciò accada spesso, quando le persone lavorano su una tecnologia e vogliono solo risolvere quel puzzle, sai, completare quella sfida tecnica, e non ci pensano bene le implicazioni di cosa accadrebbe se avessero successo. E così questa filosofa della scienza con cui ho parlato, Heather Douglas, ha definito questa dolcezza tecnica.

CINDY COHN
Adoro quel termine.

COLLINA DEL KASHMIR
Questo tipo di motivazione è come, devo risolvere questo problema, il tipo di Jurassic Park, il dilemma di Jurassic Park dove è come, sarebbe davvero bello se riportassimo indietro i dinosauri.

Quindi questo è stato sorprendente per me e per tutte queste persone che ci stavano lavorando, non credo che nessuno di loro avesse visto arrivare qualcosa come Clearview AI e quando ho sentito parlare per la prima volta di Clearview, questa startup che aveva raschiato l'intera Internet e in un certo senso lo ha reso ricercabile per volto. Stavo pensando che ci deve essere qualche mente tecnologica qui che è stata in grado di farlo prima delle grandi aziende, Facebook, Google. Come hanno fatto prima?

E quello che vorrei capire è questo. Sapete, quello che hanno fatto è stata più una svolta etica che tecnologica. Aziende come Google e Facebook lo hanno sviluppato internamente e, in modo scioccante, queste aziende che hanno rilasciato molti tipi di prodotti senza precedenti, hanno deciso che una tecnologia di riconoscimento facciale come questa era troppo, l'hanno trattenuta e hanno deciso di non rilasciarla.

E quindi Clearview AI era semplicemente disposta a fare ciò che altre aziende non erano state disposte a fare. Ho pensato che fosse interessante e parte del motivo per cui ho scritto il libro è, sai, chi sono queste persone e perché hanno fatto questo? E onestamente, all’inizio avevano alcune idee preoccupanti su come utilizzare la tecnologia di riconoscimento facciale.

Quindi una delle prime implementazioni di Clearview AI, prima che fosse chiamata Clearview AI, fu al Deploraball, questo tipo di evento inaugurale in cui Trump diventava presidente e lo stavano usando perché sarebbe stato questo raduno di tutti questi persone che avevano sostenuto Trump, il tipo di folla MAGA, di cui facevano parte alcuni dei fondatori di Clearview AI. Ed erano preoccupati di essere infiltrati da Antifa, che credo sia il modo in cui lo pronunciano, e quindi volevano eseguire un controllo sui precedenti degli acquirenti di biglietti e scoprire se qualcuno di loro fosse di estrema sinistra.

E a quanto pare questo smartchecker ha funzionato per questo e hanno identificato due persone che stavano cercando di entrare e che non avrebbero dovuto. E l'ho scoperto perché l'hanno incluso in una presentazione PowerPoint che avevano sviluppato per il governo ungherese. Stavano cercando di presentare all’Ungheria il loro prodotto come mezzo di controllo delle frontiere. E quindi l'idea era che si potesse usare questo prodotto per il controllo dei precedenti, questa tecnologia di riconoscimento facciale, per tenere lontane le persone che non volevi entrare nel paese.

E hanno detto che l'avevano messo a punto in modo che funzionasse su persone che lavoravano con la Open Society Foundations e George Soros perché sapevano che il leader ungherese, Viktor Orban, non era un fan della folla di Soros.

E quindi per me, ho pensato che sembrasse piuttosto allarmante il fatto che lo avresti usato per identificare essenzialmente dissidenti politici, attivisti e sostenitori della democrazia, che quello fosse il luogo in cui andavano le loro menti per il loro prodotto quando era molto presto, fondamentalmente ancora in fase di prototipo.

CINDY COHN
Penso che sia importante riconoscere che questi strumenti, come molte tecnologie, sono strumenti a duplice uso, giusto, e dobbiamo pensare molto attentamente a come possono essere utilizzati e creare leggi e politiche lì perché non sono sicuro che puoi usare qualche tipo di mezzo tecnologico per assicurarti che solo i bravi ragazzi utilizzino questo strumento per fare cose buone e che i cattivi no.

JASON KELLEY
Una delle cose che hai menzionato riguardo ad una sorta di ricerca governativa sul riconoscimento facciale mi ricorda che poco dopo aver pubblicato la tua prima storia su Clearview nel gennaio del 2020, penso che abbiamo pubblicato un sito web chiamato Who Has Your Face, che noi' Avevo fatto delle ricerche per, non so, dai quattro ai sei mesi o qualcosa prima, cercando specificamente di far sapere alle persone quali enti governativi avevano accesso, diciamo, alla tua foto DMV o alla tua foto tessera per il riconoscimento facciale scopi, e questo è uno dei migliori esempi, credo, di come, un po' come Venmo, metti da qualche parte informazioni che sono, anche in questo caso, richieste dalla legge, e non ti aspetti mai che l'FBI sia in grado di gestire riconoscimento facciale su quell'immagine basato su una foto di sorveglianza, ad esempio.

COLLINA DEL KASHMIR
Quindi mi fa pensare a due cose, e una è, sai, come parte del libro stavo guardando indietro alla storia degli Stati Uniti pensando alla tecnologia di riconoscimento facciale e alla creazione di guardrail o, per la maggior parte, NON alla creazione di guardrail.

E se ne sentiva parlare più di dieci anni fa. Penso che in realtà Jen Lynch dell'EFF abbia testimoniato. Ed è stato come 10 anni fa quando la tecnologia di riconoscimento facciale stava diventando abbastanza buona da essere implementata. E l'FBI stava iniziando a costruire un database per il riconoscimento facciale e i dipartimenti di polizia stavano iniziando a utilizzare questo tipo di prime app.

Mi dà fastidio pensare al solo fatto di conoscere i problemi di pregiudizio che la tecnologia di riconoscimento facciale aveva in quel momento per il fatto che la stavano utilizzando attivamente. Ma i legislatori erano preoccupati e si chiedevano: di chi sarà la foto qui? E i rappresentanti del governo che erano lì, le forze dell'ordine, in quel momento dissero che stiamo usando solo foto segnaletiche criminali.

Sai, non ci interessano le vicende degli americani normali. Vogliamo solo essere in grado di riconoscere i volti delle persone che sappiamo hanno già avuto incontri con la legge e vogliamo essere in grado di tenere traccia di quelle persone. Ed è stato interessante per me perché negli anni a venire, la situazione sarebbe cambiata, sai, hanno iniziato a inserire le foto delle patenti di guida statali in alcuni posti, e alla fine non si trattava solo di criminali che venivano rintracciati o di persone, non sempre anche criminali, solo persone che hanno avuto incontri con le forze dell'ordine in cui si sono ritrovati con una foto segnaletica.

Ma questo è il tipo di rana che ribolle del tipo "beh, inizieremo semplicemente con alcune di queste foto e poi sai che in realtà aggiungeremo alcune foto della patente di guida statale e poi inizieremo a utilizzare un'azienda" chiamato Clearview AI che ha raschiato l'intera Internet. Ehm, conosci tutti sul pianeta in questo database di riconoscimento facciale.

Quindi parla solo di questa sfida di controllarlo, sai, questo tipo di sorveglianza in cui una volta che inizi a configurare il sistema, vuoi solo inserire sempre più dati e vuoi sorvegliare le persone in sempre più modi .

CINDY COHN
E nel libro racconti alcune storie meravigliose o addirittura storie orribili su persone che sono state erroneamente identificate. E la risposta degli esperti di tecnologia è: beh, allora abbiamo solo bisogno di più dati. Giusto? Abbiamo bisogno delle patenti di guida di tutti, non solo delle foto segnaletiche. E in questo modo eliminiamo i pregiudizi che derivano dal solo utilizzo delle foto segnaletiche. Oppure racconti una storia di cui parlo spesso, ovvero, credo che il governo cinese stesse avendo difficoltà con il riconoscimento facciale, riconoscendo i volti neri, e hanno stretto alcuni accordi in Africa solo per ottenere all'ingrosso un sacco di volti neri, quindi potrebbero allenarsi su di esso.

E, sapete, per noi, parlare di pregiudizi in un modo che non parla realmente di una riforma globale della privacy e parla invece solo di pregiudizi finisce in questo mondo tecnologico in cui la soluzione è più volti delle persone nel sistema.

E lo vediamo con tutti i tipi di altri dati biometrici in cui ci sono problemi di parzialità con i dati di addestramento o con i dati iniziali.

COLLINA DEL KASHMIR
Sì. Quindi questo è già qualcosa, quindi i pregiudizi sono stati per molto tempo un grosso problema con la tecnologia di riconoscimento facciale. E gran parte del problema era che non disponevano di database di formazione diversificati. E, sai, molte delle persone che stavano lavorando alla tecnologia di riconoscimento facciale erano bianchi, uomini bianchi, e si sarebbero assicurati che funzionasse bene su di loro e sulle altre persone con cui lavoravano.

E così avevamo tecnologie che semplicemente non funzionavano altrettanto bene su altre persone. Una di quelle prime società di tecnologia di riconoscimento facciale con cui ho parlato che era in affari, sai, nel 2000, 2001, utilizzata al Super Bowl di Tampa nel 2000 e nel 2001 per scansionare segretamente i volti dei tifosi di calcio alla ricerca di borseggiatori e biglietti scalper.

Quella società mi ha detto che hanno dovuto ritirarsi da un progetto in Sud Africa perché hanno scoperto che la tecnologia semplicemente non funzionava su persone che avevano la pelle più scura. Ma la comunità degli attivisti ha attirato molta attenzione sul fatto che esista questo problema di pregiudizi e i fornitori di riconoscimento facciale lo hanno sentito e lo hanno affrontato creando set di formazione più diversificati.

E così ora stanno addestrando i loro algoritmi a lavorare su gruppi diversi e la tecnologia è migliorata molto. Il problema è stato davvero risolto e questi algoritmi non presentano più lo stesso tipo di problemi.

Nonostante ciò, sai, la manciata di arresti illegali di cui ho parlato. dove le persone vengono arrestate per il reato di assomigliare a qualcun altro. Uh, hanno tutti coinvolto persone di colore. Finora una donna, una donna incinta di otto mesi, è stata arrestata per furto d'auto e rapina un giovedì mattina mentre stava preparando i suoi due figli per la scuola.

E quindi, anche se risolvi il problema dei bias negli algoritmi, avrai comunque il problema di, beh, su chi viene utilizzata questa tecnologia? Chi è questo abituato alla polizia? E quindi sì, penso che sarà ancora un problema. E poi ci sono queste questioni più grandi, legate alle libertà civili, che devono ancora essere affrontate. Sai, vogliamo che la polizia utilizzi la tecnologia di riconoscimento facciale? E se sì, quali dovrebbero essere le limitazioni?

CINDY COHN
Penso che, per noi, nel pensare a questo, la questione centrale sia chi è responsabile del sistema e chi sostiene i costi se è sbagliato. Le conseguenze di una brutta partita sono molto più significative del semplice, oh Dio, i poliziotti per un secondo hanno pensato che fossi la persona sbagliata. In realtà non è così che si svolge nella vita delle persone.

COLLINA DEL KASHMIR
Non credo che la maggior parte delle persone che non sono state arrestate prima si rendano conto di quanto possa essere traumatica l'intera esperienza. Sapete, nel libro parlo di Robert Williams che fu arrestato dopo essere tornato a casa dal lavoro, davanti a tutti i suoi vicini, davanti a sua moglie e alle sue due giovani figlie, passò la notte in prigione, sapete, era accusato, ha dovuto assumere un avvocato per difenderlo.

Stessa cosa, Portia Woodruff, la donna incinta, portata in carcere, denunciata, anche se la donna che cercavano aveva commesso il delitto un mese prima e non era visibilmente incinta, voglio dire era così chiaro che avevano torto persona. Eppure, ha dovuto assumere un avvocato, respingere le accuse, ed è finita in ospedale dopo essere stata detenuta tutto il giorno perché era molto stressata e disidratata.

E quindi sì, quando ci sono persone che fanno troppo affidamento sulla tecnologia di riconoscimento facciale e non eseguono indagini adeguate, ciò può avere un effetto molto dannoso sulla vita delle singole persone.

CINDY COHN
Sì, voglio dire, una delle mie speranze è che quando, sai, quelli di noi che sono coinvolti nella tecnologia cercando di far approvare leggi sulla privacy e altri tipi di cose possano avere degli effetti a catena sul tentativo di rendere la giustizia penale sistema migliore. Non dovremmo entrare e parlare solo dell'aspetto tecnologico, giusto?

Perché fa tutto parte di un sistema che a sua volta necessita di riforme. E quindi penso che sia importante riconoscere, ehm, anche questo e non solo cercare di districare la parte tecnologica dal resto del sistema ed è per questo che penso che l'EFF sia arrivata alla posizione secondo cui l'uso governativo di questo è così problematico che è difficile immaginare un mondo in cui sia fisso.

COLLINA DEL KASHMIR
In termini di parlare di leggi che sono state efficaci, ne abbiamo accennato prima, ma l'Illinois ha approvato questa legge nel 2008, il Biometric Information Privacy Act, una legge rara che si è mossa più velocemente della tecnologia.

E dice che se vuoi usare i dati biometrici di qualcuno, come l'impronta del volto o l'impronta digitale per l'impronta vocale, devi ottenere il suo consenso, o come azienda, o sarai multato. E così il Madison Square Garden sta utilizzando la tecnologia di riconoscimento facciale per tenere lontane le minacce alla sicurezza e gli avvocati in tutte le sue sedi di New York City: The Beacon Theatre, Radio City Music Hall, Madison Square Garden.

La compagnia ha anche un teatro a Chicago, ma non può usare la tecnologia di riconoscimento facciale per tenere lontani gli avvocati perché avrebbero bisogno del loro consenso per usare i loro dati biometrici in quel modo. Quindi è un esempio di una legge che è stata abbastanza efficace nel controllare il modo in cui viene utilizzata la tecnologia, forse impedendo che venga utilizzata in un modo che le persone trovano preoccupante.

CINDY COHN
Penso che sia un punto davvero importante. Penso che a volte le persone che lavorano nel campo della tecnologia disperano che la legge possa davvero fare qualcosa, e pensano che le soluzioni tecnologiche siano le uniche che funzionano davvero. E penso sia importante sottolineare che non è sempre vero. E l'altro punto che fai nel tuo libro a riguardo che apprezzo molto è il Wiretap Act, giusto?

Ad esempio, il motivo per cui molte delle cose che vediamo sono visive e non vocali, // puoi anche fare impronte vocali, proprio come puoi fare impronte facciali, ma non lo vediamo.

E il motivo per cui non lo vediamo è perché in realtà abbiamo leggi federali e statali molto severe sulle intercettazioni telefoniche che impediscono la raccolta di questo tipo di informazioni tranne che in determinate circostanze. Ora, mi piacerebbe vedere queste circostanze ampliate, ma esiste ancora. E penso che, sai, riconoscere dove abbiamo strutture legali che ci hanno fornito una certa protezione, anche se lavoriamo per migliorarle, è una cosa importante per le persone che nuotano nella tecnologia per riconoscere.

COLLINA DEL KASHMIR
Il lavoro legislativo è uno dei temi del libro.

CINDY COHN
Grazie mille, Kash, per esserti unito a noi. È stato davvero divertente parlare di questo importante argomento.

COLLINA DEL KASHMIR
Grazie per avermi ospitato. È ottimo. Apprezzo davvero il lavoro svolto da EFF e il fatto di parlare con tutti voi per così tante storie. Quindi grazie.

JASON KELLEY
È stata una conversazione davvero divertente perché adoravo quel libro. La storia è estremamente interessante e mi è davvero piaciuto poter parlare con lei delle questioni specifiche che vediamo in questa storia, che so che possiamo applicare a tutti i tipi di altre storie e sviluppi tecnici e progressi tecnologici che stiamo facendo. pensando continuamente a EFF.

CINDY COHN
Sì, penso che sia fantastico avere qualcuno come Kashmir che si tuffa in profondità in qualcosa di cui passiamo molto tempo a parlare all'EFF e, sai, non solo nel riconoscimento facciale, ma nell'intelligenza artificiale e nei sistemi di apprendimento automatico più in generale, e dare davvero noi, la sua storia e la storia dietro di essa in modo che possiamo radicare il nostro pensiero in una realtà più reale. E, sai, finisce per essere una bella storia allegra.

JASON KELLEY
Sì, quello che mi ha sorpreso è che penso che la maggior parte di noi abbia visto che il riconoscimento facciale è esploso molto rapidamente, ma in realtà non è così. Gran parte del libro, scrive, riguarda la storia del suo sviluppo e, um, sai, avremmo potuto pensare a come risolvere i potenziali problemi con il riconoscimento facciale decenni fa, ma nessuno si aspettava che questo sarebbe successo. esplodere nel modo in cui è successo fino a quando non è successo.

E ho davvero pensato che fosse interessante che la sua spiegazione di come sia esploso così velocemente non fosse tanto uno sviluppo tecnico quanto etico.

CINDY COHN
Sì, adoro quella prospettiva, vero?

JASON KELLEY
Voglio dire, è una cosa terribile, ma è utile pensarci, giusto?

CINDY COHN
Sì, e mi ricorda ancora una volta la cosa di cui parliamo molto, ovvero l'articolazione di Larry Lessig sui quattro modi in cui puoi controllare il comportamento online. Ci sono i mercati, ci sono le leggi, ci sono le norme e c'è l'architettura. In questo sistema, sai, avevamo. norme che sono state superate.

Ciò che Clearview ha fatto, secondo lei, non è stata una svolta tecnica, ma una svolta etica. Penso che indichi la strada dove potresti aver bisogno di leggi.
C'è anche un pezzo di architettura però. Sai, se Venmo non avesse impostato il suo sistema in modo che i volti di tutti fossero facilmente resi pubblici e scartabili, sai, quella decisione architettonica avrebbe potuto avere un impatto piuttosto grande su quanto vasta questa azienda fosse in grado di espandersi e dove avrebbero potuto guardare .

Quindi abbiamo un pezzo di architettura, abbiamo un pezzo di norme, abbiamo un pezzo di mancanza di leggi. È chiaro che una legge completa sulla privacy sarebbe stata molto utile in questo caso.

E poi c'è l'altro pezzo sui mercati, giusto? Sapete, quando vendi nel mercato delle forze dell'ordine, che è dove Clearview ha finalmente trovato l'acquisto, quello è un mercato estremamente potente. E finisce per snaturare anche gli altri.

JASON KELLEY
Esattamente.

CINDY COHN
Una volta che le forze dell'ordine decidono che vogliono qualcosa, voglio dire, quando ho chiesto a Kash, sai, cosa ne pensi dell'idea di vietare il riconoscimento facciale? Uh, ha detto, beh, penso che alle forze dell'ordine piaccia davvero. E quindi non credo che verrà vietato. E ciò che ci dice è questo particolare mercato. può prevalere su tutti gli altri pezzi, e penso che lo vediamo anche in gran parte del lavoro che svolgiamo alla EFF.

Sapete, dobbiamo ritagliarci uno spazio migliore in modo da poter effettivamente dire no alle forze dell'ordine, piuttosto che, beh, se le forze dell'ordine lo vogliono, allora abbiamo finito in termini di cose, e penso che ciò sia davvero dimostrato da questa storia.

JASON KELLEY
Grazie per esserti unito a noi in questo episodio su come sistemare Internet.
Se hai feedback o suggerimenti, ci piacerebbe sentire la tua opinione. Visita FEP. org barra podcast e fai clic sul feedback degli ascoltatori. Mentre sei lì, puoi diventare un membro, donare, magari ritirare qualche merchandising e vedere cosa succede nei diritti digitali questa settimana e ogni settimana.

Questo podcast è concesso in licenza Creative Commons Attribution 4.0 International e include musica concessa in licenza Creative Commons Attribution 3.0 Unported dai suoi creatori.

In questo episodio hai ascoltato Cult Orrin di Alex con Starfrosh e Jerry Spoon.

E Drops of H2O, The Filtered Water Treatment, di Jay Lang, con Airtone.

Puoi trovare i collegamenti alla loro musica nelle note degli episodi o sul nostro sito Web all'indirizzo eff.org/podcast.

Il nostro tema musicale è di Nat Keefe di BeatMower con Reed Mathis

How to Fix the Internet è supportato dal programma della Alfred P. Sloan Foundation per la comprensione pubblica della scienza e della tecnologia.

Ci vediamo la prossima volta.

Sono Jason Kelley.

CINDY COHN
E io sono Cindy Cohn.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2024/03/podcast-episode-about-face-recognition in data Tue, 26 Mar 2024 07:05:23 +0000.