Fondazione Frontiera Elettronica

I legislatori dell’UE devono respingere questa proposta di scansionare le chat private

I legislatori dell'UE devono respingere questa proposta di scansionare le chat private

Avere una conversazione privata è un diritto umano fondamentale. Come il resto dei nostri diritti, non dovremmo perderli quando andiamo online. Ma una nuova proposta dell'Unione Europea potrebbe buttare fuori dalla finestra i nostri diritti alla privacy.

PER SAPERNE DI PIÙ

Dillo al Parlamento europeo: smettila di scansionarmi

L'organo esecutivo dell'Unione Europea sta portando avanti una proposta che potrebbe portare alla scansione obbligatoria di ogni messaggio privato, foto e video. La Commissione Europea vuole aprire i dati intimi delle nostre vite digitali alla revisione da parte di software di scansione approvati dal governo, e quindi confrontati con database che conservano immagini di abusi sui minori.

La tecnologia non funziona bene . E lanciare un sistema di "cimici nelle nostre tasche" è semplicemente sbagliato, anche quando viene fatto in nome della protezione dei bambini.

Non abbiamo bisogno che gli osservatori del governo esaminino le nostre conversazioni private, che si tratti di intelligenza artificiale, robot o polizia dal vivo. Gli adulti non ne hanno bisogno e nemmeno i bambini ne hanno bisogno.

Se ti trovi in ​​uno dei 27 paesi membri dell'UE , è un buon momento per contattare il tuo membro del Parlamento europeo e fargli sapere che sei contrario a questa pericolosa proposta. Oggi, i nostri partner di European Digital Rights (EDRi) hanno lanciato un sito web chiamato "Stop Scanning Me", con maggiori informazioni sulla proposta e sui suoi problemi. Presenta un'analisi legale dettagliata del regolamento e una lettera co-firmata da 118 ONG che si oppongono a questa proposta, incluso il FEP. Chi parla tedesco potrebbe anche voler visualizzare e condividere Chatkontrolle Stoppen! Sito web gestito da gruppi tedeschi per le libertà civili.

Anche se non risiedi nell'UE, questo regolamento dovrebbe comunque interessarti. Le grandi piattaforme di messaggistica non si ritireranno da questo enorme mercato, anche se ciò significa abbandonare gli impegni di privacy e sicurezza nei confronti dei propri utenti. Ciò interesserà gli utenti di tutto il mondo, anche quelli che non comunicano regolarmente con persone nell'UE.

"Ordini di rilevamento" per ascoltare conversazioni private

La proposta di regolamento sugli abusi sessuali sui minori (CSAR) dell'UE è un deludente passo indietro. In passato, l'UE ha assunto un ruolo guida nella legislazione sulla privacy che, sebbene non perfetta, si è mossa nella direzione di aumentare, anziché diminuire, la privacy delle persone, come il Regolamento generale sulla protezione dei dati (GDPR) e l'e-Privacy Direttiva. Ma il regolamento CSA va nella direzione opposta. Non rispetta la Carta dei diritti fondamentali dell'UE e mina la legge sui servizi digitali adottata di recente , che già conferisce poteri alle autorità per rimuovere i contenuti illegali.

La proposta impone alle piattaforme online e ai fornitori di servizi di messaggistica di mitigare i contenuti offensivi e incentiva il monitoraggio generale della comunicazione degli utenti. Ma se dopo queste mitigazioni permangono rischi "significativi" di abusi sessuali su minori online – e non è del tutto chiaro cosa ciò significhi in pratica – le forze dell'ordine possono inviare "ordini di rilevamento" alle piattaforme tecnologiche. Una volta emesso un ordine di rilevamento, alla società che gestisce la piattaforma potrebbe essere richiesto di scansionare messaggi, foto, video e altri dati utilizzando un software approvato dalle forze dell'ordine.

Con gli ordini di rilevamento in atto, le piattaforme non saranno in grado di ospitare conversazioni veramente private. Sia che eseguano la scansione dei messaggi delle persone su un server centrale o sui propri dispositivi , il regolamento CSA semplicemente non sarà compatibile con la crittografia end-to-end.

Non contenti di rivedere i nostri dati e confrontarli con i database governativi degli abusi sui minori esistenti, gli autori della proposta vanno molto oltre. Il CSAR suggerisce di utilizzare algoritmi per indovinare quali altre immagini potrebbero rappresentare un abuso. Prevede persino di cercare il "grooming" utilizzando l'intelligenza artificiale per esaminare i messaggi di testo delle persone per cercare di indovinare quali comunicazioni potrebbero suggerire futuri abusi sui minori.

Le grandi società di social media spesso non riescono nemmeno a mantenere le promesse dichiarate delle proprie politiche di moderazione dei contenuti. È incredibile che i legislatori dell'UE possano ora costringere queste aziende a utilizzare i loro algoritmi di sorveglianza non funzionanti per muovere accuse contro i propri utenti dei peggiori tipi di crimini.

La Commissione Europea sta promuovendo l'intelligenza artificiale per il rilevamento dei crimini che non funziona

È difficile verificare l'accuratezza del software più comunemente utilizzato per rilevare materiale pedopornografico (CSAM). Ma i dati che sono emersi dovrebbero inviare segnali di allarme, non incoraggiare i legislatori ad andare avanti.

  • Uno studio di Facebook ha rilevato che il 75% dei messaggi contrassegnati dal suo sistema di scansione per rilevare materiale pedopornografico non erano "dannosi" e includevano messaggi come brutti scherzi e meme.
  • LinkedIn ha segnalato 75 casi di sospetti atti di pedofilia alle autorità dell'UE nel 2021. Dopo la revisione manuale, solo 31 di questi casi , circa il 41%, riguardavano atti di pedofilia confermati.
  • I dati appena rilasciati dall'Irlanda, pubblicati in un rapporto dei nostri partner di EDRi (vedi pagina 34), mostrano ulteriori imprecisioni. Nel 2020, la polizia irlandese ha ricevuto 4.192 segnalazioni dal Centro nazionale statunitense per i bambini scomparsi e sfruttati (NCMEC). Di questi, 852 deferimenti (20,3%) sono stati confermati come effettivi CSAM. Di questi, 409 rinvii (9,7%) sono stati ritenuti "azionabili" e 265 rinvii (6,3%) sono stati "completati" dalla polizia irlandese.

Nonostante l'insistenza di promotori e funzionari delle forze dell'ordine sul fatto che il software di scansione abbia livelli di accuratezza magicamente elevati, fonti indipendenti lo chiariscono: la scansione diffusa produce un numero significativo di false accuse. Una volta che l'UE avrà votato per iniziare a eseguire il software su miliardi di messaggi in più, ciò porterà a milioni di false accuse in più. Queste false accuse vengono inoltrate alle forze dell'ordine. Nella migliore delle ipotesi, sono uno spreco; hanno anche il potenziale per produrre sofferenza nel mondo reale.

I falsi positivi causano danni reali. Un recente articolo del New York Times ha evidenziato uno scanner Google CSAM difettoso che ha erroneamente identificato due padri statunitensi di bambini piccoli come abusatori di bambini. Entrambi gli uomini, infatti, avevano inviato foto mediche delle infezioni sui loro figli su richiesta dei loro pediatri. I loro dati sono stati esaminati dalla polizia locale e gli uomini sono stati scagionati da ogni illecito. Nonostante la loro innocenza, Google ha cancellato definitivamente i loro account, ha sostenuto il sistema di intelligenza artificiale fallito e ha difeso il loro opaco processo di revisione umana.

Per quanto riguarda i dati irlandesi recentemente pubblicati, la polizia nazionale irlandese ha verificato di conservare attualmente tutti i dati personali trasmessi loro dall'NCMEC, inclusi nomi utente, indirizzi e-mail e altri dati di utenti innocenti verificati.

Coltivare il pagliaio

L'abuso sui minori è orrendo. Quando la tecnologia digitale viene utilizzata per scambiare immagini di abusi sessuali su minori, si tratta di un crimine grave che merita indagini e procedimenti giudiziari.

Ecco perché non dovremmo disperdere gli sforzi in azioni inefficaci e persino dannose. La stragrande maggioranza delle interazioni su Internet non sono atti criminali. La polizia che indaga sui crimini online è già nella posizione di cercare un proverbiale "ago in un pagliaio". L'introduzione della scansione obbligatoria delle nostre foto e dei nostri messaggi non li aiuterà a restringere il bersaglio, ma amplierà enormemente il "pagliaio".

La proposta di regolamento dell'UE suggerisce anche la verifica obbligatoria dell'età come percorso per ridurre la diffusione del materiale pedopornografico. Non esiste alcuna forma di verifica dell'età online che non abbia effetti negativi sui diritti umani dei parlanti adulti. Le società di verifica dell'età tendono a raccogliere (e condividere) dati biometrici . Il processo interferisce anche con il diritto degli adulti di parlare in modo anonimo, un diritto che è particolarmente vitale per i dissidenti e le minoranze che possono essere oppresse o insicure.

Gli stati dell'UE o altre nazioni occidentali potrebbero essere le prime nazioni a vietare la crittografia per scansionare ogni messaggio. Non saranno gli ultimi. I governi di tutto il mondo lo hanno chiarito: vogliono leggere i messaggi crittografati delle persone. Saranno felici di mettere in evidenza il terrorismo, i crimini contro i bambini o altre atrocità se questo fa sì che i loro cittadini accettino una maggiore sorveglianza. Se questo regolamento passa, i paesi autoritari, che spesso dispongono già di regimi di sorveglianza, chiederanno di applicare la scansione dei messaggi in stile UE per trovare i propri "crimini". L'elenco includerà probabilmente governi che attaccano i dissidenti e criminalizzano apertamente le comunità LBGT+.

PER SAPERNE DI PIÙ

Dillo al Parlamento europeo: smettila di scansionarmi


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2022/10/eu-lawmakers-must-reject-proposal-scan-private-chats in data Wed, 19 Oct 2022 22:02:50 +0000.