Fondazione Frontiera Elettronica

I nostri principi politici dell’UE: controlli utente

I nostri principi politici dell'UE: controlli utente

Mentre l'UE si sta preparando per un'importante riforma della regolamentazione chiave di Internet, stiamo introducendo i principi che guideranno il nostro lavoro politico relativo al Digital Services Act (DSA). Crediamo che il DSA sia un'opportunità chiave per cambiare Internet in meglio; mettere in discussione il paradigma di catturare l'attenzione degli utenti che modella i nostri ambienti online in modo così fondamentale e ripristinare l'autonomia e il controllo degli utenti. In questo post, introduciamo principi politici che mirano a rafforzare l'autodeterminazione informativa degli utenti e quindi a promuovere comunità online più sane che consentono un discorso deliberativo.

Una possibilità per reinventare il regolamento della piattaforma

Tra pochi mesi, la Commissione Europea presenterà la sua tanto attesa proposta di Digital Services Act , la più significativa riforma della regolamentazione delle piattaforme europee degli ultimi due decenni. La legge, che modernizzerà la spina dorsale della legislazione Internet dell'UE, la direttiva sul commercio elettronico, stabilirà nuove responsabilità e regole per le piattaforme online.

L'EFF sostiene l'obiettivo della Commissione di promuovere una società digitale inclusiva, equa e accessibile . Riteniamo che fornire agli utenti maggiore trasparenza e autonomia per comprendere e plasmare le forze che determinano le loro esperienze online sia la chiave per raggiungere questo obiettivo. Attualmente esiste una significativa asimmetria tra gli utenti e le potenti piattaforme gatekeeper che controllano gran parte del nostro ambiente online. Con l'aiuto di strumenti algoritmici opachi, le piattaforme distribuiscono e curano i contenuti, raccolgono grandi quantità di dati sui propri utenti e li inondano di pubblicità mirate. Mentre le piattaforme acquisiscono (e monetizzano) una profonda comprensione dei propri utenti, sia a livello individuale che collettivo, gli utenti sono all'oscuro di come i loro dati vengono raccolti, sfruttati per scopi commerciali e sfruttati per plasmare i loro ambienti online. Non solo gli utenti non vengono informati sugli intricati algoritmi che governano il loro linguaggio e le loro azioni online; Le piattaforme inoltre formulano e modificano unilateralmente le linee guida della community e i termini di servizio, spesso senza nemmeno informare gli utenti delle modifiche rilevanti.

Il DSA è un'opportunità cruciale per sancire l'importanza del controllo degli utenti e per spingere le piattaforme ad essere più responsabili nei confronti del pubblico. Ma c'è anche il rischio che la legge sui servizi digitali segua le orme dei recenti sviluppi normativi in ​​Germania e Francia. Il NetzDG tedesco e il disegno di legge sull'aviazione francese (che abbiamo contribuito a far cadere in tribunale) mostrano una tendenza preoccupante nell'UE di costringere le piattaforme a sorvegliare i contenuti degli utenti senza controbilanciare tali nuovi poteri con maggiore autonomia, scelta e controllo dell'utente.

L'EFF collaborerà con le istituzioni dell'UE per lottare per i diritti degli utenti, le garanzie procedurali e l' interoperabilità preservando gli elementi che hanno reso la regolamentazione europea su Internet un successo: responsabilità limitata per le piattaforme online per i contenuti generati dagli utenti e un chiaro divieto di filtraggio e monitoraggio .

Principio 1: dare agli utenti il ​​controllo sui contenuti

Molti servizi come Facebook e Twitter presentavano originariamente un elenco strettamente cronologico di post degli amici degli utenti. Nel tempo, la maggior parte delle piattaforme di grandi dimensioni ha scambiato quella presentazione cronologica con algoritmi più complessi (e opachi) che ordinano, curano e distribuiscono i contenuti, inclusa la pubblicità e altri contenuti promossi. Questi algoritmi, determinati dalla piattaforma, non sono necessariamente incentrati sulla soddisfazione delle esigenze degli utenti, ma di solito perseguono l'unico obiettivo di massimizzare il tempo e l'attenzione che le persone dedicano a un determinato sito web. I post con più "coinvolgimento" hanno la priorità, anche se tale coinvolgimento è guidato da forti emozioni come rabbia o disperazione provocate dal post. Mentre gli utenti a volte possono tornare al flusso cronologico, il design delle interfacce delle piattaforme spesso li spinge a tornare indietro. Le interfacce che ingannano o manipolano gli utenti, compresi i " modelli oscuri ", spesso violano i principi fondamentali delle leggi europee sulla protezione dei dati e dovrebbero essere affrontate nel Digital Services Act, ove appropriato.

Gli strumenti algoritmici delle piattaforme sfruttano la loro profonda conoscenza dei propri utenti, assemblati da migliaia di punti dati apparentemente non correlati. Molte delle inferenze tratte da quei dati sembrano inaspettate per gli utenti: le piattaforme hanno accesso a dati che risalgono più indietro di quanto la maggior parte degli utenti si renda conto e sono in grado di trarre conclusioni sia dal comportamento individuale che collettivo. Le ipotesi sulle preferenze degli utenti sono quindi spesso formulate facendo inferenze da punti dati apparentemente non correlati. Ciò può modellare (e spesso limitare) i modi in cui gli utenti possono interagire con i contenuti online e può anche amplificare la disinformazione e la polarizzazione in modi che possono minare lo scambio trasparente e deliberato di informazioni su cui sono costruite le società democratiche.

Gli utenti non devono accettarlo. Esistono molti plugin di terze parti che rielaborano l'aspetto e il contenuto delle piattaforme social in base alle esigenze e alle preferenze delle persone. Ma al momento, la maggior parte di questi plugin richiede competenze tecniche per essere individuati e installati e le piattaforme hanno un forte incentivo a nascondere e impedire l'adozione da parte degli utenti di tali strumenti indipendenti. Il DSA è l'occasione d'oro dell'Europa per creare un ambiente legale più amichevole per incoraggiare e supportare questo mercato orientato all'utente. Il regolamento dovrebbe sostenere l' interoperabilità e consentire la compatibilità competitiva , e dovrebbe stabilire regole esplicite e applicabili contro termini di servizio troppo aggressivi che cercano di vietare qualsiasi reverse engineering e interconnessione. Al di là del Digital Services Act, l'UE deve sostenere attivamente progetti open source e commerciali in Europa che offrono front-end localizzati o che responsabilizzano gli utenti alle piattaforme e contribuiscono a promuovere un mercato vivace e vitale per questi strumenti.

Dare alle persone, al contrario delle piattaforme, un maggiore controllo sui contenuti è un passaggio cruciale per affrontare alcuni dei problemi più diffusi online che sono attualmente mal gestiti attraverso pratiche di moderazione dei contenuti. I controlli degli utenti non dovrebbero richiedere una soglia più elevata di alfabetizzazione tecnologica necessaria per attraversare il Web in sicurezza. Invece, gli utenti di piattaforme di social media con un potere di mercato significativo dovrebbero avere il potere di scegliere i contenuti con cui desiderano interagire e filtrare i contenuti che non vogliono vedere in modo semplice e intuitivo. Gli utenti dovrebbero anche avere la possibilità di decidere completamente contro i consigli curati algoritmicamente o di scegliere altre euristiche per ordinare i contenuti.

Principio 2: trasparenza algoritmica

Oltre ad avere un maggiore controllo sul contenuto con cui interagiscono, gli utenti meritano anche maggiore trasparenza da parte delle aziende per capire perché i contenuti oi risultati della ricerca vengono mostrati loro o nascosti. Le piattaforme online dovrebbero fornire informazioni significative sugli strumenti algoritmici che utilizzano nella moderazione dei contenuti (ad esempio, sistemi di raccomandazione dei contenuti, strumenti per contrassegnare i contenuti) e nella cura dei contenuti (ad esempio nel ranking o nel downranking dei contenuti). Le piattaforme dovrebbero inoltre offrire spiegazioni facilmente accessibili che consentano agli utenti di capire quando, per quali attività e in quale misura vengono utilizzati strumenti algoritmici. Per alleviare l'onere per i singoli utenti di dare un senso al modo in cui vengono utilizzati gli algoritmi, le piattaforme con un significativo potere di mercato dovrebbero consentire ai ricercatori indipendenti e alle autorità di regolamentazione competenti di verificare i propri strumenti algoritmici per assicurarsi che siano utilizzati come previsto.

Principio 3: governance responsabile

Le piattaforme online regolano i propri utenti tramite i termini di servizio, le linee guida della community o gli standard. Questi documenti spesso comportano le regole fondamentali che determinano ciò che gli utenti possono fare su una piattaforma e quale comportamento è vincolato. Le piattaforme aggiornano regolarmente questi documenti, spesso in modo minore ma a volte in modo maggiore, e di solito senza consultare o informare gli utenti delle modifiche. Gli utenti di tali piattaforme devono essere informati ogni volta che le regole che li disciplinano cambiano, deve essere richiesto il loro consenso e devono essere informati delle conseguenze della loro scelta. Dovrebbero inoltre ricevere una spiegazione significativa di qualsiasi cambiamento sostanziale in una lingua che comprendono. Inoltre, le piattaforme dovrebbero presentare i loro termini di servizio in un formato leggibile dalla macchina e rendere tutte le versioni precedenti dei loro termini di servizio facilmente accessibili al pubblico.

Principio 4: diritto all'anonimato online

Ci sono innumerevoli motivi per cui le persone potrebbero non voler condividere la propria identità pubblicamente online. Mentre l'anonimato era comune su Internet, è diventato sempre più difficile rimanere anonimi online. Nella loro speranza di affrontare l'incitamento all'odio o le "notizie false", i responsabili politici dell'UE e oltre hanno proposto doveri per le piattaforme per imporre l'uso di nomi legali.

Per molte persone, tuttavia, inclusi membri della comunità LGBTQ +, lavoratrici del sesso e vittime di abusi domestici, tali regole potrebbero avere effetti devastanti e portare a molestie o altre forme di attribuzione. Riteniamo che, come principio generale, gli Stati membri dovrebbero rispettare la volontà delle persone di non rivelare la propria identità online. Il Digital Services Act dovrebbe affermare l'autodeterminazione informativa degli utenti anche a questo riguardo e introdurre il diritto europeo all'anonimato online. I termini di servizio divergenti dovrebbero essere soggetti a controllo di equità.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/08/our-eu-policy-principles-user-controls in data Thu, 27 Aug 2020 07:21:37 +0000.