Fondazione Frontiera Elettronica

Come COVID ha cambiato la moderazione dei contenuti: anno in rassegna 2020

Come COVID ha cambiato la moderazione dei contenuti: anno in rassegna 2020

In un anno che ha visto ogni aspetto della vita online rimodellare la pandemia di coronavirus, la moderazione dei contenuti online e la censura della piattaforma non hanno fatto eccezione.

Dopo un successo Who Has Your Back? campagna nel 2019 per incoraggiare le grandi piattaforme ad adottare le migliori pratiche e ad avallare i Principi di Santa Clara , il 2020 era destinato a essere un anno di ulteriori progressi verso la trasparenza e la responsabilità nella moderazione dei contenuti su tutta la linea. La pandemia ha cambiato le cose, tuttavia, poiché le aziende si sono affidate ancora di più a strumenti automatizzati in risposta alle forze di lavoro dei moderatori di contenuti interrotte e a nuovi tipi e volumi di disinformazione.

In un momento in cui le piattaforme online sono diventate nuovamente vitali per il lavoro, l'istruzione e la vita delle persone, questo aumento dell'automazione minaccia la libertà di espressione online. Ciò rende i Principi di Santa Clara sulla trasparenza e la responsabilità nella moderazione dei contenuti più importanti che mai e, come un orologio, i rapporti sulla trasparenza più avanti nel corso dell'anno hanno dimostrato le insidie ei costi della moderazione automatizzata dei contenuti.

Con il progredire della pandemia, lenuove leggi che regolano le fake news online hanno portato a censure e procedimenti penali in tutto il mondo, inclusi casi importanti inCambogia , India e Turchia che hanno preso di mira e danneggiato giornalisti e attivisti.

A maggio, Facebook ha annunciato il suo tanto atteso consiglio di sorveglianza . Eravamo scettici sin dal primo giorno e siamo rimasti delusi nel vedere il lancio del Consiglio senza un'adeguata rappresentanza dal Medio Oriente, Nord Africa o Sud-est asiatico e ulteriori sostenitori mancanti per le comunità LGBTQ o disabili. Sebbene il Consiglio sia stato progettato per identificare e decidere le controversie sui contenuti più significative a livello globale di Facebook , la composizione del Consiglio era ed è più diretta alle preoccupazioni parrocchiali degli Stati Uniti.

A giugno, Facebook ha disabilitato gli account di oltre 60 utenti tunisini senza preavviso o trasparenza. Abbiamo ricordato alle aziende quanto siano vitali le loro piattaforme per parlare; mentre l'attuale tempesta di pubbliche relazioni vortica indipendentemente dal fatto che controllino o meno il presidente Trump, non possiamo dimenticare che quelli più colpiti dai controlli del discorso aziendale non sono politici, celebrità o provocatori di destra , ma alcune delle persone più vulnerabili del mondo che mancano l'accesso ai responsabili delle politiche aziendali a cui gli stati e Hollywood si sono abituati.

Con l' avanzare del regolamento dell'UE per frenare i contenuti "terroristici" o di estremismo violento online nella seconda metà dell'anno, il Forum globale di Internet per la lotta al terrorismo (GIFCT) è stato al centro della scena come forza trainante dietro la maggior parte delle presunte rimozioni legate al terrorismo e censura online. E a settembre, abbiamo visto Zoom, Facebook e YouTube citare le designazioni di terrorismo degli Stati Uniti quando si sonorifiutati di ospitare l'attivista palestinese Leila Khaled.

Allo stesso tempo, EFF ha presentato principi politici dell'UE per tutto il 2020 che darebbero agli utenti, non ai cartelli di contenuti come GIFCT, un maggiore controllo e visibilità sulle decisioni sui contenuti.

Le elezioni presidenziali degli Stati Uniti a novembre hanno portato a casa gli stessi problemi che abbiamo riscontrato con l'Oversight Board di Facebook a maggio e la serie di account scomparsi a giugno: le società tecnologiche e le piattaforme online si sono concentrate sulle preoccupazioni e sulla politica americana a scapito di affrontare i problemi in— e imparare dal resto del mondo. Mentre EFF ha chiarito ciò che stavamo cercando e chiedendo alle aziende mentre hanno adattato le politiche di moderazione dei contenuti alle elezioni statunitensi, abbiamo anche ricordato alle aziende di ascoltare innanzitutto la loro base di utenti globale .

Guardando al 2021, continueremo i nostri sforzi per rendere le piattaforme e le loro politiche responsabili nei confronti dei loro utenti. In particolare, seguiremo gli sviluppi nell'intelligenza artificiale e nell'automazione per la moderazione dei contenuti, come le piattaforme gestiscono la disinformazione del vaccino COVID e come applicano le politiche relative alle elezioni alle elezioni significative in arrivo in tutto il mondo, inclusi Uganda, Perù, Kirghizistan e Iran.

Questo articolo fa parte della nostra serie Year in Review. Leggi altri articoli sulla lotta per i diritti digitali nel 2020 .


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/12/how-covid-changed-content-moderation-year-review-2019 in data Thu, 24 Dec 2020 18:17:18 +0000.