Moderazione dei contenuti ed elezioni statunitensi: cosa chiedere, cosa chiedere

Moderazione dei contenuti ed elezioni statunitensi: cosa chiedere, cosa chiedere

Con le imminenti elezioni negli Stati Uniti, le principali piattaforme con sede negli Stati Uniti hanno intensificato le loro pratiche di moderazione dei contenuti, probabilmente sperando di evitare la colpa accumulata su di loro dopo le elezioni del 2016, dove molti li hanno ritenuti responsabili del silo degli utenti in bolle ideologiche e, nel caso di Facebook , il Cambridge Analytica imbroglio. Non è chiaro se i social media abbiano svolto un ruolo più significativo di molti altri fattori , compresi i media tradizionali. Ma il colpo tecnologico è abbastanza reale .

Quindi non possiamo biasimarli per aver provato, né possiamo biasimare gli utenti per averglielo chiesto. La disinformazione online è un problema che ha avuto conseguenze reali negli Stati Uniti e in tutto il mondo: è stata correlata alla violenza etnica in Myanmar e in India e alle elezioni del Kenya del 2017 , tra gli altri eventi.

Ma è altrettanto vero che la moderazione dei contenuti è un sistema fondamentalmente guasto . È incoerente e confuso e, poiché a un sistema che utilizza moderatori umani e tecnologie automatizzate viene aggiunto uno strato su uno di policy, è sempre più soggetto a errori. Persino gli sforzi ben intenzionati per controllare la disinformazione finiscono inevitabilmente per mettere a tacere una serie di voci dissenzienti e ostacolare la capacità di sfidare sistemi di oppressione radicati.

Abbiamo guardato attentamente mentre Facebook , YouTube e Twitter , pur negando qualsiasi interesse a essere "gli arbitri della verità", hanno tutti modificato le loro politiche negli ultimi mesi per tentare di arbitrare bugie, o almeno segnalarle. E siamo preoccupati, soprattutto quando guardiamo all'estero. Già quest'anno, un tentativo di Facebook di contrastare la disinformazione elettorale contro Tunisia, Togo, Costa d'Avorio e altri sette paesi africani ha portato alla rimozione accidentale di account appartenenti a dozzine di giornalisti e attivisti tunisini, alcuni dei quali avevano utilizzato la piattaforma. durante la rivoluzione del paese del 2011. Mentre alcuni di quegli account utenti sono stati ripristinati, altri, per lo più appartenenti ad artisti , non lo erano .

Negli Stati Uniti, Twitter ha recentemente bloccato un articolo del New York Post sul figlio del candidato alla presidenza Joe Biden sulla base del fatto che era basato su materiali hackerati, e poi ha revocato il blocco due giorni dopo. Dopo aver posto limiti alla pubblicità politica all'inizio di settembre, Facebook ha promesso di non modificare ulteriormente le sue politiche prima delle elezioni. Tre settimane dopo ha annunciato modifiche alle sue politiche pubblicitarie politiche e quindi ha bloccato una gamma di espressioni che in precedenza consentiva. In entrambi i casi, gli utenti, soprattutto gli utenti che hanno a cuore la loro capacità di condividere e accedere a informazioni politiche, sono lasciati a chiedersi cosa potrebbe essere bloccato in seguito.

Dato il panorama della moderazione in continua evoluzione, è difficile tenere il passo. Ma ci sono alcune domande che gli utenti e le piattaforme possono porre su ogni nuova iterazione, indipendentemente dal fatto che un'elezione sia imminente o meno. Non a caso, molti di questi si sovrappongono ai Principi di Santa Clara sulla trasparenza e la responsabilità nella moderazione dei contenuti , un insieme di pratiche create da EFF e un piccolo gruppo di organizzazioni e sostenitori, che le piattaforme di social media dovrebbero impegnarsi a fornire trasparenza sul perché e con quale frequenza rimuovono i post, le foto, i video e gli altri contenuti degli utenti.

L'approccio è strettamente personalizzato o è un divieto categoriale?

La censura totale non dovrebbe essere l'unica risposta alla disinformazione online. Quando le aziende tecnologiche vietano un'intera categoria di contenuti, hanno una storia di correzioni eccessive e censure di discorsi accurati e utili o, peggio ancora, di rinforzo della disinformazione . Qualsiasi restrizione alla parola dovrebbe essere sia necessaria che proporzionata.

Inoltre, le piattaforme online hanno altri modi per affrontare la rapida diffusione della disinformazione. Ad esempio, la segnalazione o il controllo dei fatti che possono essere fonte di preoccupazione comporta i suoi problemi – ancora una volta, significa che qualcuno – o qualche macchina – ha deciso cosa richiede e non richiede un'ulteriore revisione, e chi è e non è un fatto accurato- checker. Tuttavia, questo approccio ha il vantaggio di lasciare la parola a disposizione di coloro che desiderano riceverla.

Quando un'azienda adotta un divieto categorico, dovremmo chiederci: l'azienda può spiegare cosa rende eccezionale quella categoria? Le regole per definire i suoi confini sono chiare e prevedibili e sono supportate da dati coerenti? A quali condizioni verranno rimossi altri discorsi che mettono in discussione il consenso stabilito? Chi decide cosa si qualifica o no come "fuorviante" o "impreciso"? Chi ha il compito di testare e convalidare il potenziale bias di tali decisioni?

Fornisce potere agli utenti?

Le piattaforme devono affrontare una delle cause alla radice della diffusione della disinformazione online: gli algoritmi che decidono quali contenuti vedono gli utenti e quando. E dovrebbero iniziare fornendo agli utenti strumenti più personalizzati che permettano loro di comprendere e controllare le informazioni che vedono.

Gli algoritmi utilizzati dal Newsfeed di Facebook o dalla timeline di Twitter prendono decisioni su quali notizie, annunci e contenuti generati dagli utenti promuovere e quali nascondere. Questo tipo di cura può svolgere un ruolo di amplificazione per alcuni tipi di contenuti incendiari, nonostante gli sforzi di piattaforme come Facebook per modificare i loro algoritmi per "disincentivarli" o "sminuirli". Funzionalità progettate per aiutare le persone a trovare contenuti di loro gradimento possono troppo facilmente incanalarle in una tana di disinformazione .

Gli utenti non dovrebbero essere tenuti in ostaggio dall'algoritmo proprietario di una piattaforma. Invece di servire a tutti "un algoritmo per governarli tutti" e offrire agli utenti solo poche opportunità per modificarlo, le piattaforme dovrebbero aprire le proprie API per consentire agli utenti di creare le proprie regole di filtraggio per i propri algoritmi. I notiziari, le istituzioni educative, i gruppi della comunità e gli individui dovrebbero essere tutti in grado di creare i propri feed, consentendo agli utenti di scegliere chi si fidano per curare le loro informazioni e condividere le loro preferenze con le loro comunità.

Inoltre, le piattaforme dovrebbero esaminare le parti della loro infrastruttura che agiscono da megafono alla ricerca di contenuti pericolosi e affrontare la causa principale del problema piuttosto che censurare gli utenti.

Durante una stagione elettorale, l'eliminazione errata di informazioni e commenti accurati può avere conseguenze enormi. In assenza di circostanze urgenti, le aziende devono informare l'utente e dare loro la possibilità di presentare ricorso prima che il contenuto venga rimosso. Se scelgono di presentare ricorso, il contenuto dovrebbe rimanere aggiornato fino a quando la domanda non viene risolta. Le piattaforme più piccole dedicate a servire comunità specifiche potrebbero voler adottare un approccio più aggressivo. Va bene, a patto che gli utenti di Internet dispongano di una gamma di opzioni significative con cui interagire.

È trasparente?

Le parti più importanti del puzzle qui sono la trasparenza e l'apertura. La trasparenza sul funzionamento degli algoritmi di una piattaforma e gli strumenti per consentire agli utenti di aprirsi e creare i propri feed sono fondamentali per una più ampia comprensione della cura algoritmica, del tipo di contenuto che può incentivare e delle conseguenze che può avere.

In altre parole, la trasparenza effettiva dovrebbe consentire agli estranei di vedere e capire quali azioni vengono eseguite e perché. Una trasparenza significativa implica intrinsecamente apertura e responsabilità e non può essere soddisfatta semplicemente contando le rimozioni. Vale a dire che c'è una differenza tra la "trasparenza" sanzionata dalla società, che è intrinsecamente limitata, e la trasparenza significativa che consente agli utenti di comprendere le azioni di Facebook e di ritenere l'azienda responsabile.

La politica è coerente con i principi dei diritti umani?

Le aziende dovrebbero allineare le loro politiche alle norme sui diritti umani. In un documento pubblicato lo scorso anno , David Kaye, il relatore speciale delle Nazioni Unite sulla promozione e la protezione del diritto alla libertà di opinione e di espressione, raccomanda alle aziende di adottare politiche che consentano agli utenti di "sviluppare opinioni, esprimersi liberamente e accedere alle informazioni di tutti tipi in modo coerente con la legge sui diritti umani ". Siamo d'accordo e in tale opinione siamo uniti da una crescente coalizione internazionale di organizzazioni per le libertà civili e per i diritti umani.

La moderazione dei contenuti non è un proiettile d'argento

Non dovremmo rivolgerci ai moderatori dei contenuti per risolvere i problemi che sono propriamente riconducibili a difetti nel sistema elettorale. Non puoi risolvere i problemi che la tecnologia non ha creato. E anche dove la moderazione dei contenuti ha un ruolo da svolgere, la storia ci dice di essere cauti. La moderazione dei contenuti su larga scala è impossibile da fare perfettamente e quasi impossibile da fare bene, anche nelle condizioni più trasparenti, ragionevoli ed eque – che è uno dei tanti motivi per cui nessuna di queste scelte politiche dovrebbe essere un requisito legale . Comporta inevitabilmente un difficile disegno delle linee e sarà pieno di errori e un sacco di decisioni con cui molti utenti non saranno d'accordo. Tuttavia, ci sono chiare opportunità per apportare miglioramenti ed è ormai tempo che le piattaforme li mettano in pratica.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/10/content-moderation-and-us-election-what-ask-what-demand in data Mon, 26 Oct 2020 23:41:58 +0000.