Fondazione Frontiera Elettronica

Verifica dei fatti, disinformazione COVID-19 e British Medical Journal

Verifica dei fatti, disinformazione COVID-19 e British Medical Journal

Durante la pandemia di COVID-19, ricerche e pubblicazioni autorevoli sono state fondamentali per acquisire una migliore conoscenza del virus e di come combatterlo. Tuttavia, a differenza delle precedenti pandemie, questa è stata ulteriormente esacerbata da una massiccia ondata di disinformazione e disinformazione che si è diffusa sui social media tradizionali e online.

Il crescente volume di disinformazione e le richieste urgenti di una migliore moderazione hanno reso processi come il fact-checking, la pratica che mira a valutare l'accuratezza della segnalazione, parte integrante del modo in cui le società di social media gestiscono la diffusione dei contenuti. Ma persiste una domanda valida: chi dovrebbe controllare i fatti? Ciò è particolarmente pertinente se si considera come tali controlli possono modellare le percezioni, incoraggiare pregiudizi e minare voci autorevoli e di lunga data. I fact-check sui social media sono attualmente disponibili in diverse forme e dimensioni; ad esempio, Facebook affida il ruolo a organizzazioni di terze parti per etichettare la disinformazione, mentre le pratiche interne di Twitter determinano quale post verrà segnalato come fuorviante, contestato o non verificato.

Il fatto che Facebook si affidi a verificatori di fatti esterni non è di per sé un problema: c'è qualcosa di attraente nel fatto che Facebook si affidi a esperti esterni e non sia l'unico arbitro della verità. Ma Facebook conferisce molta autorità ai suoi fact-checker e quindi per lo più si allontana da qualsiasi controversia che potrebbe sorgere attorno alle loro decisioni. Ciò solleva preoccupazioni sul fatto che Facebook adempia al suo obbligo di fornire ai propri utenti adeguate procedure di avviso e ricorso quando il loro contenuto è moderato dai suoi verificatori di fatti.

SecondoFacebook , i suoi fact-checker possono assegnare una delle quattro etichette a un post: "Falso", "Parzialmente falso", Alterato o "Contesto mancante". L'etichetta è accompagnata da un collegamento al fact-checker e da una spiegazione più dettagliata di tale decisione. Ogni etichetta attiva un'azione diversa da Facebook. ​I contenuti classificati come "falsi" o "alterati" sono soggetti a una drastica riduzione della distribuzione e ricevono le etichette di avvertenza più forti. Anche i contenuti classificati come "parzialmente falsi" ottengono una distribuzione ridotta, ma in misura minore rispetto a "falsi" o "alterati". I contenuti classificati "Contesto mancante" non sono generalmente soggetti a riduzione della distribuzione; piuttosto Facebook fa emergere maggiori informazioni dai suoi partner di verifica dei fatti. Ma in base alla sua attuale politica temporanea , Facebook ridurrà la distribuzione di post su COVID-19 o sui vaccini contrassegnati come "Contesto mancante" dai suoi fact-checker.

Di conseguenza, questi fact-checker esercitano un controllo significativo sui post di molti utenti e su come possono essere condivisi.

Un incidente recente dimostra alcuni dei problemi con questo sistema.

Nel novembre 2021, il British Medical Journal (BMJ) ha pubblicato una storia sulle accuse di pratiche scorrette da parte di un informatore in tre siti di studi clinici gestiti da Ventavia, una delle società incaricate da Pfizer di condurre i suoi studi sul vaccino COVID-19. Dopo la pubblicazione, i lettori di BMJ hanno iniziato a segnalare una serie di problemi, tra cui l'impossibilità di condividere l'articolo e la richiesta da parte di Facebook che le persone che condividono ripetutamente "informazioni false" potrebbero vedersi rimuovere i propri post dal feed delle notizie di Facebook.

L'articolo di BMJ è stato verificato da Lead Stories, una delle dieci società di verifica dei fatti appaltate da Facebook negli Stati Uniti. Dopo che BMJ ha contattato Lead Stories per chiedere informazioni sulla segnalazione e la rimozione del post, la società ha affermato che l'etichetta "Contesto mancante" che aveva assegnato all'articolo BMJ era valida. In risposta a ciò, BMJ ha scritto una lettera aperta a Mark Zuckerberg sul fact-check di Lead Stories, chiedendo a Facebook di consentire ai suoi lettori di condividere l'articolo indisturbati. Invece di sentire Facebook, tuttavia, BMJ ha ricevuto una risposta alla sua lettera aperta da Lead Stories .

Si scopre che Facebook esternalizza non solo il controllo dei fatti, ma anche la comunicazione. Secondo Facebook , "gli editori possono contattare direttamente organizzazioni di controllo dei fatti di terze parti se hanno corretto il contenuto valutato o se ritengono che la valutazione del verificatore di fatti sia imprecisa". Quindi Facebook continua osservando che "questi appelli avvengono indipendentemente da Facebook". Apparentemente Facebook non ha alcun ruolo una volta che uno dei suoi fact-checker etichetta un post.

Questo è stato il primo errore. Sebbene Facebook possa opportunamente esternalizzare la sua verifica dei fatti, non è accettabile esternalizzare il suo processo di ricorso o la responsabilità delle comunicazioni di follow-up. Quando Facebook conferisce ai fact-checker il potere di etichettare i post dei suoi utenti, Facebook rimane responsabile di tali azioni e dei loro effetti sul discorso dei suoi utenti. Facebook non può semplicemente farsi da parte e costringere i suoi utenti a discutere i fact-checker. Facebook deve fornire, mantenere e amministrare il proprio processo di ricorso.

Ma ne parleremo tra poco; ora torniamo alla storia:

Secondo la risposta di Lead Stories, le ragioni dell'etichetta "Missing Context" potrebbero essere riassunte in due punti: il primo riguardava il titolo e altre parti sostanziali della pubblicazione, che, secondo Lead Stories, sopravvalutava il pericolo e squalificato ingiustamente il dati raccolti dalle prove Pfizer; e, il secondo dubitava della credibilità dell'informatore, dato che in altri casi sembrerebbe che non abbiano sempre espresso sostegno senza riserve ai vaccini COVID sui social media. Lead Stories afferma di essere stato ulteriormente influenzato dal fatto che l'articolo è stato ampiamente condiviso come parte di una più ampia campagna per screditare i vaccini e la loro efficacia.

Quello che succede dopo è interessante. Il processo di "appello", per così dire, si è svolto in pubblico. Lead Stories ha risposto alla lettera aperta di BMJ in una serie di articoli pubblicati sul suo sito . E Lead Stories ha ulteriormente utilizzato Twitter per difendere la sua decisione e criticare sia BMJ che il giornalista investigativo autore dell'articolo.

Cosa ci dice tutto questo sul fact-checking di Facebook e sulle implicazioni per la restrizione di discorsi ed espressioni legittime e tempestive sulla piattaforma? Ci dice che gli utenti con domande legittime sull'essere verificati non riceveranno molto aiuto da Facebook stesso, anche se sono una rivista accademica consolidata e ben considerata.

È inaccettabile che gli utenti che si sentono disservizi da Facebook debbano navigare in un sistema completamente nuovo e complesso con una parte con cui non erano direttamente coinvolti. Ad esempio, dal 2019 Facebook ha avallato i Santa Clara Principles , che, tra gli altri, richiedono alle aziende di garantire una procedura di ricorso chiara e facilmente accessibile. Ciò significa che "gli utenti dovrebbero essere in grado di accedere sufficientemente ai canali di supporto che forniscono informazioni sulla decisione di azione e sui processi di ricorso disponibili una volta presa la decisione di azione iniziale". Le storie di piombo offrono un tale processo di ricorso? Hanno aderito ai principi di Santa Clara? Facebook richiede ai suoi fact-checker esterni di offrire solide procedure di notifica e ricorso? Facebook li ha mai incoraggiati a farlo?

Dato l'attuale stato di disinformazione, non c'è dubbio che il fact-checking possa aiutare a navigare nel mondo spesso travolgente della moderazione dei contenuti. Allo stesso tempo, il fact-checking non dovrebbe significare che gli utenti devono essere esposti a un ecosistema completamente nuovo, composto da nuovi attori, con nuovi processi e nuove regole. Facebook e altre società tecnologiche non possono incoraggiare processi che distolgano il controllo dei fatti dal processo generale di moderazione dei contenuti. Al contrario, deve assumersi il compito di creare sistemi di cui gli utenti possono fidarsi e su cui possono contare. Sfortunatamente, l'attuale sistema creato da Facebook non riesce a raggiungere questo obiettivo.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2022/01/fact-checking-covid-19-misinformation-and-british-medical-journal in data Wed, 19 Jan 2022 17:58:30 +0000.