Fondazione Frontiera Elettronica

Il PACT Act non è la soluzione al problema dei contenuti online dannosi

Il PACT Act non è la soluzione al problema dei contenuti online dannosi

L' audizione di martedì della commissione per il commercio del Senato sul PACT Act e sulla sezione 230 è stata una discussione bipartisan in modo rinfrescante e sostanziale sulle questioni spinose relative al modo in cui le piattaforme online moderano i contenuti degli utenti e in che misura queste società dovrebbero essere ritenute responsabili per i contenuti dannosi degli utenti.

L'audizione ha messo a fuoco diversi problemi reali e significativi che il Congresso dovrebbe continuare a considerare. Ha anche dimostrato che, qualunque siano le sue buone intenzioni, il PACT Act nella sua forma attuale non affronta questi problemi, tanto meno si occupa di come diminuire il potere della manciata di importanti servizi online su cui tutti facciamo affidamento per connettersi tra loro.

L'EFF resta contraria alla legge PACT

Come abbiamo scritto di recente , il Platform Accountability and Consumer Transparency (PACT) Act , introdotto il mese scorso dai senatori Brian Schatz (D-HI) e John Thune (R-SD), è uno sforzo serio per affrontare un problema serio: che una manciata delle grandi piattaforme online dominano la capacità degli utenti di parlare online. Il disegno di legge si basa su buone idee, come richiedere una maggiore trasparenza delle decisioni delle piattaforme per moderare il contenuto dei propri utenti, qualcosa che la EFF ha sostenuto come uno sforzo volontario come parte dei Principi di Santa Clara .

Tuttavia, alla fine siamo contrari al disegno di legge, perché l'indebolimento della Sezione 230 ( 47 USC § 230 ) porterebbe a una censura più illegittima dei contenuti degli utenti. Il disegno di legge minaccerebbe anche piccole piattaforme e aspiranti concorrenti agli attuali attori dominanti, e il disegno di legge ha problemi di Primo Emendamento.

Rimangono importanti problemi relativi alla moderazione dei contenuti

Una questione importante emersa durante l'udienza è in che misura le piattaforme online dovrebbero essere tenute a rimuovere i contenuti degli utenti che un tribunale ha stabilito essere illegali. Il PACT Act prevede che le piattaforme perderebbero l'immunità della Sezione 230 per il contenuto dell'utente se le società non riuscissero a rimuovere il materiale dopo aver ricevuto la notifica che un tribunale ha dichiarato tale materiale illegale. Non è irragionevole chiedersi se la Sezione 230 debba proteggere le piattaforme per l'hosting di contenuti dopo che un tribunale ha ritenuto che il materiale sia illegale o non protetto dal Primo Emendamento.

Tuttavia, restiamo preoccupati se qualsiasi proposta legislativa, incluso il PACT Act, possa fornire sufficienti guardrail per prevenire gli abusi e per garantire che i contenuti degli utenti non vengano censurati inutilmente. I tribunali spesso emettono sentenze non definitive, discutendo sulla legalità del contenuto in una mozione di rigetto, ad esempio, prima di arrivare alla fase di merito di un caso. Alcune decisioni dei tribunali sono sentenze inadempienti perché l'imputato non si presenta per difendersi per qualsiasi motivo, determinando l'illegittimità del contenuto che l'imputato ha pubblicato sospetto perché la questione non era soggetta a un solido processo di contraddittorio. E anche quando c'è un'ordinanza finale da un tribunale di primo grado, tale decisione viene spesso impugnata e talvolta revocata da un tribunale superiore.

Inoltre, alcune cause legali contro i contenuti degli utenti sono cause molesti che potrebbero essere archiviate in base alle leggi anti-SLAPP, ma non tutti gli stati le hanno e non ce n'è una che si applichi in modo coerente nei tribunali federali. Infine, alcuni documenti che sembrano essere sentenze definitive del tribunale potrebbero essere falsificati, il che porterebbe alla censura illegittima del discorso degli utenti, se le piattaforme non spendono risorse considerevoli per indagare su ogni richiesta di rimozione.

Ci ha fatto piacere vedere che molte di queste preoccupazioni sono state discusse in udienza, anche se non è stato raggiunto un consenso. È rinfrescante vedere leader eletti che cercano di bilanciare interessi contrastanti, incluso come proteggere gli utenti di Internet vittime di attività illegali evitando la creazione di ampi strumenti legali in grado di censurare il discorso che ad altri non piace. Ma come abbiamo detto in precedenza, il PACT Act, come attualmente scritto, non cerca di bilanciare queste o altre preoccupazioni. Piuttosto, richiedendo la rimozione di qualsiasi materiale che qualcuno sostiene che un tribunale abbia dichiarato illegale, punta la bilancia verso un'ampia censura.

Un'altra questione spinosa ma importante è la questione della concorrenza tra le piattaforme online. Il senatore Mike Lee (R-UT) ha espresso la sua preferenza per la ricerca di soluzioni di mercato ai problemi associati alle piattaforme dominanti e al modo in cui moderano i contenuti degli utenti. L'EFF ha esortato il governo a considerare un uso più robusto della legge antitrust nello spazio Internet. Una cosa è certa, tuttavia: l'indebolimento delle protezioni della Sezione 230 rafforzerà solo i principali attori, poiché le piccole aziende non hanno le risorse finanziarie e il personale per assumersi una maggiore responsabilità per i contenuti degli utenti.

Sfortunatamente, i requisiti del PACT Act secondo cui le piattaforme mettono in atto servizi di moderazione e risposta dei contenuti non faranno che cementare ulteriormente il predominio di servizi come Facebook, Twitter e YouTube, che già impiegano un gran numero di dipendenti per moderare i contenuti degli utenti. I piccoli concorrenti, invece, non hanno le risorse per conformarsi al PACT Act.

Non dimentichiamoci del primo emendamento

L'udienza ha anche toccato comprensibilmente le categorie di contenuti tra cui disinformazione politica e di altro tipo, incitamento all'odio, contenuti terroristici e materiale pedopornografico ("CSAM"). Tuttavia, in generale, queste categorie di contenuti (ad eccezione del CSAM) sono protette dal Primo Emendamento, il che significa che il governo non può imporre che tali contenuti vengano rimossi.

Per essere chiari, il Congresso può e deve parlare di contenuti online dannosi e di modi per affrontarli, in particolare quando molestie e minacce spingono gli utenti di Internet offline . Ma se la conversazione si concentra sulla Sezione 230, invece di affrontare i problemi del Primo Emendamento in gioco, allora manca la foresta per gli alberi.

Inoltre, qualsiasi sforzo legislativo volto a rimuovere contenuti online dannosi, ma non illegali, deve riconoscere che le piattaforme che ospitano contenuti generati dagli utenti hanno i propri diritti di Primo Emendamento per gestire tale contenuto. Il PACT Act si intromette nella discrezione editoriale di questi servizi richiedendo che adottino determinate misure in risposta ai reclami sui contenuti.

In mezzo a una serie di attacchi in malafede alla parola degli utenti di Internet e agli sforzi per indebolire le protezioni della Sezione 230, è stato piacevole vedere i senatori tenere una discussione pubblica sostanziale su quali modifiche dovrebbero essere apportate alla legge statunitense che disciplina il discorso online degli utenti di Internet. Ci auguriamo che possa servire come inizio di uno sforzo in buona fede per affrontare problemi reali e identificare soluzioni praticabili che bilanciano i molti interessi in competizione, garantendo al contempo che gli utenti di Internet continuino a godere dei diversi forum per la parola e la comunità online.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/07/pact-act-not-solution-problem-harmful-online-content in data Thu, 30 Jul 2020 22:38:45 +0000.