Fondazione Frontiera Elettronica

La sezione 230 è buona, in realtà

La sezione 230 è buona, in realtà

Anche se è lunga solo 26 parole, la Sezione 230 non dice ciò che molti pensano che faccia.

Quindi abbiamo deciso di occupare qualche kilobyte di Internet per spiegare cosa, esattamente, le persone si sbagliano riguardo alla legge primaria che difende Internet.

La sezione 230 (47 USC § 230) è una delle leggi più importanti che proteggono la libertà di parola online. Anche se la sua formulazione è abbastanza chiara – afferma che " Nessun fornitore o utente di un servizio informatico interattivo deve essere trattato come l'editore o l'oratore di qualsiasi informazione fornita da un altro fornitore di contenuto informativo " – è ancora ampiamente frainteso. In parole povere, la legge significa che, sebbene tu sia legalmente responsabile di ciò che dici online, se ospiti o ripubblichi discorsi di altre persone, solo quelle persone sono legalmente responsabili di ciò che dicono.

Ma ci sono molte, molte idee sbagliate – così come la disinformazione del Congresso e altrove – sulla Sezione 230, dachi influenza e cosa protegge ai risultati che avrebbe un'abrogazione. Per aiutare a spiegare cosa è effettivamente in gioco quando parliamo della Sezione 230, abbiamo messo insieme le risposte a diversi malintesi comuni della legge.

La sezione 230 dovrebbe sembrare buon senso: dovresti essere ritenuto responsabile del tuo discorso online, non della piattaforma che ha ospitato il tuo discorso o di un'altra parte.

Cominciamo con una violazione della legge e le protezioni che crea per te.

In che modo la Sezione 230 protegge la libertà di parola:

Senza la Sezione 230, Internet sarebbe un luogo molto diverso, con meno spazi in cui siamo tutti liberi di parlare e condividere le nostre opinioni.

Una delle funzioni più importanti di Internet è che consente alle persone di tutto il mondo di connettersi e condividere idee, sia che si tratti di blog, piattaforme di social media o piattaforme educative e culturali come Wikipedia e Internet Archive. La sezione 230 afferma che qualsiasi sito che ospita il contenuto di altri "relatori", dalla scrittura, ai video, alle immagini, al codice che altri scrivono o caricano, non è responsabile per quel contenuto, ad eccezione di alcune importanti eccezioni per le violazioni dei crimini federali diritto e diritti di proprietà intellettuale.

La sezione 230 rende solo l'oratore stesso responsabile del proprio discorso, piuttosto che gli intermediari attraverso i quali quel discorso raggiunge il suo pubblico. Ciò rende possibile l'esistenza di siti e servizi che ospitano parole e contenuti generati dagli utenti e consente agli utenti di condividere le proprie idee, senza dover creare i propri siti o servizi individuali che probabilmente avrebbero una portata molto minore. Ciò consente a molte più persone di accedere ai contenuti che altri creano di quanto avrebbero mai fatto altrimenti, ed è per questo che abbiamo fiorenti comunità online in cui gli utenti possono commentare e interagire tra loro senza aspettare ore, o giorni, per un moderatore o un algoritmo , per rivedere ogni post.

E la Sezione 230 non consente solo l'esistenza di siti che ospitano discorsi, comprese opinioni controverse. Permette loro di esistere senza mettere i pollici sulla bilancia censurando contenuti controversi o potenzialmente problematici. E poiché ciò che è considerato controverso è spesso mutevole e dipende dal contesto e dal punto di vista, è importante che queste opinioni possano essere condivise. "Defund the police" può essere considerato un discorso controverso oggi, ma ciò non significa che debba essere censurato. "Drain the Swamp", "Black Lives Matter" o anche "All Lives Matter" possono essere tutte opinioni controverse, ma censurarle non sarebbe utile.

La censura delle piattaforme online ha dimostrato di amplificare gli squilibri esistenti nella società, a volte intenzionalmente ea volte no. Il risultato è stato che il più delle volte le piattaforme hanno maggiori probabilità di censurare le voci delle comunità e degli individui privi di potere. Senza Sezione 230, qualsiasi servizio online che continuò ad esistere sarebbe più che probabile optare per censurare più contenuti, e che sarebbe inevitabilmente danneggiare i gruppi emarginati più di altri .

No, le piattaforme non sono legalmente responsabili per il discorso di altre persone, né sarebbe un bene per gli utenti.

Fondamentalmente, la Sezione 230 significa che se infrangi la legge online, dovresti essere l'unico ritenuto responsabile, non il sito Web, l'app o il forum in cui hai detto la cosa illegale. Allo stesso modo, se inoltri un'e-mail o addirittura ritwitti un tweet, sei protetto dalla Sezione 230 nel caso in cui quel materiale venga ritenuto illegale. Ricorda: questa condivisione di contenuti e idee è una delle principali funzioni di Internet, dai servizi di Bulletin Board negli anni '80, alle Internet Relay Chat degli anni '90, ai forum degli anni 2000, alle piattaforme di social media di oggi. La sezione 230 protegge tutti questi diversi tipi di servizi di intermediazione (e molti altri). Sebbene la Sezione 230 non esistesse fino al 1996, è stata creata, in parte, per proteggere quei servizi che già esistevano e i molti che sono venuti dopo.

Ciò che è necessario per garantire che una varietà di visualizzazioni abbia un posto sui social media non sta creando ulteriori eccezioni legali alla Sezione 230.

Se consideri che una delle funzioni principali di Internet è quella di consentire alle persone di connettersi tra loro, la Sezione 230 dovrebbe sembrare buon senso: dovresti essere ritenuto responsabile del tuo discorso online, non della piattaforma che ha ospitato il tuo discorso o di un'altra parte . Ciò ha particolare senso se si considera la quantità impressionante di contenuti ospitati dai servizi online. Un editore di giornali, in confronto, di solito ha 24 ore per esaminare il contenuto che pubblica in un unico numero. Confronta questo con YouTube, i cui utenti caricano almeno 400 ore di video [pdf] ogni minuto, un volume impossibile da esaminare in modo significativo prima della pubblicazione online. Senza la Sezione 230, il rischio legale associato alla gestione di un tale servizio scoraggerebbe qualsiasi imprenditore dall'avvio di uno.

Abbiamo messo insieme un'infografica su come funziona la Sezione 230 che puoi anche visualizzare per avere un rapido riassunto di come la legge protegge la parola su Internet e una spiegazione dettagliata di come funziona la Sezione 230 per i blogger e commenti sui blog , se lo desideri mi piacerebbe vedere come si svolge questo scenario in modo più dettagliato.

No, la Sezione 230 non è una "mano a Big Tech" o una grande "immunità" tecnologica o un "regalo" alle aziende. La sezione 230 protegge te e i forum a cui tieni, non solo "Big Tech".

La sezione 230 protegge gli intermediari Internet: individui, aziende e organizzazioni che forniscono una piattaforma per consentire ad altri di condividere parole e contenuti su Internet. Sì, questo include social network come Facebook, piattaforme video come YouTube, siti di notizie, blog e altri siti Web che consentono commenti. Protegge anche piattaforme educative e culturali come Wikipedia e Internet Archive.

Ma protegge anche alcuni siti e attività che potresti non aspettarti, ad esempio tutti coloro che inviano un'e-mail, nonché qualsiasi azienda di sicurezza informatica che utilizza contenuti generati dagli utenti per la valutazione delle minacce, le patch e gli avvisi. Un elenco di organizzazioni che hanno firmato una lettera sull'importanza di 230 include Automattic (creatori di WordPress), Kickstarter, Medium, Github, Cloudflare, Meetup, Patreon, Reddit, per esempio. Ma altrettanto importanti quanto i servizi e le piattaforme attualmente esistenti sono quelli che non esistono ancora, perché senza la Sezione 230 sarebbe proibitivo in termini di costi avviare un nuovo servizio che consenta la voce generata dagli utenti.

No, il Primo Emendamento non è in contrasto con la Sezione 230.

Le piattaforme online rientrano nei loro diritti del Primo Emendamento di moderare le loro piattaforme online come preferiscono, e sono inoltre protette dalla Sezione 230 per molti tipi di responsabilità per il discorso dei loro utenti. Non è né l'uno né l'altro. È entrambe le cose.

Un po 'di storia sulla Sezione 230 è istruttiva qui. La sezione 230 è nata come emendamento al Communications Decency Act (CDA), introdotto nel tentativo di regolare il materiale sessuale online. Il CDA ha modificato la legge sulle telecomunicazioni rendendo illegale inviare o mostrare consapevolmente a minori contenuti osceni o indecenti online. La Camera ha approvato l'emendamento alla sezione 230 con una stragrande maggioranza, 420-4.

La comunità online è stata indignata dal passaggio del CDA. EFF e molti altri gruppi hanno respinto il suo linguaggio eccessivamente ampio e hanno lanciato una campagna Blue Ribbon, esortando i siti a "indossare" un nastro blu e collegarsi al sito di EFF per aumentare la consapevolezza. Diversi siti hanno scelto di oscurare le loro pagine web in segno di protesta.

L'ACLU ha intentato una causa, cui hanno aderito diverse organizzazioni per le libertà civili come l'EFF e altri gruppi industriali, e che ha raggiunto la Corte Suprema. Il 26 giugno 1997, in una decisione 9-0, la Corte Suprema ha applicato il Primo Emendamento eliminando le sezioni anti-indecenza del CDA. La sezione 230, l'emendamento che promuoveva la libertà di parola, non è stata interessata da quella sentenza. Allo stato attuale, la Sezione 230 è praticamente l'unica parte rimasta del CDA. Ma ci sono volute diverse cause legali per farlo.

No, le piattaforme online non sono "forum pubblici neutrali".


Ma la Sezione 230 protegge solo un intermediario dalla responsabilità già esistente. Se la parola è protetta dal Primo Emendamento, non ci può essere responsabilità né per la pubblicazione né per la ripubblicazione, indipendentemente dalla Sezione 230. Come la Corte Suprema ha riconosciuto nel caso
Reno v. ACLU , le solide protezioni vocali del Primo Emendamento si applicano pienamente all'online discorso. La sezione 230 è stata inclusa nel CDA per garantire che i servizi online potessero decidere quali tipi di contenuti volevano ospitare. Senza la Sezione 230, i siti che hanno rimosso contenuti di natura sessuale potrebbero essere ritenuti legalmente responsabili di tale azione, un risultato che avrebbe reso i servizi sospettosi di moderare i contenuti dei propri utenti, anche se volessero creare spazi online privi di contenuto sessuale. Lo scopo di 230 era incoraggiare la moderazione attiva per rimuovere i contenuti sessuali, consentendo ai servizi di competere tra loro in base ai tipi di contenuti degli utenti che volevano ospitare.

Inoltre, il Primo Emendamento protegge anche il diritto delle piattaforme online di curare il discorso sui loro siti, di decidere quale discorso degli utenti apparirà e non apparirà sui loro siti. Quindi l'immunità della Sezione 230 per la rimozione del discorso dell'utente è perfettamente coerente con il Primo Emendamento. Ciò è evidente dato che prima di Internet, il Primo Emendamento ha dato ai media non digitali, come i giornali, il diritto di decidere quali storie e opinioni pubblicare.

No, le piattaforme online non sono "forum pubblici neutrali".

Né dovrebbero esserlo. La sezione 230 non dice nulla di simile. E cercare di legiferare un tale requisito di "neutralità" per le piattaforme online – oltre ad essere impraticabile – violerebbe il Primo Emendamento. La Corte Suprema ha confermato il diritto fondamentale degli editori di avere punti di vista editoriali.

È anche sciocco suggerire che le piattaforme web dovrebbero perdere le protezioni della Sezione 230 per non aver allineato le loro politiche di moderazione a uno standard immaginario di neutralità politica. Uno dei motivi per cui il Congresso ha approvato per la prima volta la Sezione 230 è stato quello di consentire alle piattaforme online di impegnarsi nella moderazione della comunità in buona fede senza timore di assumersi indebite responsabilità per i post dei propri utenti. In due importanti casi iniziali relativi a discorsi su Internet, i tribunali hanno consentito accuse di diffamazione civile contro Prodigy ma non contro Compuserve ; poiché Prodigy ha cancellato alcuni messaggi di "offensività" e "cattivo gusto", ha ragionato un tribunale, potrebbe essere considerato un editore e ritenuto responsabile per i post dei suoi utenti. L'ex rappresentante Chris Cox ricorda di aver letto dell'opinione di Prodigy su un aereo e di aver pensato che fosse "straordinariamente stupido". Quella rivelazione portò Cox e poi il rappresentante Ron Wyden a introdurre l' Internet Freedom and Family Empowerment Act , che sarebbe poi diventato la Sezione 230.

In pratica, creare cerchi aggiuntivi per le piattaforme da attraversare al fine di mantenere le protezioni della Sezione 230 quasi certamente si tradurrebbe in meno opportunità di condividere opinioni controverse online, non di più: sotto la Sezione 230, le piattaforme dedicate a interessi di nicchia e visioni delle minoranze possono prosperare.

Gli editori di carta stampata ei servizi in linea sono molto diversi e sono trattati in modo diverso secondo la legge, e dovrebbe esserlo.

È vero che i servizi in linea non hanno la stessa responsabilità per i loro contenuti che hanno la carta stampata. A differenza delle pubblicazioni come i giornali che sono legalmente responsabili del contenuto che stampano, le pubblicazioni online sono sollevate da questa responsabilità dalla Sezione 230. La principale distinzione che la legge crea è tra pubblicazione online e offline, un riconoscimento delle differenze di scala intrinseche tra le due modalità di pubblicazione. (Nonostante le affermazioni contrarie, non vi è alcun significato legale nell'etichettare un servizio online come una "piattaforma" rispetto a un "editore".)

Ma un ulteriore scopo della Sezione 230 era eliminare qualsiasi distinzione tra coloro che selezionano, curano e modificano attivamente il discorso prima di distribuirlo e coloro che ne sono semplicemente canali passivi. Prima della Sezione 230, i tribunali hanno effettivamente disincentivato le piattaforme dall'impegnarsi in qualsiasi moderazione del discorso. La Sezione 230 fornisce l'immunità a qualsiasi "fornitore o utente di un servizio informatico interattivo" quando quel "fornitore o utente" ripubblica contenuto creato da qualcuno o qualcos'altro, proteggendo sia le decisioni di moderarlo che quelle di trasmetterlo senza moderazione.

"Utente", in particolare, è stato interpretato in senso ampio per essere applicato "semplicemente a chiunque utilizzi un servizio informatico interattivo". Questo include chi gestisce un sito web, i messaggi di bacheche o newsgroup , o qualcuno che in avanti e-mail . Un utente può essere un individuo, un'organizzazione senza scopo di lucro, un'università , una piccola impresa fisica o, sì, una "azienda tecnologica".

Le società di media di notizie tradizionali, come un editore di giornali, possono lamentarsi del fatto che la Sezione 230 offre alle piattaforme di social media online una protezione legale aggiuntiva e quindi un vantaggio sleale. Ma la sezione 230 non fa distinzione tra entità di notizie e piattaforme di social media. E molti, se non la stragrande maggioranza, delle entità dei mezzi di informazione pubblicano online, da solo o in tandem con le loro edizioni cartacee. Quando un'entità dei media di notizie pubblica online, ottiene la stessa immunità dalla sezione 230 di responsabilità basata sulla pubblicazione di contenuti di qualcun altro che ottiene una piattaforma di social media.

No, la Sezione 230 non impedisce alle piattaforme di moderare i contenuti.

L'idea sbagliata che le piattaforme possano in qualche modo perdere le protezioni della Sezione 230 per moderare i post degli utenti ha ottenuto molto tempo di trasmissione. Questo è falso. La sezione 230 consente ai siti di moderare i contenuti come meglio credono. Ed è quello che vogliamo: una varietà di siti con una pletora di pratiche di moderazione mantiene l'ecosistema online funzionante per tutti. Internet è un posto migliore quando possono coesistere più filosofie di moderazione, alcune più restrittive e altre più permissive.

Le riforme della sezione 230 (che abbiamo visto) non migliorerebbero le piattaforme con moderazione.

È assolutamente un problema che solo poche aziende tecnologiche esercitino un immenso controllo su quali altoparlanti e messaggi sono consentiti online. È un problema che quelle stesse aziende non riescano a far rispettare le proprie politiche in modo coerente o non offrono agli utenti opportunità significative per appellarsi a decisioni di moderazione sbagliate.

Ma senza la Sezione 230 ci sono poche speranze che un concorrente con pratiche di moderazione del discorso più eque prendendo piede, data la pratica dei grandi attori di acquisire potenziali concorrenti prima che possano mai minacciare lo status quo.

Ma ci sono modi per far funzionare meglio la moderazione dei contenuti per gli utenti.

Un gruppo di esperti di moderazione dei contenuti, organizzazioni, sostenitori ed esperti accademici concordano sul fatto che il modo migliore per iniziare a migliorare la moderazione è che le aziende implementino i "Principi di Santa Clara sulla trasparenza e la responsabilità nella moderazione dei contenuti". Questi principi sono un pavimento, non un soffitto. Affermano:

  • Le aziende dovrebbero pubblicare il numero di post rimossi e gli account sospesi permanentemente o temporaneamente a causa di violazioni delle linee guida sui contenuti.
  • Le aziende dovrebbero fornire un avviso a ciascun utente il cui contenuto è stato rimosso o l'account è sospeso in merito al motivo della rimozione o della sospensione.
  • Le aziende dovrebbero fornire un'opportunità significativa per ricorrere tempestivamente a qualsiasi rimozione di contenuti o sospensione dell'account.

A parte questi principi, ci sono molti altri modi in cui gli utenti (e il Congresso) possono spingere per migliori pratiche di moderazione senza abrogare o modificare la Sezione 230. Mentre le grandi aziende tecnologiche potrebbero chiedere a gran voce regolamenti che potrebbero ostacolare i loro concorrenti più piccoli, sono in particolare in silenzio su riforme che potrebbero frenare le pratiche che consentono loro di dominare Internet oggi. Ecco perché EFF raccomanda al Congresso di aggiornare la legge antitrust per fermare il flusso di fusioni e acquisizioni che hanno reso la concorrenza nella Big Tech un'illusione. Prima che il governo approvi una fusione, le società dovrebbero dimostrare che la fusione non aumenterà il loro potere di monopolio o danneggerà indebitamente la concorrenza.

Ma anche l'aggiornamento della politica antitrust non è sufficiente. I modelli di business delle principali piattaforme di social media prosperano su pratiche che tengono gli utenti all'oscuro di quali informazioni raccolgono su di noi e di come vengono utilizzate. Le decisioni su quale materiale (inclusa la pubblicità) fornire agli utenti sono informate da una rete di inferenze sugli utenti, inferenze che di solito sono impossibili anche solo da vedere per gli utenti, figuriamoci corrette.

A causa del legame tra le politiche di moderazione vocale dei social media e la loro gestione irresponsabile dei dati degli utenti, il Congresso non può migliorare le pratiche di Big Tech senza affrontare i suoi modelli di business basati sulla sorveglianza. Inoltre, gli utenti non dovrebbero essere tenuti in ostaggio dall'algoritmo proprietario di una piattaforma. Invece di servire a tutti "un algoritmo per governarli tutti" e offrire agli utenti solo poche opportunità per modificarlo, le piattaforme dovrebbero aprire le proprie API per consentire agli utenti di creare le proprie regole di filtraggio per i propri algoritmi. I notiziari, le istituzioni educative, i gruppi della comunità e gli individui dovrebbero essere tutti in grado di creare i propri feed, consentendo agli utenti di scegliere chi si fidano per curare le loro informazioni e condividere le loro preferenze con le loro comunità.

In sintesi: ciò che è necessario per garantire che una varietà di punti di vista abbia un posto sui social media non sta creando ulteriori eccezioni legali alla Sezione 230. Piuttosto, le aziende dovrebbero istituire politiche di moderazione ragionevoli e trasparenti . Le piattaforme non dovrebbero fare eccessivo affidamento sul filtraggio automatico e silenziare involontariamente i discorsi e le comunità legittimi nel processo . E le piattaforme dovrebbero aggiungere funzionalità per offrire agli utenti stessi, non ai proprietari della piattaforma o a terze parti, un maggiore controllo sui tipi di post che vedono .

No, la riforma della Sezione 230 non danneggerà le aziende Big Tech come Facebook e Twitter, ma danneggerà le piattaforme e gli utenti più piccoli.


Alcune persone pensano erroneamente che l'eliminazione della Sezione 230 risolverà le loro preoccupazioni (spesso legittime) sul dominio dei servizi online come Facebook e Twitter. Ma ciò non risolverà questi problemi: garantirà solo che le
principali piattaforme non affrontino mai una concorrenza significativa .

La riforma della Sezione 230 non solo non riuscirebbe a punire la "Big Tech", ma si ritorcerebbe contro in quasi tutti i modi

Facebook è stata una delle prime società tecnologiche ad approvare SESTA / FOSTA, la legge del 2018 che ha minato in modo significativo le protezioni della Sezione 230 per la libertà di parola online, e Facebook sta ora guidando l'accusa per ulteriori riforme alla Sezione 230. Sebbene le richieste di riforma della Sezione 230 siano frequenti motivati ​​dalla delusione per le politiche di moderazione del discorso di Big Tech, le prove mostrano che ulteriori riforme alla Sezione 230 renderebbero più difficile per i nuovi entranti competere con Facebook o Twitter e probabilmente peggiorerebbero la censura, non migliorerebbero.

Sfortunatamente, cercare di legiferare che le piattaforme moderino determinati contenuti in modo più energico, o più "neutrale", creerebbe un immenso rischio legale per qualsiasi nuova piattaforma di social media, alzando, anziché abbassare, la barriera all'ingresso di nuove piattaforme. Allo stesso modo, se Twitter e Facebook dovessero affrontare una seria concorrenza, le decisioni che prendono su come gestire (o non gestire) i discorsi di odio o la disinformazione non avrebbero quasi l'influenza che hanno oggi sul discorso online. Se esistessero venti delle principali piattaforme di social media, le decisioni che ognuna di loro prende per ospitare, rimuovere o verificare i fatti l'ultimo post fuorviante sui risultati delle elezioni non avrebbe lo stesso effetto sul discorso pubblico.

In parole povere: la riforma della Sezione 230 non solo non riuscirebbe a punire la "Big Tech", ma si ritorcerebbe contro in quasi tutti i modi, portando a un minor numero di posti in cui le persone possono pubblicare discorsi online, e ad una maggiore censura, non meno.

L'abrogazione della sezione 230 sarebbe disastrosa per gli utenti.

Non dobbiamo indovinare cosa succederebbe se abrogassimo la Sezione 230. L'abbiamo visto. SESTA / FOSTA ha sparato un buco proprio attraverso la Sezione 230, creando una nuova responsabilità penale e civile federale per chiunque "possieda, gestisca o operi un servizio informatico interattivo" e parli o ospiti contenuti di terze parti, con l'intento di "promuovere o facilitare la prostituzione di un'altra persona ". Il suo linguaggio ampio significa che se il proprietario di un servizio informatico interattivo ospita contenuti o punti di vista che potrebbero essere visti come la promozione o l'agevolazione della prostituzione, o come assistenza, supporto o facilitazione del traffico sessuale, il servizio è responsabile.

SESTA / FOSTA ha portato immediatamente alla censura e ad un aumento del rischio per le lavoratrici del sesso. Le organizzazioni che forniscono supporto e servizi alle vittime di tratta e abusi sui minori, lavoratrici del sesso e gruppi e individui che promuovono la libertà sessuale erano implicate nel suo linguaggio ampio. Temendo che commenti, post o annunci di natura sessuale vengano intrappolati da FOSTA, molte persone vulnerabili sono andate offline e sono tornate in strada, dove hanno subito abusi sessuali e hanno subito danni fisici. Inoltre, numerose piattaforme che ospitano discorsi interamente legali hanno dovuto chiudere e autocensurarsi.

È essenziale che alle aziende più nuove e più piccole venga data la stessa possibilità di ospitare il discorso che quelle aziende avevano quindici o venti anni fa

Abbiamo intentato una causa per abrogare SESTA / FOSTA per conto di diversi attori che sono stati danneggiati dalla legge.

Su larga scala, l' abrogazione all'ingrosso della Sezione 230 significa che molte, molte piattaforme nuove e più piccole dovrebbero semplicemente censurare pesantemente tutto ciò che potrebbe essere interpretato come discorso illegale. Molti di questi siti smetterebbero completamente di ospitare contenuti e i siti più piccoli che ospitano contenuti come funzione principale verrebbero forzati offline. Coloro che vogliono ancora ospitare contenuti dovrebbero utilizzare filtri e altra moderazione algoritmica che gettare una rete ampia, e probabilmente i post rimanenti richiederebbero giorni prima di poter essere visualizzati e consentiti online.

I siti più grandi, tuttavia, continuerebbero a funzionare in modo relativamente simile, sebbene con molta più censura e moderazione automatizzata molto più rigorosa. La sezione 230 è uno degli unici incentivi legali che i siti hanno ora a lasciare una grande quantità di contenuti che probabilmente eliminerebbero, dalle organizzazioni che pianificano una protesta a individui che chiedono la cacciata di un funzionario governativo.

Se i servizi in linea fossero responsabili di più tipi di contenuto, Internet sarebbe probabilmente peggiore, non migliore.

Sappiamo che le piattaforme sono notoriamente pessime con la moderazione. Anche quando esistono linee guida dettagliate per i moderatori , è spesso molto difficile applicare con successo regole rigide alla vasta gamma di tipi di discorso esistenti, ad esempio quando qualcuno è sarcastico o il contenuto è ironico. Di conseguenza, la creazione di nuove categorie di discorsi che i servizi online sono responsabili dell'hosting comporterebbe quasi certamente una rimozione eccessiva.

In questo momento, le piattaforme sono autorizzate a creare principalmente le proprie regole su come moderare. Dare al governo più potere di controllare la parola non sarebbe un rimedio ai problemi di moderazione esistenti. Ad esempio, le piattaforme di social media hanno lottato a lungo con il problema dei contenuti estremisti o violenti sulle loro piattaforme. Poiché non esiste un accordo internazionale su ciò che costituisce esattamente il contenuto terroristico, o addirittura violento ed estremista, le aziende esaminano l'elenco delle Nazioni Unite delle organizzazioni terroristiche designate o l'elenco delle organizzazioni terroristiche straniere del Dipartimento di Stato degli Stati Uniti. Ma quelle liste consistono principalmente di organizzazioni islamiste e sono in gran parte cieche, ad esempio, nei confronti dei gruppi estremisti di destra con sede negli Stati Uniti. E anche se ci fosse un consenso su ciò che costituisce un terrorista, il Primo Emendamento generalmente proteggerebbe la capacità di quegli individui di parlare in assenza di loro facendo vere minacce o incitando direttamente ad atti violenti.

La combinazione di questi elenchi e di sistemi di moderazione dei contenuti ottusi porta alla cancellazione di informazioni vitali non disponibili altrove, come prove di violazioni dei diritti umani o crimini di guerra. È molto difficile per i revisori umani, e impossibile per gli algoritmi, ottenere coerentemente le sfumature dell'attivismo, del contro-discorso e del contenuto estremista stesso. Il risultato è che molti casi di discorsi legittimi vengono erroneamente classificati come contenuti terroristici e rimossi dalle piattaforme dei social media. Questi falsi positivi e altri errori di moderazione ricadranno in modo sproporzionato sulle comunità musulmane e arabe. Inoltre ostacola giornalisti, accademici e funzionari governativi perché non possono visualizzare e / o condividere questo contenuto. Anche se a volte problematica, la documentazione e la discussione degli atti terroristici è essenziale dato che si tratta di una delle questioni politiche e sociali più importanti al mondo.

Con un ulteriore intervento del governo in ciò che deve essere censurato, questa situazione potrebbe potenzialmente peggiorare molto, mettendo le comunità emarginate e coloro con opinioni che differiscono da chiunque potrebbe essere al potere in una situazione online ancora più precaria di quanto non siano già. Gli attori del governo spesso etichettano come terroristi l'opposizione politica oi gruppi privi di potere. La sezione 230 garantisce che le piattaforme facciano queste scelte in base alle proprie chiamate su ciò che costituisce il discorso che non ospiteranno, non sui capricci del governo.

Abbiamo ancora bisogno della Sezione 230, ora più che mai.

Ora che alcune aziende sono cresciute fino a contenere la stragrande maggioranza dei contenuti online generati dagli utenti, è essenziale che alle aziende più nuove e più piccole venga data la stessa possibilità di ospitare il discorso che quelle aziende avevano quindici o venti anni fa. Senza la Sezione 230, è improbabile che la concorrenza abbia successo, perché la responsabilità per l'hosting di contenuti online sarebbe così grande che solo le aziende più grandi potrebbero sopravvivere al costo di cause legali (legittime o illegittime) che dovrebbero combattere. Inoltre, anche se è improbabile che la moderazione automatizzata dei contenuti abbia successo su larga scala, le aziende che potrebbero permettersela sarebbero le uniche che potrebbero tentare di moderare. Abbiamo ancora assolutamente bisogno della Sezione 230. In effetti, potremmo aver bisogno della Sezione 230 anche più di quando ne avevamo nel 1997.

Le protezioni della sezione 230 non sono ipotetiche. È stato utilizzato per proteggere utenti e servizi in tribunale molte, molte volte.

La sezione 230 non protegge solo le grandi aziende di cui hai sentito parlare, ma protegge tutti gli intermediari allo stesso modo. La rimozione di tale protezione aprirebbe tutti gli intermediari a cause legali, costringendo tutti tranne il più grande di loro a chiudere o interrompere del tutto l'hosting di contenuti generati dagli utenti. E sarebbe molto più difficile per i nuovi servizi che ospitano la parola entrare nell'ecosistema online.

La sezione 230 ha già protetto gli utenti in tribunale.

Le protezioni della sezione 230 non sono ipotetiche. È stato utilizzato per proteggere utenti e servizi in tribunale molte, molte volte .

Alcuni esempi: nel 2006, la sostenitrice della salute delle donne Ilena Rosenthal ha pubblicato un controverso pezzo di opinione scritto da Tim Bolen su un gruppo di notizie di Usenet. Gli avvocati hanno sostenuto che Rosenthal fosse responsabile per diffamazione, perché pubblicare i commenti l'ha resa una "sviluppatrice" delle informazioni in questione. La Corte Suprema della California ha confermato le forti protezioni della Sezione 230 . Se il tribunale si fosse trovato a favore dei querelanti, le implicazioni per la libertà di parola online sarebbero state di vasta portata: i blogger potrebbero essere ritenuti responsabili quando citano gli scritti di altre persone ei proprietari di siti web potrebbero essere ritenuti responsabili per ciò che le persone dicono nelle bacheche sui loro siti.

Nel 2007, una terza parte ha pubblicato dichiarazioni diffamatorie su un'azienda, la Universal Communications Systems, su una bacheca online di Lycos. La società ha citato in giudizio Lycos, sostenendo in parte che il processo di registrazione di Lycos e la struttura dei collegamenti avevano spinto le dichiarazioni ed esteso una sorta di "assistenza colpevole" all'autore. Il tribunale ha respinto quelle richieste, stabilendo che i servizi di Lycos erano protetti dalla Sezione 230. Lycos ha vinto la causa, grazie alla Sezione 230.

E nel 2003, una corte d'appello federale ha stabilito che la Sezione 230 proteggeva il creatore di una newsletter da rivendicazioni legali da parte di terzi la cui e-mail era inclusa nella newsletter. Il caso ha riconosciuto che la sezione 230 proteggeva i singoli editori digitali dalla responsabilità basata sui contenuti di terze parti, un principio fondamentale che continua a proteggere le persone ei servizi online oggi ogni volta che ospitano o distribuiscono contenuti di altre persone online.

Nel 2018, un foglio di calcolo noto come "Shitty Media Men List", inizialmente creato da Moira Donegan, ha ottenuto il riconoscimento per il contenimento di individui sospettati di maltrattamenti nei confronti di dipendenti di sesso femminile. Una causa per diffamazione contro Donegan è stata intentata dallo scrittore Stephen Elliott, che è stato nominato nella lista. Ma l'elenco Shitty Media Men era un foglio di calcolo di Google condiviso tramite link e reso modificabile da chiunque, rendendo particolarmente facile per chi parla anonimo condividere le proprie esperienze con gli uomini identificati nell'elenco. Poiché Donegan ha inizialmente creato il foglio di calcolo come piattaforma per consentire ad altri di fornire informazioni, Donegan è probabilmente immune da querela ai sensi della Sezione 230. Il caso è ancora in sospeso, ma ci aspettiamo che il tribunale decida di non essere responsabile.

Ci sono dozzine di casi come questi. Ma molti, molti di più non hanno mai dovuto andare in tribunale, grazie alle protezioni della Sezione 230, gran parte della quale è ormai una legge consolidata.

No, la Sezione 230 non significa che certe opinioni politiche siano censurate più di altre.

Alcuni politici sembrano credere (o almeno hanno affermato) che la Sezione 230 si traduca nella censura di alcune opinioni politiche , nonostante non ci siano prove a sostegno dell'affermazione. Altri sembrano credere (o almeno hanno affermato) che la Sezione 230 si traduca in piattaforme che ospitano una varietà di contenuti "pericolosi" . Sebbene possa essere facile puntare il dito contro le piattaforme e, per estensione, contro la legge che protegge quei servizi online dalla responsabilità per gran parte dei contenuti generati dagli utenti, la Sezione 230 non è il problema. Come descritto sopra, anche senza la Sezione 230, i servizi online hanno il diritto di Primo Emendamento di moderare i contenuti generati dagli utenti.

Riformare le piattaforme online è un lavoro duro. L'abrogazione della Sezione 230 può sembrare una facile via d'uscita, ma come menzionato sopra, nessuna riforma della Sezione 230 che abbiamo visto risolverebbe questi problemi. Piuttosto, le riforme sarebbero probabilmente controproducenti, aumentando la censura in alcuni casi e aumentando pericolosamente la responsabilità in altri.

C'è molta confusione intorno alla Sezione 230, ma puoi aiutare.

La cosa incredibile di Internet è che non sei responsabile per ciò che ha scritto qualcun altro, anche se lo condividi con altri. Prenditi un minuto per esercitare questo diritto e condividi questo post sul blog, in modo che più persone possano avere un'idea più chiara del motivo per cui la Sezione 230 è importante e di come aiuta gli utenti di servizi Internet sia grandi che piccoli.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/12/section-230-good-actually in data Thu, 03 Dec 2020 22:40:03 +0000.