Fondazione Frontiera Elettronica

Come i monopoli delle Big Tech distorcono il nostro discorso pubblico

Come i monopoli delle Big Tech distorcono il nostro discorso pubblico

Molto prima della crisi pandemica, c'era una diffusa preoccupazione per l'impatto che la tecnologia stava avendo sulla qualità del nostro discorso, dalle campagne di disinformazione alle campagne di influenza alla polarizzazione.

È vero che il modo in cui parliamo l'un l'altro e del mondo è cambiato, sia nella forma (grazie alla migrazione del discorso su piattaforme online) sia nella natura, sia che si tratti dell'ascesa di elementi non verbali nel nostro discorso scritto (emoji, meme , Arte ed emoticon ASCII) o il tipo di campagne di molestie e brigate online che sono cresciute con Internet .

Una spiegazione comune per il cambiamento nel nostro discorso è che le più grandi piattaforme tecnologiche usano la sorveglianza, la raccolta di dati e l'apprendimento automatico per manipolarci, sia per aumentare il "coinvolgimento" (e quindi pagine visualizzate e quindi entrate pubblicitarie) o per convincerci delle cose questo non è vero, ad esempio, per convincerci ad acquistare qualcosa che non vogliamo o sostenere un politico a cui altrimenti saremmo contrari .

C'è una storia semplice su quella relazione: raccogliendo molti dati su di noi e applicando algoritmi auto-modificanti di apprendimento automatico a quei dati , Big Tech può indirizzarci con messaggi che scivolano oltre le nostre facoltà critiche, cambiando le nostre idee non con ragione, ma con una sorta di mesmerismo tecnologico.

Questa storia ha origine dalla stessa Big Tech. Le richieste di marketing per la pubblicità programmatica e il marketing mirato (incluso il marketing politico) promettono ai potenziali clienti che possono acquistare il pubblico per le loro idee attraverso Big Tech, che mescolerà i suoi vasti repository di dati con l'apprendimento automatico e travolgerà le nostre difese cognitive per convertirci in clienti per prodotti o idee.

Dovremmo sempre essere scettici nei confronti delle dichiarazioni di marketing. Questi non sono articoli di riviste sottoposte a revisione paritaria, sono oggetti commerciali. Il fatto che le affermazioni convincano gli esperti di marketing a dare miliardi di dollari a Big Tech non garantisce che le affermazioni siano vere. Dopotutto, i potenti decisori nel mondo degli affari hanno una lunga storia di credenze che si sono rivelate false.

È chiaro che il nostro discorso sta cambiando. Le idee che erano ai margini per anni hanno acquisito una nuova centralità. Alcune di queste idee sono quelle che ci piacciono (inclusività di genere, giustizia razziale, sentimento anti-monopolistico) e alcune sono idee che non ci piacciono (xenofobia, teorie della cospirazione e negazione della scienza del cambiamento climatico e dei vaccini).

Anche il nostro mondo è dominato dalla tecnologia, quindi ogni cambiamento nel nostro mondo probabilmente implica la tecnologia. Districare le relazioni causali tra tecnologia e discorso è un problema spinoso, ma è importante.

È possibile che Big Tech abbia inventato una forma high-tech di mesmerismo, ma che ci crediate o no, ci sono molti modi meno controversi e più ovvi in ​​cui Big Tech sta influenzando (e distorcendo) il nostro discorso.

Individuazione del pubblico preciso

Ovviamente, Big Tech è incredibilmente brava a rivolgersi a un pubblico preciso , essendo questa una proposta di valore per l'intero settore della tecnologia pubblicitaria. Hai bisogno di raggiungere studenti stranieri dall'orlo del Pacifico facendo studi di laurea in Fisica o Chimica nel Midwest? Nessun problema. Gli inserzionisti apprezzano questa funzione, ma anche chiunque spera di influenzare il nostro discorso.

Individuare le persone va oltre "l'acquisto di un pubblico" per un annuncio. Gli attivisti che vogliono raggiungere le persone che si preoccupano dei loro problemi possono utilizzare questa funzione per mobilitarli a sostegno delle loro cause. Le persone queer che non conoscono nessuno è in grado di trovare comunità online per aiutarle a comprendere e sviluppare le proprie identità. Le persone che vivono con malattie croniche possono parlare delle loro malattie con altri che condividono i loro problemi.

Questa precisione è buona per chiunque abbia una visione che al di fuori del mainstream, comprese le persone che hanno opinioni su cui non siamo d'accordo o su cui ci opponiamo. Big Tech può aiutarti a trovare persone che collaborano con te in campagne di molestie razziste o sessiste o fomentare movimenti politici odiosi.

Un discorso richiede partecipanti: se non riesci a trovare qualcuno di interessante nel discutere un argomento esoterico con te, non puoi discuterne. Big Tech ha radicalmente modificato il nostro discorso, rendendo facile per le persone che vogliono parlare di argomenti oscuri trovare persone che discutono, consentendo conversazioni che letteralmente non avrebbero potuto accadere altrimenti. A volte va bene, a volte è terribile, ma è assolutamente diverso da qualsiasi altra volta.

Segretezza

Alcune conversazioni sono rischiose. Parlare della tua strana sessualità in una cultura intollerante può farti ostracizzare o sottoporti a molestie e violenza. Parlare della tua affinità con la cannabis in un luogo in cui non è legale consumarlo può farti licenziare o addirittura imprigionare.

Il fatto che molte conversazioni online avvengano in spazi privati ​​significa che le persone possono dire cose che altrimenti avrebbero tenuto per sé per paura della punizione.

Non tutte queste cose sono buone. Essere scoperti a produrre pubblicità politiche ingannevoli può metterti nei guai con un regolatore elettorale e anche inviare sostenitori ai tuoi avversari. La pubblicità discriminata dalla tua azienda in base alla razza, al genere o alla sessualità può farti boicottare o fare causa , ma se trovi scappatoie che ti consentono di colpire determinati gruppi che concordano con il tuo programma discriminatorio , puoi vincere la loro attività.

La segretezza consente alle persone di dire cose illegali e socialmente inaccettabili alle persone che sono d'accordo con loro, riducendo notevolmente le conseguenze di tale discorso. Questo è il motivo per cui il discorso privato è essenziale per il progresso sociale, ed è per questo che il discorso privato è benefico per le persone che fomentano l'odio e la violenza. Crediamo nel discorso privato e ci combattiamo da 30 anni perché crediamo nei suoi benefici, ma non neghiamo i suoi costi.

In combinazione con il targeting, la segretezza consente una forma di discorso molto persuasiva, non solo perché puoi commettere atti immorali con impunità , ma anche perché le minoranze sfavorite possono sussurrare idee troppo pericolose per parlare ad alta voce .

Mentire e / o essere sbagliato

La concentrazione dell'industria tecnologica ha prodotto una monocultura di risposte. Per molte persone , Google è un oracolo e le sue risposte, i migliori risultati di ricerca, sono definitive.

C'è una buona ragione per questo: Google ha quasi sempre ragione . Digita "Quanto è lungo il Ponte di Brooklyn" nella casella di ricerca e otterrai una risposta che concorda sia con Wikipedia, sia con la sua fonte sottostante, il rapporto del 1967 della Commissione di conservazione dei punti di riferimento di New York City.

A volte, però, Google viene indotto a mentire da persone che vogliono spingere menzogne ​​sul resto di noi. Esplorando sistematicamente il sistema di ranking di ricerca di Google (un sistema inondato di segretezza e sottoposto a costante analisi da parte del settore dell'ottimizzazione per i motori di ricerca ), i cattivi attori possono e fanno cambiare i risultati migliori su Google, ingannando il sistema per restituire disinformazione ( e, a volte, è solo uno stupido errore ).

Questo può essere un mezzo molto efficace per spostare il nostro discorso. Le false risposte da una fonte affidabile sono naturalmente prese al valore nominale, specialmente quando la risposta falsa è plausibile (aggiungendo o rimuovendo a pochi metri dalla lunghezza del ponte di Brooklyn) o dove l'interrogante non ha davvero idea di quale dovrebbe essere la risposta (aggiungendo decine di migliaia di miglia al secondo alla velocità della luce).

Anche quando Google non è intenzionalmente indotto a dare risposte sbagliate, può comunque dare risposte sbagliate. Ad esempio, quando un preventivo viene ampiamente distribuito in modo errato e successivamente corretto, Google può richiedere mesi o addirittura anni per interrompere la distribuzione della cattiva attribuzione nei suoi risultati migliori. In effetti, a volte Google non riesce mai a farlo in casi come questo , perché le persone che ottengono la risposta sbagliata da Google la ripetono sui propri post, aumentando il numero di fonti in cui Google trova la risposta sbagliata.

Questo non è limitato solo a Google. Gli stretti verticali di ricerca che Google non controlla – siti di incontri , siti di reti professionali , alcuni mercati online – dominano in generale i loro campi e sono anche considerati dai ricercatori che li trattano come infallibili, anche se potrebbero riconoscere che è sempre saggio fare così.

Il risultato è che ciò di cui parliamo e il modo in cui ne parliamo dipende fortemente da ciò che Google ci dice quando gli facciamo delle domande. Ma questo non dipende dal fatto che Google cambi le nostre convinzioni esistenti: se sai esattamente qual è la velocità della luce o quanto è lungo il Ponte di Brooklyn, un cattivo risultato di ricerca di Google non cambierà idea. Piuttosto, si tratta di Google che riempie un vuoto nelle nostre conoscenze.

Esiste un problema secondario correlato di "modi di dire distintivi e disgiunti". La ricerca di "bufala climatica" produce risultati diversi dalla ricerca di "crisi climatica" e risultati diversi da "cambiamento climatico". Sebbene tutti e tre si riferiscano allo stesso fenomeno di base, riflettono credenze molto diverse al riguardo. Il termine che usi per iniziare la tua ricerca ti condurrà in una diversa raccolta di risorse.

Questo è un problema di vecchia data nel discorso, ma è esacerbato dal mondo digitale.

"Ordina per controverso"

I siti Web supportati da pubblicità traggono profitto dalle visualizzazioni di pagina. Più pagine ti offrono, più annunci possono mostrarti e più è probabile che ti mostreranno un annuncio sul quale farai clic. Gli annunci non sono molto efficaci, anche quando sono altamente mirati e più annunci vedi, più sei affascinato dai loro passi , quindi ci vogliono un sacco di visualizzazioni di pagina per generare un volume sostenibile di clic e il numero di le visualizzazioni di pagina necessarie per mantenere entrate costanti tendono ad aumentare nel tempo.

Aumentare il numero di visualizzazioni di pagina è difficile: le persone hanno budget fissi. Le piattaforme possono aumentare il tuo "coinvolgimento" dandoti suggerimenti per cose che ti faranno piacere, ma questo è difficile (pensa al motore di raccomandazioni di Netflix).

Ma le piattaforme possono anche aumentare il coinvolgimento rendendoti arrabbiato, ansioso o indignato e queste emozioni sono molto più facili da generare con processi automatizzati. Iniettare commenti snervanti, immagini scioccanti o affermazioni stravaganti nelle tue sessioni online può spegnerti a lungo termine, ma a breve termine, sono una fonte affidabile di clic in eccesso.

Ciò ha un evidente impatto sul nostro discorso, amplificando la naturale tendenza umana a voler pesare sulle controversie su argomenti che contano per te. Promuove discussioni arrabbiate e improduttive. Non si tratta di controllo mentale: le persone possono scegliere di ignorare queste "raccomandazioni" o allontanarsi dalle controversie, ma le piattaforme che implementano questa tattica assumono spesso un carattere discordante e arrabbiato.

Censura deliberata

La moderazione dei contenuti è molto difficile. Chiunque abbia mai tentato di creare regole per ciò che può e non può essere pubblicato rapidamente scopre che queste regole non possono mai essere complete — per esempio, se classifichi una certa condotta come "molestia", potresti scoprire quella condotta che è solo un po ' meno grave di quanto hai specificato è anche accusato di molestie da parte delle persone che la ricevono.

Per quanto sia difficile, diventa molto più difficile su scala, in particolare quando si tratta di linee interculturali e linguistiche : difficile quanto è decidere se qualcuno oltrepassa la linea quando quella persona proviene dalla tua stessa cultura e parla il tuo nativo linguaggio, è molto più difficile interpretare i contributi di persone di diversa estrazione e le barriere linguistiche aggiungono un altro livello di incredibile complessità .

L'ascesa di piattaforme monolitiche con centinaia di milioni (o addirittura miliardi) di utenti significa che una parte sostanziale del nostro discorso pubblico è condotta all'ombra di politiche di moderazione che non sono – e non possono – essere complete o ben gestite.

Anche se queste politiche hanno tassi di errore estremamente bassi – anche se solo uno su mille commenti o post eliminati è vittima di un'applicazione troppo zelante – i sistemi con miliardi di utenti generano centinaia di miliardi di post al giorno, e questo ammonta a molti milioni di atti di censura ogni giorno.

Naturalmente, non tutte le politiche di moderazione sono buone e, a volte, le politiche di moderazione sono aggravate da cattivi regimi legali. Ad esempio, SESTA / FOSTA, un disegno di legge che mira teoricamente a porre fine al traffico di esseri umani, era inizialmente troppo vago e vago, e le politiche di moderazione che ha generato hanno quasi terminato alcuni tipi di discussioni sulla sessualità umana nei forum pubblici, tra cui alcuni che raggiunto l'obiettivo nominale di SESTA / FOSTA di migliorare la sicurezza per il sesso lavoratori (ad esempio, forum in cui le prostitute tenevano elenchi di potenziali clienti pericolosi). Questi soggetti erano sempre soggetti a standard arbitrari di moderazione, ma SESTA / FOSTA rendevano praticamente impossibile il già difficile compito di parlare della sessualità.

Allo stesso modo, il requisito del Communications Decency Act per le liste nere di materiali per adulti su connessioni Internet sovvenzionate a livello federale (come quelle nelle scuole pubbliche e nelle biblioteche) ha precluso l'accesso a una vasta gamma di materiali legittimi , inclusi siti Web che offrono informazioni sulla salute e il benessere sessuale, e sulla gestione di molestie e aggressioni sessuali.

Censura accidentale

Oltre alle politiche di moderazione considerate male, le piattaforme sono anche soggette a errori di esecuzione mal eseguiti, in altre parole. È noto che Tumblr ha installato un filtro automatico destinato a bloccare tutti i "contenuti per adulti" e questo filtro ha bloccato innumerevoli immagini innocue, dalle immagini di suggestivi ortaggi a radice agli stessi esempi di immagini di Tumblr che contenevano nudità ma non costituivano contenuti per adulti e sarebbero quindi ignorati da i suoi filtri. Gli errori vengono commessi da moderatori di contenuti sia umani che automatizzati.

A volte, gli errori sono casuali e strani, ma alcuni argomenti hanno maggiori probabilità di provocare una censura accidentale rispetto ad altri: la sessualità umana , le discussioni dei sopravvissuti su abusi e violenza (in particolare la violenza sessuale) e persino le persone i cui nomi o case suonano o assomigliano parole che sono state vietate dai filtri (i vietnamiti di nome Phuc sono stati afflitti dai filtri di chat di AOL, così come i britannici che vivevano a Scunthorpe ).

La natura sistematica di questa censura accidentale significa che interi campi del discorso sono difficili o addirittura impossibili da intraprendere su piattaforme digitali. Questi argomenti sono vittime di una sorta di superstizione della macchina, un computer andato in tilt che li ha vietati senza l'approvazione o l'intenzione dei suoi programmatori umani, le cui sviste, fragilità e miopia li hanno costretti a programmare in una cattiva regola, dopo di che sono semplicemente scomparsi dalla scena, lasciando indietro la macchina per ripetere il loro errore su larga scala.

Censura di terzi

Sin dai primi giorni delle reti digitali, i governi del mondo hanno lottato con quando e se i servizi online dovrebbero essere responsabili di ciò che fanno i loro utenti. A seconda del paese in cui opera un fornitore online, ci si può aspettare che blocchi, o rimuova preventivamente, violazione del copyright, nudità, materiale sessualmente esplicito, materiale che insulti la famiglia reale , diffamazione, incitamento all'odio, molestie, istigazioni al terrorismo o al settario violenza, piani per commettere crimini, blasfemia, eresia e una miriade di altre forme di comunicazione difficili da definire.

Queste politiche sono difficili da far applicare ai team di moderazione in modo coerente e corretto, ma quel lavoro è reso molto, molto più difficile dai tentativi deliberati di terze parti di molestare o mettere a tacere gli altri facendo false dichiarazioni su di loro.

Nel caso più semplice, gli aspiranti censori inviano semplicemente false relazioni alle piattaforme nella speranza di sfuggire a un moderatore pigro o stanco o confuso, al fine di ottenere che qualcuno venga escluso o il discorso rimosso.

Tuttavia, poiché le piattaforme istituiscono regole sempre più precise su ciò che è e non è motivo di rimozione o cancellazione, i troll ottengono una nuova arma: una conoscenza enciclopedica di queste regole.

Le persone che vogliono utilizzare le piattaforme per discussioni in buona fede sono in svantaggio rispetto agli "avvocati delle regole" che vogliono interrompere questo discorso. I primi hanno interessi e lavori sui quali vogliono comunicare. L'interesse e il lavoro di quest'ultimo interrompono il discorso.

Più complesse sono le regole, più facile è per gli attori in cattiva fede trovare in loro un motivo per denunciare i loro avversari, e più è difficile per gli attori in buona fede evitare di attraversare una delle miriadi di linee del regolamento.

Conclusione

L'idea che Big Tech possa plasmare il discorso aggirando le nostre facoltà critiche spiandoci e analizzandoci è sia egoistica (in quanto aiuta Big Tech a vendere pubblicità e influenzare i servizi) sia non plausibile, e dovrebbe essere vista con estremo scetticismo.

Ma non devi accettare affermazioni straordinarie per trovare modi in cui Big Tech stia distorcendo e degradando il nostro discorso pubblico. La scala di Big Tech lo rende opaco e soggetto a errori, anche se rende impossibile il lavoro di mantenere uno spazio civile e produttivo per la discussione e il dibattito.

I monopoli di Big Tech – con i loro meccanismi di blocco che tengono in ostaggio i dati e le relazioni sociali degli utenti – rimuovono ogni responsabilità che potrebbe derivare dalla paura che gli utenti infelici possano passare ai concorrenti.

L'enfasi sulla riduzione delle tattiche di manipolazione di Big Tech attraverso misure normative ha l'effetto paradossale di rendere più costoso e difficile entrare nel mercato con un concorrente di Big Tech. Un regolamento progettato per frenare la Big Tech comporterà costi che la piccola tecnologia non può permettersi, e diventa una licenza per dominare il mondo digitale mascherato da punizione normativa per gli standard lassisti.

La scala – e il dominio – delle aziende tecnologiche si traduce in un discorso pubblico inequivocabile, ovvio e tossico. La buona notizia è che disponiamo di strumenti per affrontare questo problema: rotture, controllo delle concentrazioni, limiti all'integrazione verticale. Forse dopo che Big Tech sarà stato ridotto alle dimensioni, scopriremo comunque che c'è un qualche tipo di mesmerismo di apprendimento automatico che dovremo affrontare, ma in tal caso, il nostro lavoro sarà infinitamente più facile quando Big Tech è stato spogliato degli affitti monopolistici che usa per difendersi dai tentativi di alterare la sua condotta attraverso la politica e la legge.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2020/05/how-big-tech-monopolies-distort-our-public-discourse in data Thu, 28 May 2020 19:55:14 +0000.