Nuovi media, nuovi dati e un oscuro presentimento
Gli ultimi due decenni hanno visto grandi cambiamenti nelle pratiche di sorveglianza; C’è stato uno spostamento dell’attenzione dal potere e controllo statale alle grandi aziende tecnologiche e alla monetizzazione. Ciò a cui stiamo attualmente assistendo è ancora un altro cambiamento, che sta stabilendo pratiche di sorveglianza come mezzo di guerra ibrida. La sorveglianza può essere utilizzata come arma, e non solo in contesti militari. La visione basata sull’intelligenza artificiale di accedere a ciò che le persone pensano e sentono potrebbe sembrare innocua in confronto, ma potrebbe rivelarsi un’arma molto più potente.
Pratiche di sorveglianza vecchie e nuove
A partire dal XVIII secolo, la sorveglianza fu un’attività prevalentemente gestita dallo Stato, utilizzata per scopi amministrativi, per esercitare controllo e potere. Le precedenti tecnologie di sorveglianza erano limitate rispetto agli standard odierni, poiché non tutte le azioni venivano fotografate o filmate, né tutte le conversazioni venivano registrate. Parte della sua efficienza derivava da un alone di pervasività percepita, una variazione dell’effetto panopticon che oggi viene definito un “effetto agghiacciante” nelle discussioni legali: non sapevi se c’era qualcuno che ascoltava la tua telefonata, ma il la possibilità che qualcuno potesse potenzialmente ascoltarti ti ha già fatto cambiare comportamento.
Con la sorprendente ascesa delle piattaforme digitali, si è verificato un notevole cambiamento nelle pratiche di sorveglianza : chi lo fa, come lo fa e perché? Le grandi aziende offrono servizi che producono set di dati che vengono a loro volta utilizzati per la monetizzazione. Le dinamiche di potere favoriscono fortemente una forma di capitalismo basato sulla sorveglianza. Motori di ricerca, piattaforme che forniscono contenuti e social media: ogni passo compiuto è costituito da dati e lascia dati dietro di sé. Poiché sempre più parti della nostra vita sono costituite e vissute all’interno dei dati, questo tipo di sorveglianza è quasi onnicomprensiva. Il suo obiettivo principale non è, essenzialmente, politico; il potere esercitato sugli utenti risiede nell'estrazione di dati e nella manipolazione di comportamenti con il fine ultimo di fare soldi . Pur essendo consapevoli che tutte le comunicazioni vengono registrate e analizzate, la maggior parte delle persone lo accetta, lo ignora o vede un maggiore vantaggio nei servizi gratuiti che consuma.
Naturalmente, gli stati sono ansiosi di ottenere questi dati, poiché si tratta di informazioni così disponibili e allettanti. Le proposte dei decisori politici dell’UE di fare in modo che i fornitori analizzino automaticamente i dati di messaggistica per cercare contenuti illegali sono un esempio recente di questo desiderio. Alla luce della più generale deriva verso l’arretramento democratico che può essere osservata negli Stati Uniti e negli stati membri dell’Unione Europea, la combinazione di datizzazione universale, presa di mira di individui e dissoluzione del confine tra stato e aziende in tempi di tendenze autocratiche sembra piuttosto oscura. triade di pratiche di sorveglianza.
Armare la sorveglianza
Questa triade oscura indica ancora un altro cambiamento, l’ arma della sorveglianza. Pegasus, uno strumento spyware offerto dal gruppo NSO con sede in Israele, si descrive come un servizio di cyber-intelligence per aiutare i governi a combattere il terrorismo e la criminalità. In pratica funziona infiltrandosi in un singolo telefono – ad esempio tramite servizi di messaggistica – consentendo allo spyware di raccogliere tutti i dati prodotti (contatti, comunicazioni, contenuti). Anche se viene commercializzato come strumento per prevenire o indagare sul terrorismo e sulla criminalità, questo tipo di raccolta di informazioni può essere utilizzata per attacchi mirati contro individui a scopo politico. Usare la conoscenza di individui – come giornalisti o oppositori politici – per minacciarli o ricattarli è una strategia efficace e a basso sforzo per trasformare la sorveglianza in un’arma. Invece di gestire i propri sforzi di intelligence, gli attori e le agenzie statali si sono ritrovati nel ruolo di clienti di aziende private che offrono loro i loro esclusivi servizi di spionaggio. Dato che, nei sistemi democratici, ciò viene condotto sotto l’etichetta di lotta alla criminalità e contrasto al terrorismo, queste misure altamente invasive possono avvenire in gran parte al di fuori del controllo legale.
Ciò è ancora più vero quando la sorveglianza digitale viene utilizzata in conflitti aperti per la raccolta automatizzata di informazioni e la selezione degli obiettivi, come sarebbe stato fatto nell’aggressione russa contro l’Ucraina e negli attacchi israeliani contro Gaza in seguito agli attacchi di Hamas del 7 ottobre. , 2023. Secondo resoconti giornalistici , il sistema israeliano Lavender avrebbe utilizzato dati di sorveglianza per identificare terroristi e agenti di Hamas. Per fare un altro esempio, il sistema Palantir – come previsto e promosso dall’azienda – promette un’interfaccia in linguaggio naturale che aggrega tutti i dati disponibili per aumentare la consapevolezza situazionale nei conflitti, per analizzare le possibili e più efficaci linee d’azione e raccomandare queste linee di condotta. azione. Alcune di queste funzionalità vengono utilizzate e applicate negli sforzi ucraini contro gli invasori russi.
In termini più astratti, queste pratiche di sorveglianza armata sono anche radicate nelle tecniche di dataficazione, profilazione, targeting e raccomandazione derivate dalla piattaforma. La differenza fondamentale, tuttavia, è che il punteggio probabilistico non denota potenziali clienti o utenti sensibili agli annunci, ma combattenti nemici o terroristi. Il tipo di guerra basata su piattaforme e reti, ricca di dati, riflette ciò che va sotto l’etichetta di guerra ibrida. Ciò che spesso viene trascurato è che questa ibridità comporta anche una dissoluzione dei confini concettuali stabiliti: gli attori sono statali, privati o aziendali? Sono militari o civili? E l’uso delle tecnologie? E soprattutto: a che punto le nazioni sono in guerra tra loro? Come possiamo ancora discernere questa linea così sfocata?
Ampliare gli scopi e gli oggetti della sorveglianza
Questi confini labili cambiano anche le basi di ciò che sono o comportano le pratiche di sorveglianza. Prendiamo, ad esempio, l’idea delle “armi autonome”, spesso concepite semplicemente come robot assassini o, con approcci più sfumati, come veicoli senza pilota, attrezzati per selezionare e ingaggiare obiettivi senza intervento umano. Quando la base concettuale per la sorveglianza è concepita come una combinazione di raccolta dati, analisi automatizzata dei dati, riconoscimento di modelli e azioni raccomandate come descritto sopra, ancora un altro confine diventa sfumato: abbiamo a che fare con una pratica relativamente innocua di raccolta di informazioni o intelligence, o questi tipi di sorveglianza dovrebbero piuttosto essere intesi come “un’arma autonoma” a pieno titolo, poiché il passo dalla raccomandazione alla decisione effettiva può essere piuttosto breve?
I mutevoli scopi della sorveglianza sono stati accompagnati da una crescente espansione degli oggetti di sorveglianza.
La prima espansione affonda le sue radici nella convinzione che il futuro possa essere osservato nel presente. Le pratiche di osservazione come l’intercettazione delle conversazioni telefoniche o la videosorveglianza si basano sull’idea piuttosto semplice di vedere cosa fanno effettivamente le persone. Tecniche come la profilazione e le estrapolazioni basate sulla probabilità di probabili comportamenti futuri creano l’idea di osservare ciò che non è ancora accaduto. In altre parole, la sorveglianza diventa simulazione. Non si limita più a considerare semplicemente le cose che fanno le persone: i loro movimenti effettivi, le query di ricerca, i contatti e le comunicazioni. Si preoccupa di ciò che le persone, si presume, probabilmente faranno in futuro sulla base della vicinanza statistica a particolari gruppi trasmessa da determinati indicatori, come l’affiliazione con l’unità puramente matematico-fittizia di “persone che si sono comportate in modo simile in passato”. . Come effetto collaterale, l’individuo non è più l’oggetto indivisibile della sorveglianza. Ciò che è sotto sorveglianza sono i complessi legami di un individuo con un profilo: l'individuo è diviso in indicatori di identità come genere, razza o età, affiliazioni di gruppo o modelli comportamentali.
La seconda espansione si basa sugli sviluppi delle tecnologie dei media e delle interfacce che vendono l’idea di accedere a ciò che le persone pensano e a come si sentono. Quando utilizziamo e navighiamo sui nostri smartphone, altoparlanti intelligenti, case intelligenti o orologi intelligenti, non siamo più limitati alle interazioni puramente testuali. Usiamo le nostre voci, i nostri gesti e le nostre espressioni facciali e, così facendo, aiutiamo inavvertitamente a produrre quantità e tipologie di dati senza precedenti. Permettendo interazioni più dirette, le nuove interfacce accedono alla conoscenza delle dinamiche sociali o degli stati emotivi monitorando il linguaggio naturale, le interazioni non verbali con la macchina e tra loro mentre il dispositivo continua comodamente a registrare le dinamiche di coppia o familiari. Applicazioni come avatar di amici o bot mirano specificamente ai nostri bisogni sociali ed emotivi e, così facendo, raccolgono sempre più dati in queste aree.
Oltre all'idea di osservare i comportamenti futuri, l'aggregazione e l'analisi di dati che apparentemente catturano le realtà sociali ed emotive degli intervistati, promuove un'immaginazione tecnologica abbastanza recente: osservare l'interno della mente delle persone – emozioni, atteggiamenti, credenze – in modo accurato ( un'immaginazione ricorrente se si guarda all'esempio storico del poligrafo ). Le conseguenze di questo sviluppo stanno diventando particolarmente degne di nota e consequenziali nel campo che si definisce analisi delle emozioni.
Una terribile premonizione: la sorveglianza di ciò che le persone pensano e sentono
La premessa del cosiddetto calcolo affettivo e dell’analisi delle emozioni è quella di rendere gli affetti e le emozioni umani leggibili dalle macchine, nel tentativo di migliorare le interazioni uomo-macchina prestando particolare attenzione a quegli elementi che svolgono anche un ruolo enorme nella comunicazione e nelle interazioni tra esseri umani. Gesti e movimenti del corpo, espressioni facciali o schemi linguistici nell'uso del linguaggio naturale vengono convertiti in set di dati computabili. L’uso di elementi di design antropomorfi, robot interattivi o robot sociali simili a quelli umani offrono interfacce che spingono gli esseri umani a fare maggiore uso di modalità di comunicazione non e paraverbali. Sebbene questi obiettivi sottolineino particolari vantaggi funzionali nelle interazioni uomo-macchina, l’analisi delle emozioni e l’informatica affettiva – se combinati con il cambiamento delle pratiche di sorveglianza discusse sopra – inducono anche un senso di presentimento.
Come abbiamo visto, la sorveglianza come simulazione non si limita più a ciò che le persone effettivamente fanno, ma a ciò che stanno virtualmente per fare in un futuro probabilistico. Il calcolo degli affetti e delle emozioni crea una pratica di sorveglianza che si espande ai pensieri e ai sentimenti umani. Almeno, questa è la promessa dell’analisi delle emozioni. In realtà, dissocia ulteriormente l’oggetto della sorveglianza, il suo referente, dalla tecnica di sorveglianza che pretende di renderlo visibile. La ragione di ciò è che i fondamenti epistemologici per l’analisi delle emozioni sono altamente discutibili. In molti casi si basano su un particolare dizionario delle emozioni che è in grado di tradurre ciò che può effettivamente essere osservato nei corrispondenti stati mentali dietro questo codice simbolico. Il famigerato modello FACS – sistemi di codifica delle azioni facciali – converte i movimenti muscolari visibili sul volto di un essere umano in emozioni corrispondenti. Offre ancora una delle tassonomie più popolari per l'analisi delle emozioni basata su dati tracciabili visivamente, anche per la sua implementazione quasi semplicistica della leggibilità automatica. I fondamenti di questa conversione dell'espressione facciale in conoscenza delle emozioni umane sono altamente discutibili : trascura i contesti sociali e culturali, assume l'universalità dell'espressione emotiva e si basa in parte su un sistema di rappresentazione iperbolico e quasi comico.
Nonostante la probabilità di creare una discreta quantità di artefatti empirici, l’analisi delle emozioni o degli affetti all’interno delle dinamiche di potere delle attuali pratiche di sorveglianza potrebbe sviluppare una propria potente conoscenza: la sorveglianza come simulazione e imputazione. Se i programmatori di tecniche di sorveglianza definiscono le situazioni come reali, queste diventano reali nelle loro conseguenze (qui sto corrompendo un po’ il teorema di Thomas per amore di discussione). La tecnica di sorveglianza delle emozioni crea un soggetto carico di affetti con una conseguente conoscenza simulata di pensieri e sentimenti. Questo è un rischio reale, poiché i modelli affermano addirittura di rilevare le emozioni che il soggetto sta cercando di nascondere.
Uno sguardo al futuro: il 1984 è alle porte
Se gli attuali sviluppi promossi dalle aziende private sono un indicatore di ciò che gli attori statali saranno presto desiderosi di tracciare, tracciare e potenzialmente utilizzare per ragioni politiche o di polizia in sistemi autoritari, la semplice idea dell’affective computing e dell’analisi delle emozioni è una terribile premonizione. di ciò che verrà. Questa prospettiva è ulteriormente confermata dall’implementazione di massa di strumenti di riconoscimento delle emozioni basati sull’intelligenza artificiale, che sta già avvenendo in Cina.
Questo tipo di sorveglianza produce conoscenza che non solo pretende di rivelare ciò che le persone probabilmente faranno in futuro, ma anche ciò che sentono e pensano, insieme alla promessa di leggere la verità reale dietro l’emozione falsa – come sicuramente si può sempre fingere atteggiamento giusto o etica richiesta. Le conseguenze di questa flessione epistemologica sono potenzialmente gravi. Lo strumento di lettura automatica basato sull’intelligenza artificiale può essere facilmente inquadrato come un strumento che genera una conoscenza imparziale e obiettiva su mentalità e atteggiamenti sleali che necessitano di sanzioni o procedimenti penali. Ciò potrebbe addirittura segnare il ritorno a una forma di diritto penale basato sull’atteggiamento piuttosto che sull’atto. Dopotutto, il solo pensiero di commettere un atto illegale potrebbe essere qualcosa che viola la legge.
Questa è la traduzione automatica di un articolo pubblicato su Verfassungsblog all’URL https://verfassungsblog.de/new-media-new-data-and-a-dark-foreboding/ in data Fri, 29 Nov 2024 14:15:25 +0000.