Blog costituzionale

Deepfakes, l’arma dell’intelligenza artificiale contro le donne e possibili soluzioni

Nel gennaio 2024, le piattaforme dei social media sono state inondate di immagini intime dell'icona pop Taylor Swift , raggiungendo rapidamente milioni di utenti. Tuttavia, il contenuto offensivo non era reale; erano deepfake: media sintetici generati dall'intelligenza artificiale (AI) per rappresentare le sembianze di una persona. Ma la minaccia va oltre le celebrità. Praticamente chiunque (le donne sono prese di mira in modo sproporzionato) può essere vittima di deepfake intimi non consensuali (NCID), un tipo di contenuto abusivo comunemente ed erroneamente noto come "deepfake porno". La facilità di accesso a strumenti di intelligenza artificiale come ClothOff alimenta l’ascesa dell’NCID che assume dimensioni nuove e dannose quando i contenuti vengono condivisi online e “diventano virali” e richiede risposte legali e politiche specifiche da parte di vari attori coinvolti nella creazione e diffusione di deepfake.

Mentre sono in corso gli sforzi per combattere i deepfake di disinformazione con proposte di watermarking ed etichettatura di contenuti sintetici, l’NCID è un tipo specifico di deepfake dannoso che presenta danni unici e richiede misure complessivamente diverse da parte delle piattaforme di social media e delle società di intelligenza artificiale. Anche se la maggior parte concorda sul fatto che le aziende debbano essere ritenute responsabili della diffusione di contenuti potenzialmente estremamente dannosi come gli NCID, meccanismi efficaci di responsabilità legale rimangono sfuggenti. Ciò è particolarmente preoccupante in quanto fenomeni come l’NCID evidenziano un punto vuoto in molti dibattiti sulla moderazione dei contenuti, sulla governance dell’intelligenza artificiale e sulla lotta alla disinformazione: la misoginia. La maggior parte degli abusi sessuali basati su immagini generate dall’intelligenza artificiale prendono di mira le donne. Sfortunatamente, la maggior parte delle normative sulle piattaforme, ma in particolare l’Online Safety Act del Regno Unito , offrono pochi rimedi per tali danni online specifici di genere. Pertanto, questo articolo propone modifiche concrete alle regole di moderazione dei contenuti e una maggiore responsabilità per i fornitori di intelligenza artificiale che consentono in primo luogo tali contenuti abusivi.

Quali sono i danni dei deepfake intimi non consensuali?

Innanzitutto qualche parola sui deepfake intimi non consensuali (in breve: NCID). I danni delle NCID non sono diversi dai danni ben consolidati dell’abuso sessuale basato su immagini non sintetiche, un problema pervasivo che esisteva molto prima dell’intelligenza artificiale. Il fatto che gli NCID rappresentino immagini sintetiche (in contrasto con le foto reali) è irrilevante. Gli individui sono ancora soggetti alle stesse o comparabili violazioni della privacy , della dignità, dell’espressione sessuale e del benessere mentale e fisico, inclusi elevati livelli di stress, ansia, depressione, bassa autostima e insicurezza. L’NCID può anche causare danni sociali e collettivi associati ad altre forme di abuso sessuale basato sull’immagine, compresi i rischi di normalizzare l’attività sessuale non consensuale e di contribuire a una cultura che accetta, anziché rimproverare, la creazione e/o la distribuzione di immagini sessuali private senza consenso. . Quando le donne politiche vengono prese di mira, c’è il danno aggiuntivo di incentivare le donne a non candidarsi per cariche pubbliche .

Infatti, come altre forme di abuso basato sull’immagine, l’NCID prende di mira in modo sproporzionato le donne . Un rapporto di settore basato sull'analisi di 14.678 video deepfake online indica che il 96% di essi erano contenuti intimi non consensuali e che il 100% dei contenuti esaminati sui primi cinque "siti web di pornografia deepfake" erano rivolti alle donne. Questo targeting sproporzionato solleva preoccupazioni anche per altri gruppi vulnerabili. Le prove dimostrano che l’odio e le molestie online sono una piaga particolarmente pervasiva e crescente per le persone LGBTQ+, suggerendo che potrebbero essere particolarmente vulnerabili anche alla NCID.

Sebbene i danni dell’NCID non siano necessariamente nuovi, le misure sviluppate in risposta all’abuso basato su immagini non sintetiche potrebbero non essere sufficienti per affrontare questo nuovo fenomeno. Data l’ampia disponibilità di interfacce intuitive che consentono a quasi chiunque di produrre contenuti sintetici dannosi e praticamente a chiunque diventi un potenziale bersaglio, senza che gli autori del reato abbiano bisogno di mettere le mani su qualsiasi forma di contenuto intimo reale. Ciò, abbinato alla facilità con cui tali contenuti possono essere condivisi e ricondivisi, significa che sono necessarie misure di prevenzione e mitigazione più efficaci da parte delle piattaforme Internet e delle società di intelligenza artificiale.

La diffusione dell'NCID: politiche sui contenuti ambigue delle piattaforme e meccanismi di applicazione inefficienti

Sebbene la legislazione sulla sicurezza online in alcune giurisdizioni – come nel Regno Unito e nell’UE – stia facendo progressi verso la responsabilità individuale, la responsabilità penale da sola non è sufficiente. Le piattaforme devono attuare misure efficaci in risposta a questa situazione. Come ho sostenuto, l’NCID provoca gli stessi danni delle immagini abusive create senza l’intelligenza artificiale, e la distinzione tra contenuto reale e sintetico diventa irrilevante se si considera il danno inflitto. In sostanza, l’NCID ripropone semplicemente le sfide di moderazione dei contenuti di lunga data. Eppure, sorprendentemente, un’analisi delle politiche sui contenuti delle tre principali piattaforme di social media rivela che sono inadeguate ad affrontare la NCID.

A differenza delle loro politiche chiare e complete per il materiale pedopornografico (CSAM), che comprendono chiaramente i contenuti artificiali, le attuali politiche sui contenuti per adulti sono ambigue. Questa ambiguità crea lacune, che ancora una volta compromettono l’efficacia della protezione delle vittime-sopravvissute. Ad esempio, la “Politica sulla sicurezza e la civiltà” di TikTok proibisce il linguaggio o il comportamento che “molesta, umilia, minaccia o denigra chiunque”. Ciò potrebbe plausibilmente comprendere l'uso dell'NCID per molestie, ma la politica non menziona esplicitamente le molestie tramite contenuti intimi o contenuti generati artificialmente, il che porta ad ambiguità nella sua applicazione.

Per contrastare efficacemente l’NCID, sono necessari cambiamenti nelle politiche delle piattaforme su due fronti. In primo luogo, dovrebbero rivedere le loro politiche per includere un divieto esplicito di tutte le forme di abuso sessuale basato sull’immagine. Nello specifico, le piattaforme dovrebbero vietare la pubblicazione di media intimi indesiderati che raffigurano le sembianze di un individuo, siano esse reali o sintetiche. In secondo luogo, tutte le politiche delle piattaforme esistenti dovrebbero essere riviste per garantire che si applichino chiaramente anche ai contenuti generati o manipolati dall’intelligenza artificiale. Questo non vuol dire che le piattaforme dovrebbero avere politiche autonome focalizzate esclusivamente sui contenuti sintetici. Piuttosto, le piattaforme necessitano di politiche sostanziali forti e inequivocabili che si applichino ai contenuti indipendentemente dall’origine o dal metodo di creazione. Questo approccio elimina le lacune basate sul tipo di contenuto ed evita il difficile compito di differenziare costantemente il contenuto reale da quello sintetico.

L'approccio recentemente annunciato da Meta offre un modello promettente. L’azienda si è impegnata a “rimuovere i contenuti, indipendentemente dal fatto che siano creati da un’intelligenza artificiale o da una persona” se violano una qualsiasi delle sue politiche esistenti, anche su bullismo e molestie, violenza e incitamento. Inoltre, per i contenuti che non violano le politiche esistenti, Meta prevede di etichettare video, audio e immagini generati dall'intelligenza artificiale in base al rilevamento automatico o all'autodivulgazione dell'utente. Si tratta di un cambiamento positivo, che sostituisce la precedente politica autonoma dell'azienda sui "media manipolati", che era stata pesantemente criticata per essere eccessivamente ristretta.

Oltre ai cambiamenti politici, sono essenziali solidi meccanismi di segnalazione e risposte rapide da parte delle piattaforme: il pane quotidiano di un’efficace moderazione dei contenuti. I contenuti violativi dell'NCID devono essere accuratamente identificati e rimossi, potenzialmente con canali prioritari di segnalazione e revisione offerti alle vittime-sopravvissute. Ciò è particolarmente importante in quanto gli strumenti di intelligenza artificiale stanno rendendo più semplice e veloce la creazione di NCID, il che significa che i sistemi esistenti sono probabilmente inadeguati a tenere il passo con l’aumento del volume di contenuti intimi non consensuali.

Esempi recenti suggeriscono che effettivamente non sono stati all’altezza. La risposta ritardata di Twitter all'NCID ampiamente diffuso che prende di mira Taylor Swift evidenzia queste limitazioni. I casi recentemente selezionati dall’Organismo di Vigilanza per l’esame illustrano ulteriormente le preoccupazioni. Entrambi i casi riguardavano immagini di nudo di personaggi pubblici generate dall’intelligenza artificiale, uno in India e un altro negli Stati Uniti. La risposta di Meta nel primo caso, in cui il contenuto segnalato è stato chiuso automaticamente dopo 48 ore senza revisione, lasciando il contenuto disponibile, esemplifica i limiti degli strumenti reattivi nell'offrire protezione alle vittime. Sebbene la rimozione del secondo caso dimostri una risposta migliore, mette in luce incongruenze tra i casi. Le differenze nelle risposte di Meta riguardano anche l'allocazione delle risorse delle piattaforme e l'aumento della capacità di applicazione delle norme, in particolare tra le giurisdizioni del Nord e del Sud del mondo.

La creazione di NCID: aziende di intelligenza artificiale e mancanza di tutele adeguate

Sebbene sia fondamentale migliorare le modalità con cui le piattaforme online impediscono la diffusione dell’NCID, contrastarne la distribuzione suggerisce la necessità di un approccio complementare: affrontare il danno alla fonte – la fase di creazione del contenuto – vietando la creazione di tutte le forme di deepfake intimi.

Basarsi esclusivamente sugli impegni volontari dei fornitori di intelligenza artificiale per attuare questo divieto sarebbe insufficiente. Le attuali definizioni all’interno della legislazione sulla sicurezza online, come l’ Online Safety Act del Regno Unito e l’EU Digital Services Act, probabilmente escludono dall’ambito di applicazione gli strumenti di intelligenza artificiale generativa. Ciò crea un divario che la legislazione può e deve colmare per affrontare efficacemente la NCID. Fondamentalmente, gli sviluppatori di IA generativa e coloro che mettono questi strumenti a disposizione del pubblico dovrebbero essere legalmente obbligati a ridurre attivamente il rischio di danni impedendo fin dall’inizio la generazione di NCID tramite i loro modelli. Cioè, le normative sull’IA dovrebbero imporre solide misure di sicurezza agli sviluppatori e ai distributori di strumenti di intelligenza artificiale generativa.

Queste misure dovrebbero, come minimo, rispecchiare i sistemi di governance dei contenuti privati ​​utilizzati dalle principali piattaforme di social media. Questo è fondamentale perché le attuali politiche di utilizzo di alcuni dei principali strumenti sono attualmente significativamente meno dettagliate di quelle delle piattaforme di social media. OpenAI, ad esempio, chiede semplicemente agli utenti di evitare di compromettere “la privacy degli altri”, di impegnarsi in “attività regolamentate senza rispettare le normative applicabili” o di promuovere/impegnarsi in “qualsiasi attività illegale”. Inoltre, non ci sono dettagli su come tali politiche vengono applicate. È improbabile che politiche vaghe offrano protezioni solide o meccanismi di ricorso efficaci.

Inoltre, la regolamentazione dovrebbe promuovere la “sicurezza fin dalla progettazione”, il che significa che gli strumenti di intelligenza artificiale dovrebbero essere costruiti con meccanismi per impedire che i contenuti violino i loro termini di servizio, che dovrebbero includere la produzione di deepfake intimi. Sebbene l’utilizzo della tecnologia per rilevare l’abuso di immagini sintetiche potrebbe portare a una corsa agli armamenti tecnologici, la gravità delle sfide dell’NCID richiede un obbligo legale per l’industria di dare priorità alla sicurezza insieme all’innovazione.

Tuttavia, queste questioni sono attualmente assenti dai dibattiti in corso sulla regolamentazione dell’IA. Nell’UE, l’EU AI Act richiede l’etichettatura dei deepfake e introduce standard minimi per i modelli fondamentali, ma omette qualsiasi requisito di moderazione dei contenuti per gli strumenti di IA generativa. Allo stesso modo, nel Regno Unito, la risposta del governo al Libro bianco sull’IA è attualmente priva di garanzie legali specifiche per contrastare la creazione dell’NCID. Sui deepfake, il rapporto si concentra principalmente sui “rischi legati all’intelligenza artificiale per la fiducia nelle informazioni”, proponendo una richiesta di prove su questo tipo di rischi. Pur riconoscendo l’abuso sessuale basato sull’immagine, spiega solo come vengono gestiti i problemi esistenti ai sensi dell’Online Safety Act, che offre una protezione limitata per le vittime-sopravvissute. In particolare, nel rapporto è assente qualsiasi menzione di ulteriori misure da includere nella futura regolamentazione sull’IA o una richiesta di prove che affronti specificamente i rischi posti dall’NCID.

Una sfida significativa riguarda i prodotti open source, dove la natura open source consente la diffusione, il download e l'implementazione senza la conoscenza o l'approvazione dello sviluppatore del modello (ad esempio, sui repository GitHub). Ciò rende difficile stabilire chiare linee di responsabilità per l’implementazione dei sistemi di moderazione dei contenuti e richiede ai governi di sviluppare competenze per garantire la sicurezza di questi modelli di mercato .

Contrastare l'NCID

In conclusione, i deepfake intimi non consensuali rappresentano una minaccia reale e crescente. L’NCID come nuova forma di abuso sessuale basato sull’immagine provoca danni sia a livello individuale che sociale e come tale richiede risposte efficaci da parte degli attori aziendali coinvolti nella distribuzione e creazione di questo contenuto. Mentre i cambiamenti nel diritto penale possono rendere più semplice l’assunzione delle responsabilità dei singoli autori di reati, sono necessari miglioramenti nel panorama normativo per richiedere agli attori aziendali – in particolare le piattaforme e le società di intelligenza artificiale – di fare di più.

Dal punto di vista della diffusione dei contenuti, l’NCID riaccende le discussioni sull’importanza di solidi sistemi di moderazione dei contenuti. Le piattaforme dovrebbero essere incentivate a mettere in atto politiche specifiche riguardanti tutte le forme di abuso sessuale basato su immagini (applicabili ai contenuti NCID ma anche ai contenuti non sintetici). Più in generale, le politiche di tutte le piattaforme esistenti (compreso il bullismo e le molestie) dovrebbero offrire inequivocabilmente un trattamento simmetrico per i contenuti reali e sintetici o manipolati su tutta la linea: i contenuti dannosi sintetici dovrebbero essere soggetti esattamente alle stesse regole che si applicano ai contenuti dannosi non sintetici . Inoltre, per responsabilizzare e proteggere efficacemente le vittime-sopravvissute dell’NCID, le autorità di regolamentazione della sicurezza online dovrebbero sostenere lo sviluppo di solidi meccanismi di applicazione e ricorso. Ciò potrebbe includere, ad esempio, l’offerta di canali prioritari per la segnalazione e la revisione dei contenuti.

Inoltre, la facilità con cui l’NCID può essere diffuso suggerisce la necessità di un approccio complementare: affrontare il danno alla fonte, ovvero la fase di creazione del contenuto. Dato che la regolamentazione dell’IA è una priorità assoluta per molti governi, la legislazione futura dovrebbe includere disposizioni per richiedere l’implementazione di strumenti di intelligenza artificiale generativa e l’applicazione di misure di salvaguardia per prevenire la creazione di contenuti intimi sintetici o manipolati.


Questa è la traduzione automatica di un articolo pubblicato su Verfassungsblog all’URL https://verfassungsblog.de/deepfakes-ncid-ai-regulation/ in data Mon, 03 Jun 2024 11:10:03 +0000.