Blog costituzionale

Il Consiglio d’Europa crea una scatola nera per la politica dell’IA

Il Comitato sull'IA del Consiglio d'Europa (CdE) ha preso la decisione iniziale di portare avanti i lavori futuri sullo sviluppo di una convenzione internazionale sull'IA a porte chiuse, nonostante l' appello del Consiglio per la governance democratica dell'intelligenza artificiale in una risoluzione del 2020. È una mossa sorprendente da parte di un'organizzazione internazionale che è stata in prima linea negli sforzi per promuovere una maggiore trasparenza e responsabilità per la tecnologia che sta trasformando il mondo. La decisione è in contrasto con i termini di riferimento della commissione per l'IA (CAI) ed è particolarmente preoccupante per coloro che seguono da vicino l'impatto della politica sull'IA sulle istituzioni democratiche.

Il significato della trasparenza per l'IA

Il rapporto del Centro per l'intelligenza artificiale e la politica digitale Intelligenza artificiale e valori democratici (AIDV) si proponeva di valutare le politiche e le pratiche nazionali di intelligenza artificiale su una metodologia coerente che potrebbe guidare il futuro processo decisionale. L'obiettivo è quello di fornire la base sia per la valutazione comparativa che per l'analisi longitudinale. AIDV fornisce anche un sistema di allerta precoce quando i paesi prendono una brusca svolta dai valori democratici. I campanelli d'allarme sono appena suonati.

Molte delle metriche nel rapporto AIDV considerano l'importanza della trasparenza per la protezione dei valori democratici. Un fattore è se i paesi hanno stabilito un diritto formale di "esaminare la logica dei sistemi automatizzati". Queste parole possono essere trovate nella direttiva originale sulla protezione dei dati dell'UE, così come nella Convenzione sulla privacy del Consiglio d'Europa modernizzata, "108+". Nella metodologia del rapporto, vengono assegnati punteggi positivi a quei paesi soggetti a queste leggi e ad altre disposizioni simili.

Il lavoro svolto finora presso il Consiglio d'Europa riflette un chiaro impegno per la trasparenza nel processo decisionale automatizzato. Basandosi su questo lavoro e seguendo un processo aperto e inclusivo, il rapporto finale del Comitato ad hoc del Consiglio d'Europa sull'IA (il CAHAI) ha chiesto disposizioni forti per garantire la responsabilità nella convenzione proposta sull'IA. Come ha spiegato il comitato di esperti, «i concetti di “trasparenza”, “spiegabilità” e “responsabilità” sono considerati dal CAHAI di fondamentale importanza per la tutela dei diritti delle persone nell'ambito dei sistemi di IA.

La trasparenza è la pietra angolare della responsabilità nei sistemi digitali. Senza trasparenza, non è possibile valutare i risultati o mantenere la spiegabilità. E come ha recentemente stabilito la Corte di giustizia, i sistemi che non consentono una trasparenza significativa, come i sistemi di intelligenza artificiale che incorporano tecniche di Machine Learning, possono essere semplicemente incompatibili con la protezione dei diritti fondamentali.

La trasparenza è anche il fondamento della governance democratica. Questo è il secondo significato stabilito nella metodologia del rapporto AIDV: valutare se i governi abbiano creato un processo significativo per la partecipazione pubblica e se i governi abbiano reso disponibili al pubblico i documenti pertinenti. Questa è l'essenza del governo democratico. Negli ultimi anni, molti paesi hanno sviluppato strategie nazionali di intelligenza artificiale per promuovere l'innovazione e la crescita, nonché per affrontare questioni etiche e impatti sociali. Molti paesi hanno creato processi inclusivi che hanno raccolto input da accademici e società civile, educatori, scienziati sociali e altri. Le strategie nazionali hanno rispecchiato questi diversi input.

Non tutti i governi hanno seguito questa strada: nella prima edizione del rapporto, gli Stati Uniti hanno ricevuto punteggi bassi sulla trasparenza a causa della segreta Commissione per la sicurezza nazionale sull'intelligenza artificiale che si è riunita a porte chiuse, sotto la guida dei CEO della tecnologia e dell'industria della difesa. Quella Commissione, ignorando le preoccupazioni del pubblico americano, che è più preoccupato per il futuro dell'IA che entusiasta, ha avanzato raccomandazioni per far avanzare l'alleanza militare-industria e ha ignorato le proposte per stabilire le necessarie salvaguardie. Negli ultimi anni, gli Stati Uniti hanno adottato un approccio più aperto e inclusivo alla politica nazionale sull'IA. Identificare questi cambiamenti nelle pratiche dei governi nazionali e delle organizzazioni internazionali è fondamentale per valutare l'impatto delle politiche di IA sulle istituzioni democratiche.

Torniamo al CdE

Quindi, cosa dobbiamo dire dei recenti sviluppi al Consiglio d'Europa? In breve, il COE si sta muovendo proprio nella direzione sbagliata. Per due anni, in qualità di osservatori del gruppo di esperti del Consiglio d'Europa sull'IA, la società civile ha partecipato a tutte le riunioni , ha fornito suggerimenti e ha collaborato con altri, comprese le delegazioni nazionali e il segretariato, per contribuire a garantire l'adempimento del mandato. Come tutti i processi politici, la società civile non ha ottenuto tutto ciò che sperava, ma sono stati compiuti progressi sostanziali e sono stati chiaramente individuati i settori per ulteriori lavori. La relazione finale del CAHAI ha esposto gli elementi fondamentali della Convenzione da seguire. Ma ora la commissione per l'intelligenza artificiale, su sollecitazione di paesi terzi, ha scelto di portare il processo a porte chiuse.

Perché è successo? Parte del problema è che il Consiglio d'Europa ha guardato a un precedente creato dalla stesura della Convenzione sulla criminalità informatica (2001), avvenuta poco dopo l'11 settembre, quando la cooperazione tra le forze dell'ordine era fondamentale. Il CdE è diventato il veicolo di una convenzione internazionale per promuovere la cooperazione tra le agenzie di polizia. Al contrario, la stesura della più recente Convenzione sulla privacy modernizzata , si è concentrata sugli aggiornamenti per proteggere i diritti fondamentali nell'ambito delle tecnologie digitali, che era aperta e inclusiva. La società civile è stata la benvenuta al tavolo e ha contribuito a plasmare i risultati.

Parte del problema è anche che il lavoro del Consiglio d'Europa si è intrecciato con un lavoro simile presso l'UE. Il Consiglio d'Europa ha iniziato a lavorare sul trattato sull'IA nello stesso momento in cui l'UE ha avviato l'EU AI Act, un quadro basato sul rischio per stabilire regolamenti coerenti per il mercato interno. In passato, queste due istituzioni sono andate avanti su binari paralleli senza troppi contrasti. Questa è stata l'esperienza, ad esempio, con lo sviluppo del GDPR e della Convenzione sulla privacy modernizzata del Consiglio d'Europa.

In questo caso, Bruxelles ha deciso che la legge sull'IA dell'UE dovrebbe avere la priorità. L' ambizione della Commissione europea è internazionalizzare l'EU AI Act attraverso il CdE in modo che abbia la stessa influenza del GDPR, ampiamente considerato come l'istituzione dell'effetto Bruxelles e che conferisce all'UE un'influenza globale nel campo della politica digitale. Ma il successo del GDPR è avvenuto senza la necessità di cooptare il processo del Consiglio d'Europa. Il GDPR riflette la leadership del Parlamento, la stretta collaborazione delle istituzioni dell'UE e il duro lavoro della comunità di advocacy su una questione di interesse globale. La sfida di replicare il successo del GDPR rimarrà alla Commissione indipendentemente dall'esito al Consiglio d'Europa.

Tuttavia, alla fine dell'anno scorso la Commissione ha chiesto ai suoi delegati a Strasburgo di rallentare i lavori sulla Convenzione fino al completamento della legge sull'IA dell'UE. La sua era una strategia rischiosa sia per l'UE che per gli Stati membri del Consiglio d'Europa poiché molti erano ansiosi di vedere la convenzione internazionale andare avanti, e lo stesso EU AI Act è soggetto a ritardi, come ha recentemente indicato la presidenza svedese entrante del Consiglio dell'UE.

L'entanglement crea anche altri problemi. Il tentativo di riflettere il lavoro della Commissione presso il Comitato del Consiglio d'Europa sull'intelligenza artificiale significa che molti dei delegati al Consiglio d'Europa sono ora quelli con il portafoglio economico, che hanno gestito le posizioni dei paesi sui negoziati quadro basati sul rischio per il mercato interno, non i esperti nel mandato in materia di diritti umani del CdE che normalmente ci si aspetterebbe di vedere a Strasburgo. Anche in questo caso, il regolamento interno del Consiglio d'Europa, che prevede la partecipazione di funzionari di alto livello con le relative competenze, viene ampliato per accogliere Bruxelles e gli Stati non membri.

Questo non è il risultato che dovrebbe derivare. Jan Kleijssen, direttore uscente della direzione del Consiglio d'Europa per la Società dell'informazione, ha ripetutamente sottolineato la necessità di "complementarità" per allineare il lavoro del Consiglio d'Europa e dell'UE e per preservare i mandati dei due.

Il percorso da percorrere

Non è tutto perduto. Il rapporto finale del CAHAI fornisce una buona base per il testo della Convenzione. Le organizzazioni della società civile hanno esortato il Consiglio d'Europa a costruire su questa base. In una dichiarazione pubblica al Comitato sull'IA, le organizzazioni della società civile hanno anche esortato il Comitato a garantire che la Convenzione rafforzi i quadri esistenti in materia di diritti umani e non comprometta gli standard in materia di diritti umani applicabili ai sistemi di IA.

In un rapporto ampiamente apprezzato, l'ex presidente dell'Alto Commissariato delle Nazioni Unite per i diritti umani ha sollecitato una moratoria sull'impiego di tecniche di intelligenza artificiale che non rispettano gli standard internazionali sui diritti umani. L'UNESCO ha raccomandato di vietare l'uso di tecniche di intelligenza artificiale per la sorveglianza di massa e il punteggio sociale. La recente sentenza della Corte di Giustizia nella causa Ligue des droits humains solleva la concreta possibilità che le tecniche di apprendimento automatico siano incompatibili con la tutela dei diritti fondamentali, e in una dichiarazione all'inviato digitale delle Nazioni Unite, CAIDP ha individuato una dozzina di disposizioni del ICCPR che potrebbe essere influenzato negativamente dalle tecniche di intelligenza artificiale. Come minimo, questi parametri di riferimento in materia di diritti umani per l'IA dovrebbero essere incorporati nel testo finale della Convenzione del Consiglio d'Europa sull'IA.

Il Consiglio d'Europa deve inoltre prestare particolare attenzione alle disuguaglianze strutturali di genere, razziali e socioeconomiche incorporate nei set di dati e all'impatto dell'IA sulle comunità emarginate, in particolare quelle che sono già soggette all'amplificazione dei pregiudizi nell'utilizzo dei sistemi di intelligenza artificiale. Le tecniche di analisi dei dati forniscono potenti strumenti per scoprire e correggere i pregiudizi nei sistemi decisionali automatizzati. Ma i risultati derivati ​​da sistemi opachi sfidano i concetti fondamentali di equità e trasparenza.

Le organizzazioni della società civile hanno inoltre sollecitato la CAI a garantire che la Convenzione includa nel suo ambito di applicazione la sicurezza nazionale e le applicazioni a duplice uso dell'IA. Queste raccomandazioni derivano dalla crescente consapevolezza del fatto che gli sciami di droni alimentati dall'intelligenza artificiale pongono enormi preoccupazioni per le società democratiche, così come le tecniche di sorveglianza facciale che vengono presentate nel contesto della sicurezza nazionale ma diventano rapidamente l'impostazione predefinita quando la missione striscia e i mandati autoritari convergono.

Questi sono i punti che i gruppi della società civile erano disposti a discutere e discutere nelle prossime riunioni del comitato di redazione. Sebbene la società civile non sia più presente, sarà importante monitorare attentamente i risultati. I leader del Consiglio d'Europa dovrebbero rivolgere la loro attenzione a questo lavoro per garantire che il mandato sia adempiuto e che sia stabilita la governance democratica dell'IA. Il Consiglio d'Europa deve' rimanere il punto di riferimento per i diritti umani, lo stato di diritto e la democrazia in Europa . '


Questa è la traduzione automatica di un articolo pubblicato su Verfassungsblog all’URL https://verfassungsblog.de/coe-black-box-ai/ in data Tue, 24 Jan 2023 13:13:36 +0000.