Chi ha fatto uscire i robot?
Introduzione
Come terza rivoluzione nella guerra moderna, i sistemi di intelligenza artificiale stanno integrando le forme convenzionali di guerra, come il sistema Lavender israeliano che pretende di identificare e prendere di mira con precisione i combattenti di Hamas o l’uso dell’Ucraina Clearview AI per identificare obiettivi russi dai social network. feed multimediali e satellitari. È quindi cresciuto un interesse parallelo per la governance dell’IA, che richiede “sviluppo, diffusione e utilizzo responsabili dell’IA”. Ad esempio, la Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia, sottoscritta da 57 stati (a partire da ottobre 2024), impone agli stati obblighi leggeri di mantenere il loro uso dell’intelligenza artificiale “coerente con i rispettivi obblighi ai sensi del diritto internazionale”.
La questione dell’uso responsabile dell’intelligenza artificiale porta naturalmente a quella della responsabilità per l’intelligenza artificiale, vale a dire su chi matura la responsabilità internazionale quando i sistemi di intelligenza artificiale violano gli obblighi internazionali. Nel 2022, il Gruppo di esperti governativi sulle tecnologie emergenti nell’area dei sistemi autonomi letali ha sottolineato che “ogni atto illecito a livello internazionale di uno Stato, compresi quelli […] nell’area delle LEGGI comporta la responsabilità internazionale di quello Stato” . Il Piano d’azione, prodotto in conclusione del vertice “Uso responsabile dell’intelligenza artificiale in ambito militare” del 2024, afferma inoltre che “gli esseri umani rimangono responsabili per l’uso e gli effetti delle applicazioni dell’intelligenza artificiale in ambito militare, e “La responsabilità e l’affidabilità non possono mai essere trasferite alle macchine”.
Tuttavia, studiosi come Jaemin Lee considerano la questione irrisolta:
L’individuazione della responsabilità statale nel contesto dell’IA ai sensi del diritto internazionale dipenderà dalla conclusione finale di questa questione sulla natura dell’IA.
In sostanza, egli sostiene che sistemi di IA sempre più autonomi potrebbero alla fine superare il controllo umano (tanto da richiedere la personalità giuridica), tanto che sarebbe problematico imporre la responsabilità al creatore/proprietario che non ha conoscenza o controllo delle azioni del sistema. In questa nota, mi oppongo a questa proposta, presupponendo che la responsabilità dello Stato per le violazioni dei sistemi di intelligenza artificiale attuali e futuri possa essere stabilita attraverso l’attribuzione diretta o indiretta all’interno del quadro esistente.
Responsabilità dello Stato per i sistemi di IA
Nel 2001, la Commissione di diritto internazionale (“ILC”) ha concluso gli Articoli sulla responsabilità degli Stati per atti internazionalmente illeciti (“ARSIWA”) che contengono autorevolmente il regime della responsabilità statale. Sebbene l’ARSIWA rifletta, nella maggior parte dei casi, le consuete norme secondarie che regolano le conseguenze di atti e omissioni illeciti a livello internazionale, bisogna ricordare che l’ARSIWA non è rappresentativa dell’intero regime. Fino ad ora , sulla base della pratica e della fiducia riposta nell’ARSIWA, si riteneva che poco, se non nessuno, del regime si trovasse al di fuori dell’ARSIWA.
La responsabilità ai sensi dell'ARSIWA si basa su due concetti fondamentali: (1) imputabilità allo Stato e (2) esistenza di una violazione di un obbligo internazionale. Nel suo commento, l’ILC ha affermato esplicitamente che, a differenza della struttura generale della responsabilità nazionale, la “causazione fattuale” non costituisce una base per la responsabilità statale. La responsabilità dello Stato è quindi concepita come un regime indipendente dalla colpa. Un’altra caratteristica fondamentale della responsabilità statale è che l’attribuzione si basa sulla condotta umana, sia essa condotta individualmente o collettivamente. I riferimenti dell'ARSIWA a “organi”, “entità” e “gruppi di persone” hanno ciascuno lo scopo di identificare l'individuo umano dietro la condotta. Ciò è naturale, dato che l’ARSIWA è stato concettualizzato e basato su fonti in un’epoca in cui l’intelligenza artificiale come essere autonomo era fantascienza. Pertanto, non sembrerebbe conseguirne, come sostiene Lee, che la capacità degli Stati di determinare i propri “organi”, in conformità alle loro leggi interne, ai sensi dell’articolo 4 dell’ARSIWA potrebbe includere sistemi di IA autonomi. Tuttavia, possiamo considerare la responsabilità per gli atti dei sistemi di intelligenza artificiale che fluiscono attraverso corrispondenti atti umani di dispiegamento e utilizzo.
In questo contesto, Bérénice Boutin fa eco alla tesi di Lee, basando l'attribuzione sulla natura del sistema di intelligenza artificiale utilizzato. In tre casi – (1) quando gli esseri umani controllano direttamente i sistemi di intelligenza artificiale, (2) quando i sistemi operano autonomamente nell’ambito di un mandato definito ma sono soggetti al controllo umano e (3) quando i sistemi svolgono semplicemente una funzione di assistenza al processo decisionale umano – Boutin ritiene che il comportamento sia attribuibile allo Stato attraverso la decisione del suo comandante militare di utilizzare un tale sistema. Un errore fondamentale nella sua analisi, tuttavia, è l'affidamento alla causalità come base, un fattore irrilevante per la legge sulla responsabilità statale. Pertanto, in un quarto scenario – quello di un sistema completamente autonomo (“FAS”) (la persona giuridica artificiale di Lee) – in cui la causalità è trovata vaga e tenue quando il sistema commette una violazione che va oltre il suo mandato, Boutin assolve lo stato di responsabilità internazionale . In risposta, studiosi come Paola Gaeta estendono i criteri originali di Boutin alla FAS, sostenendo che anche la loro condotta può essere similmente attribuibile allo Stato, dato il loro dispiegamento iniziale da parte di un attore statale.
Tuttavia, c’è una questione più profonda che non va. Ai sensi degli articoli 4 e 5, 8 dell'ARSIWA, qualsiasi atto di un organo statale o di una persona o entità investita di autorità statale o rispettivamente diretta e controllata dallo Stato è imputabile allo Stato. L'articolo 7 prevede inoltre che gli atti dei suddetti soggetti siano comunque imputabili allo Stato anche se agiscono al di fuori dell'autorità conferita o contravvenendo ad un espresso comando. Si noti che ciascuna di queste entità comprende, al massimo, l'essere umano (o il comandante) che schiera, utilizza e controlla il sistema di intelligenza artificiale. Pertanto, la difficoltà di Boutin nell'attribuire atti di FAS è comprensibile, poiché i FAS sono antropomorfi ma non in realtà. umano come richiesto dall'ARSIWA. L’articolo 7 non offre alcun aiuto in questo caso poiché si riferirebbe ancora una volta solo al comandante che approva e non al sistema di intelligenza artificiale stesso.
Sono state proposte alcune soluzioni a questo problema. Uno di questi è l'argomentazione di Lee secondo cui "entità" o "organo" ai sensi dell'ARSIWA può comprendere sistemi di intelligenza artificiale in modo tale che l'attribuzione può essere trovata se l'autorità statale è delegata al sistema (p. 180). Le attuali concezioni umanocentriche dell’ARSIWA non supportano tali argomenti, e bisogna ammettere, come fa Magdalena Pacholska , che tale formulazione è interamente de lege ferenda . Nel proporre questa soluzione, Pacholska e altri come Samuli Haataja , tuttavia, non riescono a fornire una base per la formulazione, sostenendo invece che non vi è alcun divieto nell'adottare la soluzione di Lee poiché ha uno scopo funzionale. Ciò che l’argomentazione richiede per sopravvivere è una qualche base nella legge della responsabilità internazionale, e probabilmente una base che si trova nell’abisso al di fuori dell’antropocentrica ARSIWA. Per ora, di seguito viene presentata un'altra soluzione.
Obbligo di tutela degli Stati
In contrapposizione all'imputabilità diretta, si consideri l'obbligo positivo “ di non consentire consapevolmente che il proprio territorio venga utilizzato per atti contrari ai diritti di altri Stati ”. Possiamo qui rivolgerci all’obbligo di proteggere i diritti umani all’interno dei confini statali e al principio del danno transfrontaliero oltre i confini statali. Il primo obbligo prevede che gli Stati si astengano e impediscano a privati di commettere violazioni dei diritti umani ( El-Masri c. Macedonia , punto 198) e il secondo principio prevede che gli Stati garantiscano che le attività soggette alla loro giurisdizione e al loro controllo non causino danni ad altri stati o aree fuori dal controllo nazionale (Parere consultivo sulle armi nucleari, par. 29). Allo stesso modo, uno Stato può essere obbligato a prevenire qualsiasi danno causato da FAS canaglia, e la violazione viene attribuita al fallimento dello Stato. Questo obbligo avrebbe potuto essere specificamente codificato nella Convenzione quadro del 2024 sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto , in base alla quale gli Stati parti devono “ adottare o mantenere le misure necessarie per garantire che le attività all’interno del ciclo di vita dei sistemi [AI] sono coerenti con i suoi obblighi di tutela dei diritti umani ”, se non fossero state previste eccezioni per la difesa e la sicurezza nazionale. La Convenzione quadro si applica anche ai FAS poiché i “sistemi di intelligenza artificiale” sono definiti come “sistemi che variano nei loro livelli di autonomia e adattività dopo l’implementazione”. Ciononostante, si può fare affidamento su un’estrapolazione degli obblighi generali e dei principi relativi ai diritti umani sopra menzionati.
Certo, alcuni punti deboli della soluzione sono ancora evidenti. In primo luogo, si tratta di obblighi di due diligence e sono regolati da fattori quali la natura dell'attività, le conoscenze scientifiche che la circondano e le capacità dello Stato in quel momento. Gli Stati possono far valere che sono stati compiuti i migliori sforzi, nascondersi dietro l’imprevedibilità del problema della scatola nera o invocare la forza maggiore come circostanza che esclude l’illegittimità. Anche se probabilmente l’argomentazione resterà valida, allo Stato sarà richiesto, come minimo, di dimostrare l’esistenza di una regolamentazione nazionale. Un secondo punto debole è che il danno transfrontaliero è in gran parte definito come danno “attraverso […] conseguenze fisiche”, limitando l’applicabilità della norma per i danni causati dall’intelligenza artificiale legati al cyber. I recenti studi sugli obblighi di prevenzione nel cyberspazio sono promettenti, ma la responsabilità dello Stato a questo riguardo rimane irrisolta.
Conclusione
È vero che il diritto è lento, ma non deve agire troppo velocemente rispetto alla tecnologia, per evitare che le questioni chiave in materia di protezione acquisiscano una velocità di fuga maggiore rispetto alla formulazione del diritto. Poiché i FAS attualmente non esistono, sembra che l’attuale regime di responsabilità statale sia sufficiente per rispondere ai problemi posti oggi dai sistemi di intelligenza artificiale. Tuttavia non sono del tutto in disaccordo con l'affermazione di Lee. Potrebbe arrivare un momento in cui i sistemi di intelligenza artificiale supereranno una soglia di individualità e manovrabilità all’interno del cyberspazio senza confini in cui la loro attribuzione a uno stato, in termini di indigenità o controllo, sarà discutibile. Quel momento non è ancora arrivato. Quando ciò accadrà, non mi aspetto che la comunità giuridica o scientifica si sposti verso una conclusione “finale” sulla natura dei sistemi di intelligenza artificiale, o addirittura sulla legge ad essi applicabile. La legge e la tecnologia continueranno quindi la loro danza cosmica, prendendo in prestito dalla mitologia indù, creando, distruggendosi e ricreandosi a vicenda all’infinito .
L'autore desidera ringraziare la Prof. Patrícia Galvão Teles, la cui guida e le cui lezioni presso il Graduate Institute of International and Development Studies, Ginevra, hanno aiutato molto questo articolo.
Questa è la traduzione automatica di un articolo pubblicato su Verfassungsblog all’URL https://verfassungsblog.de/ai-laws-drones-autonomous-weapons-state-responsibility/ in data Wed, 27 Nov 2024 17:52:53 +0000.