Intelligenza artificiale e diritti umani alla Corte europea dei diritti dell’uomo
Lo sviluppo di un quadro giuridico per l'uso dell'IA è ancora in una fase iniziale. In futuro, sarà necessario tenere conto sia delle caratteristiche intrinseche della tecnologia sia dei diritti che il suo utilizzo può mettere a repentaglio. L'approccio della Corte europea dei diritti dell'uomo (Corte EDU) dovrà essere basato su una valutazione caso per caso, basandosi sui valori trasversali della Convenzione, applicando la giurisprudenza esistente come trampolino di lancio e avvalendosi saggiamente della "dottrina dello strumento vivente".
Abbiamo appena iniziato
Il panorama giuridico relativo all'IA è ancora in una fase iniziale, sia in termini di normativa applicabile che di giurisprudenza. Solo nel 2024 il Consiglio d'Europa e l'Unione Europea hanno adottato i primi strumenti giuridicamente vincolanti volti a fornire un quadro giuridico che consenta agli Stati di regolamentare le attività nell'ambito del ciclo di vita dei sistemi di IA e il loro impatto sulla democrazia, sullo Stato di diritto e sulla tutela dei diritti umani.
Di conseguenza, oltre al galoppante sviluppo tecnico e al suo rapido aumento nell'uso (e nell'abuso), qualsiasi analisi dell'intelligenza artificiale e delle sue implicazioni deve essere affrontata tenendo conto dell'evoluzione del regime giuridico e del potenziale di sviluppi significativi anche su questo fronte.
Dal punto di vista della giurisprudenza stessa della Convenzione, nessuna delle sentenze della Corte, ad oggi, che possa essere considerata “chiave” in materia di progresso digitale/tecnologico, riguarda l’intelligenza artificiale in quanto tale.
In effetti, per la natura del sistema, i casi convenzionali non precederanno lo sviluppo dell'IA. E, come tali, emergeranno solo dopo l'applicazione delle norme, dei regolamenti e delle tutele nazionali in materia di IA, nonché delle normative internazionali più specifiche, come appena menzionato, come quelle previste dal diritto dell'UE. A tale riguardo, la corretta attuazione della Convenzione richiede che gli Stati membri assumano un ruolo guida, intervenendo per primi nel garantire che l'IA non venga applicata a scapito dei diritti umani.
Questo è anche l'unico approccio praticabile, considerando i principi di sussidiarietà e di responsabilità condivisa, come rafforzati dal Protocollo 15 alla Convenzione e dalla giurisprudenza più recente della Corte.
I rischi intrinseci dell’intelligenza artificiale
Passando al rischio principale rappresentato dall'intelligenza artificiale per il godimento dei diritti umani, credo che dobbiamo iniziare riconoscendo che la tecnologia presenta alcune caratteristiche intrinseche degne di attenzione, in particolare le seguenti quattro.
- È una "scatola nera". Pochissimi, se non nessuno, riescono a comprenderne appieno il funzionamento: gli algoritmi e i loro metodi di elaborazione delle informazioni rimangono al buio.
- Non ci si può fidare. L'intelligenza artificiale fondamentalmente non ha un vero senso della verità e non è vera. Il problema delle allucinazioni è grave. Ciò che un essere umano definirebbe una bugia o una pura assurdità viene presentato in modo molto convincente come informazione affidabile.
- La tecnologia dell'intelligenza artificiale è, per sua stessa natura, molto adattabile ed efficace. Può essere estremamente invasiva. E il potenziale di un uso improprio è praticamente illimitato. Per non parlare dell'abuso.
- I costi di sviluppo e manutenzione della tecnologia di intelligenza artificiale sono enormi. È probabile che la tecnologia sia controllata da grandi aziende e investitori, le cui attività potrebbero sfuggire a un'efficace supervisione pubblica.
I diritti in gioco
Passando più concretamente ai diritti in gioco, l'elenco potrebbe probabilmente essere praticamente infinito. Citerò in particolare i seguenti:
- L'erosione del diritto alla privacy;
- Danni strutturali che incidono sulla dignità umana (ad esempio, attraverso tecnologie di sorveglianza che erodono l'autonomia umana, l'autogoverno e l'autodeterminazione);
- L’aggravamento delle discriminazioni e delle disuguaglianze esistenti;
- Le sfide alla libertà di espressione e di informazione (moderazione basata sull'intelligenza artificiale, algoritmi con design che creano dipendenza/camere dell'eco);
- Le minacce alla trasparenza e alla responsabilità;
- Attacchi all'integrità del processo elettorale, mediante l'interferenza di potenze straniere ostili e la manipolazione delle elezioni;
- L'offuscamento delle nozioni stesse di verità e falsità, il rifiuto della conoscenza scientifica, la trasformazione di qualsiasi questione in una questione di opinione.
La strada da percorrere
Nel corso del processo, la Corte dovrà sviluppare e chiarire i principi della Convenzione, confrontandoli con l'IA e adattandoli caso per caso. Ciò implica che non vi sarà alcun piano generale, in base al quale la Corte definirà la propria giurisprudenza. Il diritto viene, al contrario, creato con cautela, passo dopo passo, entro i limiti delle competenze e della giurisdizione della Corte ai sensi della Convenzione e in conformità con i principi riconosciuti di giudizio e di metodo giuridico.
Questo compito deve essere svolto a tutti i livelli del processo decisionale, in particolare a livello della Grande Camera, sia tramite reclami individuali sia tramite richieste di pareri consultivi ai sensi del Protocollo 16 della Convenzione.
In questa avventura in acque giuridiche inesplorate, la Corte dovrà – presumo – cercare indicazioni in strumenti e metodi generali ben noti, come i seguenti:
Primo: comprendere i fatti, la tecnologia e le sfide e i vantaggi ad essa associati, in particolare quelli rilevanti per la tutela dei diritti umani.
In secondo luogo: la Corte deve chiarire che qualsiasi nuova giurisprudenza emergente sull'intelligenza artificiale deve essere compatibile con la continua ed efficace tutela dei valori costitutivi trasversali della Convenzione, in particolare per quanto riguarda lo Stato di diritto, la democrazia e la dignità umana.
Terzo: Nel chiarire il funzionamento della Convenzione in relazione all'IA, la Corte trarrà il più possibile spunto da una giurisprudenza già consolidata su come affrontare le sfide delle nuove tecnologie, ad esempio sulla sicurezza di Internet e sul diritto all'oblio, sul giornalismo responsabile online, sul trasferimento dei dati, sulla protezione delle fonti giornalistiche, sul diritto a libere elezioni, sul giusto processo e sul divieto di discriminazione. Da questo vasto corpus giurisprudenziale, se considerato a livello aggregato, è molto probabile che si possano estrapolare determinate tendenze, valori, meccanismi o principi.
Quarto: la Corte applicherà la dottrina dello strumento vivente per garantire che il diritto in questione sancito dalla Convenzione rimanga effettivo nella pratica e che l'interpretazione e l'applicazione della Convenzione siano adattate alle condizioni attuali.
In effetti, senza questo approccio all'interpretazione della Convenzione, quest'ultima sarebbe già completamente obsoleta e priva di qualsiasi reale incidenza su cambiamenti radicali nello sviluppo sociale come l'intelligenza artificiale. A questo proposito, mi aspetto che la Corte – nel definire la direzione di qualsiasi sviluppo giurisprudenziale – tenga conto del possibile consenso emergente nel diritto interno degli Stati membri del Consiglio d'Europa, nell'Unione Europea, tra gli altri strumenti internazionali in materia di diritti umani e, più in generale, nel diritto internazionale.
L'articolo Intelligenza artificiale e diritti umani alla Corte europea dei diritti dell'uomo è apparso per la prima volta su Constitution Blog .
Questa è la traduzione automatica di un articolo pubblicato su Verfassungsblog all’URL https://verfassungsblog.de/ai-and-human-rights-at-the-european-court-of-human-rights/ in data Mon, 08 Dec 2025 12:20:09 +0000.
