Blog costituzionale

Superare le elusioni delle fusioni di Big Tech nel campo dell’intelligenza artificiale: innovare il diritto della concorrenza dell’UE attraverso la legge sull’intelligenza artificiale

Forse la Big Tech è troppo grande; e sempre di più. Aziende come Google e Microsoft eludono il regolamento UE sulle fusioni stringendo partnership con laboratori di intelligenza artificiale più piccoli che non riescono a trasferire la proprietà ma aumentano comunque il potere monopolistico delle Big Tech. Queste quasi-fusioni sono particolarmente problematiche nel contesto dell’intelligenza artificiale generativa, che fa affidamento ancor più di molti altri servizi su una potenza di calcolo incredibilmente vasta. Per illustrare la rilevanza di questo fenomeno, solo Microsoft ha concluso nell'ultimo mese due accordi di cooperazione: uno con la startup francese Mistral e uno con la startup G42 di Abu Dhabi. A causa della loro progettazione strutturale, la maggior parte dei modelli di intelligenza artificiale necessitano di enormi quantità di dati e potenza di calcolo per addestrare i loro modelli. In termini semplici, la posizione dominante in altri mercati comporta un vantaggio ingiusto rispetto alle startup grazie all’enorme quantità di capitale necessario per acquistare i relativi chip e all’enorme quantità di dati proprietari a cui le piattaforme di social media in questione possono accedere in modo univoco. Si tratta di una situazione terribile sia dal punto di vista economico che da quello più fondamentale e democratico, poiché la concentrazione del potere economico nelle mani di pochissime aziende potrebbe causare problemi in futuro.

Pertanto, riteniamo che la Commissione europea dovrebbe adeguare le proprie regole sulle fusioni nell’era dell’intelligenza artificiale rafforzando la supervisione competitiva dei fornitori di “modelli di intelligenza artificiale con rischi sistemici”. Concretamente, la Commissione dovrebbe includere nelle sue considerazioni antitrust le classificazioni approvate nella legge sull'AI, in particolare quella dei "sistemi ad alto rischio". Ciò che sembra tecnico è in realtà piuttosto semplice. Cercare di incorporare le classificazioni dell’AI Act nel diritto della concorrenza garantirebbe che questo settore ad alta intensità di capitale riceva il controllo della concorrenza che merita e che le autorità garanti della concorrenza possano anche partecipare alla protezione dei diritti fondamentali dei cittadini dell’UE dai rischi sistemici. Si può presumere che i fornitori di grandi modelli di IA generici con rischio sistemico siano sufficientemente grandi nelle indagini sulle (quasi) fusioni. Ciò aumenterebbe la capacità della Commissione di affrontare efficacemente la concentrazione del potere nella catena di fornitura dell’IA. Attualmente, il regolamento sulle fusioni non si applica alle startup in rapida crescita e di grande valore come Mistral. Inoltre, al fine di monitorare e intervenire in modo efficace sugli sviluppi del mercato nella catena di fornitura dell'IA, la Commissione deve valutare altri aspetti chiave oltre alla partecipazione azionaria e al fatturato: la soglia di calcolo per i sistemi di intelligenza artificiale nell'articolo 52 (a) dell'IA. L'atto è uno di questi aspetti.

Il primo esempio della necessità di queste misure è Microsoft e le sue quasi fusioni. L'azienda ha investito 13 miliardi di dollari nell'AI Lab OpenAI, che si traduce in una quota di proprietà del 49%, e recentemente Microsoft ha stretto una partnership strategica con la startup francese di intelligenza artificiale Mistral. L'aspetto più significativo dell'accordo tra Mistral e Microsoft è che il primo avrà accesso al cloud computing di Microsoft e ai suoi clienti. Al contrario, Microsoft otterrà una somma di capitale non rivelata nel prossimo round di finanziamento e nell’integrazione di Mistral nella sua piattaforma Azure. Questo è un modo per raggruppare le applicazioni AI sulla piattaforma Microsoft.

Questa notizia ha suscitato indignazione tra i politici a Bruxelles e Parigi poiché Mistral ha svolto un ruolo centrale nelle feroci attività di lobbying durante la drammatica finalizzazione della legge sull’AI. Dal punto di vista del diritto della concorrenza, tale outsourcing verticale ( intenzionalmente ) evita il regolamento sulle fusioni . La Commissione ha dimostrato l’ambizione di affrontare queste partnership: l’Autorità garante della concorrenza dell’UE ha prontamente esteso la sua indagine Microsoft-OpenAI per includere Mistral e ha indagato sugli impatti dell’intelligenza artificiale sulle elezioni ai sensi della legge sui servizi digitali. Ma c’è probabilmente la necessità di nuovi strumenti nel toolkit del diritto della concorrenza dell’UE.

Mistral: il promettente laboratorio europeo di intelligenza artificiale intrappolato in una catena di fornitura di intelligenza artificiale altamente concentrata

Dal punto di vista economico, la cooperazione con Microsoft è necessaria per Mistral a causa delle pressioni del mercato che favoriscono gli acquisti lungo la catena di fornitura dell’intelligenza artificiale. La Figura 1 illustra la catena di fornitura dell’IA: dalla produzione di hardware informatico, come i chip AI, e la formazione di modelli di formazione su piattaforme cloud specializzate (Infrastruttura); ai punti di accesso ai modelli, ad esempio tramite API o hub di modelli (Modelli); alle applicazioni che fanno uso dei modelli (App). Molti dei mercati nella catena di fornitura dell’IA sono altamente concentrati .

Figura 1: La catena di fornitura dell'intelligenza artificiale, presa in prestito da Bornstein et al

Ad esempio, l’oligopolio Big Tech di Amazon Web Services, Google Cloud e Microsoft Azure controllano collettivamente il 67% del rumoroso mercato . Microsoft Azure da sola controlla il 24% del mercato del cloud computing e gli investitori lo valuterebbero a circa 1 trilione di dollari di capitalizzazione di mercato. Anche il quasi monopolio di Nvidia come progettista di chip AI e di TSMC come produttore di chip non aiuta le startup AI.

Danni sociali derivanti da una catena di fornitura monopolistica dell’IA

Secondo un rapporto dell’Open Market Institute, i monopoli tecnologici hanno già creato una serie di danni sociali ed economici, danni che l’intelligenza artificiale aumenterà. Uno di questi danni è la soppressione di informazioni affidabili. Gli attori a livello statale sfruttano questo aspetto (si pensi all’influenza russa nelle elezioni americane del 2016 e alla Brexit ) così come gli attori privati ​​(si pensi al deep-fake di Taylor Swift ), e l’intelligenza artificiale generativa aumenta la capacità degli attori di personalizzare le campagne di propaganda e disinformazione su una scala senza precedenti (una minaccia alla quale la Commissione sta assistendo). Un terzo danno è la riduzione della sicurezza e della resilienza, ad esempio, se le infrastrutture critiche come i sistemi energetici e sanitari si affidano a pochi sistemi centrali di intelligenza artificiale. Ciò crea minacce derivanti da guasti dei sistemi, attacchi informatici, algoritmi non autorizzati e dati errati, che avrebbero tutti implicazioni sistemiche essenziali.

Il regolamento UE sulle concentrazioni non copre la partnership di Mistral con Microsoft nella sua forma attuale. Il primo problema con il regolamento sulle fusioni è che si applica solo alle società con un fatturato di almeno 250 milioni di euro nell’anno precedente, il che chiaramente non è il caso della startup in rapida crescita Mistral fondata solo nell’aprile 2023 (art 1( 2) e 5, paragrafo 1, Regolamento sulle concentrazioni ). Il secondo problema con il regolamento è che, anche se i criteri per l’applicazione dovessero essere soddisfatti, è improbabile che quel tipo di cooperazione soddisfi la dottrina dell’“influenza decisiva” ai sensi dell’articolo 3, paragrafo 2, del regolamento sulle concentrazioni. Questa dottrina richiede tipicamente l’acquisizione della maggioranza della proprietà.

Le partnership in cui Microsoft è impegnata evitano questi criteri. Nel caso di Mistral, l'azienda fa affidamento su accordi esclusivi sull'accesso al calcolo e agli utenti. Nel recente caso della start-up AI Inflection , Microsoft ha rilevato i talenti centrali (leader e dipendenti) di Inflection, che ha annunciato che avrebbe smesso di migliorare il suo modello. Si tratta essenzialmente di un'acquisizione killer senza alcuna acquisizione formale e non rientra nell'applicazione del regolamento sulle concentrazioni.

Le pratiche delle Big Tech di raggruppare capitale, elaborazione e applicazioni attraverso la catena di fornitura dell’intelligenza artificiale sono problematiche. Ad esempio, l'integrazione verticale crea barriere all'ingresso nel mercato delle applicazioni. Le Big Tech possono sfruttare la propria posizione nel mercato del cloud per ottenere un accesso unico a modelli di intelligenza artificiale all’avanguardia. Ciò mina la concorrenza sul mercato delle applicazioni. La Commissione ha riconosciuto che le acquisizioni di partecipazioni di minoranza non di controllo possono essere soggette a norme sul controllo delle fusioni, quindi esiste la possibilità di affinare lo strumento esistente attraverso l’interpretazione. Tuttavia, riteniamo che sia necessario espandere il regime di fusione dell’UE per evitare che si verifichino effetti anticoncorrenziali nella catena di fornitura dell’intelligenza artificiale e nella società in generale.

Integrazione delle classificazioni della legge sull’AI nel regime del diritto della concorrenza dell’UE

In primo luogo, la categorizzazione dei cosiddetti “modelli di intelligenza artificiale con rischi sistemici” dovrebbe essere inclusa nell’analisi del diritto della concorrenza dell’UE. I "modelli di intelligenza artificiale con rischi sistemici" sono una categoria di sistemi di intelligenza artificiale definiti dalla legge sull'intelligenza artificiale come modelli di intelligenza artificiale generici con capacità ad alto impatto. La soglia per le capacità ad alto impatto è fissata sulla base di una soglia computazionale tecnica, vale a dire quando vengono utilizzate più di 10 ^ 25 operazioni in virgola mobile (una misura della potenza di calcolo) per addestrare un modello (articolo 52 (a) bozza finale della legge AI) . Alla Commissione è conferito il potere di adottare tale soglia attraverso atti delegati, che consentono di regolamentare le tecnologie emergenti a prova di futuro.

I “modelli di intelligenza artificiale con rischi sistemici” sono sistemi estremamente potenti. I fornitori di tali sistemi saranno molto potenti, indipendentemente dal loro fatturato o altro. Inoltre, c’è una corsa frenetica tra le aziende per raccogliere i vantaggi della prima mossa e stabilire una posizione dominante come fornitore leader di tali sistemi. Un modo per integrare la soglia dei rischi sistemici nel diritto della concorrenza sarebbe quello di richiedere la previa approvazione delle azioni che potrebbero potenzialmente costituire raggruppamento o esclusività da parte dei fornitori di modelli di IA con rischi sistemici. Tali azioni potrebbero includere cambiamenti nell'equità (al di sotto delle soglie maggioritarie) e accordi esclusivi sulla fornitura di cloud computing o fornitura di cloud e integrazione nelle applicazioni (bundling). Un altro approccio sarebbe quello di richiedere la separazione strutturale, vietando alle aziende di controllare sia i modelli GPAI che altre tecnologie/piattaforme che consentono il coinvolgimento in pratiche sleali e abusive. Tale separazione dovrebbe tenere conto sia del controllo verticale che di quello orizzontale. Il controllo dovrebbe essere inteso in modo più ampio rispetto alla semplice costituzione di quote di maggioranza. La separazione strutturale potrebbe basarsi su concetti già esistenti nel diritto della concorrenza dell’UE come il raggruppamento e gli accordi di esclusiva.

In secondo luogo, per monitorare e intervenire efficacemente sugli sviluppi del mercato nella catena di fornitura dell’IA, la Commissione deve valutare altri aspetti chiave oltre alla partecipazione azionaria e al fatturato. La soglia di calcolo di cui all’articolo 52, lettera a), della legge sull’AI è uno di questi aspetti. Ciò consentirebbe alla Commissione di tenere meglio conto della catena di approvvigionamento dell’IA nell’applicazione delle norme sulla concorrenza.

Sebbene questi suggerimenti siano idee preliminari intese a stimolare ulteriori riflessioni piuttosto che a costituire proposte complete, siamo convinti che ci sia un grande potenziale nell’interazione tra la legge sull’AI e il regime di diritto della concorrenza dell’UE. La stessa legge sull’AI comprende diversi punti di interazione tra il diritto della concorrenza dell’UE e la legge sull’AI. Ad esempio, l’articolo 58 delinea i compiti del Consiglio di AI, che includono la cooperazione con altre istituzioni, organi, uffici e agenzie dell’Unione, in particolare nel campo della concorrenza.

È inoltre rilevante notare lo sviluppo giurisprudenziale di una maggiore interazione tra diritto della concorrenza e diritto sulla protezione dei dati. Nel caso Facebook Germania , la Corte di giustizia europea ha stabilito che le violazioni del GDPR costituiscono un abuso di posizione dominante e possono essere prese in considerazione dalle autorità garanti della concorrenza nella loro valutazione. La Corte di giustizia sembra favorevole all’integrazione di diversi regimi giuridici dell’UE rilevanti per i mercati digitali nell’applicazione del diritto della concorrenza dell’UE. La Commissione dovrebbe utilizzare questo supporto e utilizzare le soglie di calcolo previste dalla legge sull’AI nel regime del diritto della concorrenza dell’UE. Questo sarebbe un passo essenziale nell’aggiornamento degli strumenti della concorrenza per adattarli alla catena di fornitura dell’IA in rapida evoluzione.


Questa è la traduzione automatica di un articolo pubblicato su Verfassungsblog all’URL https://verfassungsblog.de/overcoming-big-tech-ai-merger-evasions-innovating-eu-competition-law-through-the-ai-act/ in data Mon, 29 Apr 2024 07:30:31 +0000.