Zero Difese

L’intelligenza artificiale è una pistola, non una bomba atomica

L’intelligenza artificiale è una pistola, non una bomba atomica

Scritto da Dylan Dean tramite AmericanThinker.com,

È di moda, man mano che l'intelligenza artificiale diventa più sofisticata, paragonare i sistemi di intelligenza artificiale alle armi nucleari. Tali analogie provengono dai media tradizionali come Bloomberg , dalle microcelebrità di nicchia di Internet e dal più famoso rovinatore dell'intelligenza artificiale del mondo, Eliezer Yudkowsky .

Ma questo confronto non regge ad un esame accurato.

La teoria dei giochi – lo studio di come interagiscono gli attori razionali – ci mostra perché l’intelligenza artificiale non è la minaccia che si crede. L’intelligenza artificiale è più simile a una pistola che a un’arma nucleare.

Le armi nucleari sono diverse da tutte le altre armi a causa del loro potere distruttivo.

Se due nazioni hanno uno scambio nucleare, entrambe le parti perdono : i missili saranno in aria, senza alcuna speranza di disattivare le armi nemiche in tempo per impedire un attacco.

Per questo motivo, la Teoria dei Giochi suggerisce una politica di “distruzione reciproca assicurata”: qualsiasi attore razionale eviterà l’uso di armi nucleari perché la sua parte verrà distrutta nel processo.

Pertanto, la sicurezza nucleare dipende dalla centralizzazione delle capacità nucleari nelle mani di un piccolo numero di attori razionali.

Tuttavia, consideriamo le armi da fuoco in questo stesso quadro: il miglior modo per contrastare uno sparatutto di massa è un’altra persona con un’arma, un civile o un agente delle forze dell’ordine.

A differenza delle armi nucleari, il rischio di violenza armata può essere mitigato con la decentralizzazione . Centralizza le armi da fuoco nelle mani dello stato e avrai una società tirannica; centralizzandoli nelle mani di criminali, vietando la proprietà a chi rispetta la legge, e otterrai una società di saccheggio. Questi due non sono molto diversi, tranne che per l'estetica. Una società libera e sicura, d’altro canto, è il risultato di un’ampia dispersione delle armi. Le armi nelle mani della gente comune funzionano come forza di compensazione contro coloro che vorrebbero usare le armi per togliere diritti o proprietà personali.

L’intelligenza, che può essere utilizzata sia per il bene che per il male, opera secondo un principio simile a quello del possesso di armi. Come nel caso delle armi da fuoco, l’accesso asimmetrico all’intelligence può portare a situazioni pericolose. Questo è il motivo per cui i malati di mente sono protetti attraverso la tutela (quando non subiscono abusi – #FreeBritney). È per questo che abbiamo leggi sull'età del consenso e perché criminalizziamo l'abuso finanziario sugli anziani. Una situazione in cui la capacità mentale è quasi uguale, d’altro canto, è più sicura. Questo è il motivo per cui la Costituzione degli Stati Uniti garantisce il diritto a un avvocato: la legge è un dominio intellettuale e gli imputati senza esperienza legale si trovano in una situazione di notevole svantaggio. Ciò che viene realmente fornito qui è la mente dell'avvocato, con la conoscenza e l'esperienza necessarie per livellare il campo di gioco.

L’intelligenza artificiale funziona allo stesso modo.

Un modello di intelligenza artificiale potrebbe avere accesso a informazioni e risorse molto più grandi di quelle di una singola persona, come la differenza tra un pubblico ministero e un imputato. Ma proprio come un avvocato interviene per pareggiare il campo di gioco, anche un altro sistema di intelligenza artificiale potrebbe svolgere questo ruolo paritario.

Come le armi e gli avvocati, quindi, un ampio accesso all’intelligenza artificiale è necessario per evitare un’asimmetria di risorse e informazioni – e il pericoloso panorama anticoncorrenziale che deriverebbe dalla centralizzazione.

I modelli open source come Llama2 e StableLM livellano il campo di gioco, o si avvicinano, consentendo a chiunque disponga di hardware sufficiente di controllare il proprio modello localmente. Promuovere lo sviluppo continuo di questi modelli, evitando la regolamentazione governativa e aumentando i finanziamenti senza scopo di lucro alla ricerca sull’intelligenza artificiale open source, garantirà che il campo di gioco rimanga il più uniforme possibile. Ciò consentirà alle capacità di intelligenza artificiale del pubblico di rimanere vicine a quelle delle grandi aziende. La regolamentazione, d’altro canto, centralizzerebbe le risorse dell’intelligenza artificiale nelle mani di poche grandi aziende, eliminando così la concorrenza, l’unica forza di compensazione che potrebbe in primo luogo controllare l’intelligenza artificiale centralizzata.

Non sorprende che le persone che spingono per una regolamentazione dell’IA tendano ad essere anche sostenitori del controllo delle armi: entrambe le posizioni si basano sullo stesso ragionamento errato. Il 13 settembre, Chuck Schumer ha ospitato un vertice sull’intelligenza artificiale che includeva i leader delle più grandi aziende di intelligenza artificiale. Qualunque risultato di quel vertice potrebbe essere positivo per quelle aziende e per Chuck Schumer, ma non per il popolo americano.

Cercheranno di spaventare le persone inducendole a sostenere regolamenti, i cui sostenitori probabilmente utilizzeranno lo stesso stanco paragone con le armi nucleari. Non dobbiamo cascarci.

Tyler Durden Ven, 15/09/2023 – 19:00


Questa è la traduzione automatica di un articolo pubblicato su ZeroHedge all’URL https://www.zerohedge.com/technology/ai-gun-not-nuke in data Fri, 15 Sep 2023 23:00:00 +0000.