Personalità di spicco firmano una lettera per chiedere il divieto dello “sviluppo della superintelligenza”
Personalità di spicco firmano una lettera per chiedere il divieto dello "sviluppo della superintelligenza"
Scritto da Andrew Moran tramite The Epoch Times,
Centinaia di persone, dai commentatori conservatori ai più importanti dirigenti del settore tecnologico, hanno firmato una lettera per chiedere il divieto dello "sviluppo della superintelligenza".
Quest'anno, aziende tecnologiche leader come Google, Meta Platforms e OpenAI hanno accelerato gli sforzi per creare sistemi di intelligenza artificiale (IA) in grado di superare gli esseri umani in un'ampia gamma di compiti elementari e complessi.
Un coro crescente di personaggi di spicco ritiene che sia giunto il momento di frenare, almeno temporaneamente.
La lettera, redatta dal Future of Life Institute, chiede di vietare lo sviluppo di un'intelligenza artificiale superintelligente finché non ci sarà una richiesta pubblica e la scienza non indicherà un percorso sicuro per questa tecnologia.
"Chiediamo il divieto di sviluppo della superintelligenza, che non venga revocato prima che vi sia un ampio consenso scientifico sul fatto che ciò possa essere fatto in modo sicuro e controllabile, e una forte adesione pubblica", si legge nella breve dichiarazione, pubblicata il 22 ottobre.
Il Future of Life Institute ha trascorso l'ultimo decennio a lanciare l'allarme sui rischi esistenziali posti dall'intelligenza artificiale avanzata. La sua petizione ha raccolto migliaia di firme e il sostegno di centinaia di personalità di alto profilo in linea con la missione del gruppo, tra cui i pionieri dell'intelligenza artificiale Yoshua Bengio e Geoffrey Hinton.
Bengio ha affermato che nei prossimi anni i sistemi di intelligenza artificiale potrebbero superare la maggior parte degli individui in vari compiti cognitivi. Pur apportando progressi, potrebbero anche "comportare rischi significativi", ha scritto Bengio in una nota personale pubblicata insieme alla lettera.
"Per progredire in sicurezza verso la superintelligenza, dobbiamo determinare scientificamente come progettare sistemi di intelligenza artificiale che siano fondamentalmente incapaci di danneggiare le persone, sia attraverso un disallineamento che attraverso un uso dannoso", ha scritto.
“Dobbiamo anche assicurarci che il pubblico abbia voce in capitolo nelle decisioni che daranno forma al nostro futuro collettivo”.
La lettera mette in guardia dalle crescenti minacce per il mondo, tra cui la perdita di libertà, di libertà civili e “l'obsolescenza economica e la perdita di potere dell'uomo”.
Tra gli altri firmatari figurano il personaggio mediatico conservatore Glenn Beck, il fondatore del Virgin Group Sir Richard Branson, il co-fondatore di Apple Steve Wozniak, l'ex consigliere per la sicurezza nazionale Susan Rice e il commentatore politico Steve Bannon.
La lettera esprime costernazione per il rapido sviluppo e la diffusione dell'intelligenza artificiale in una vasta gamma di settori, ideologie politiche e sette religiose.
"Il futuro dell'intelligenza artificiale dovrebbe essere al servizio dell'umanità, non sostituirla", ha affermato il principe Harry, uno dei tanti firmatari insieme alla moglie Meghan, in una nota personale pubblicata insieme alla lettera. "La vera prova del progresso non sarà la velocità con cui ci muoviamo, ma la saggezza con cui guidiamo".
Stuart Russell, pioniere dell'intelligenza artificiale e professore di informatica all'Università della California-Berkeley, ha affermato che la dichiarazione non costituisce un divieto o una moratoria "nel senso comune del termine". Piuttosto, ha scritto, si tratta di una proposta per installare le necessarie misure di sicurezza per una tecnologia che "ha una probabilità significativa di causare l'estinzione umana".
"È troppo chiedere?" scrisse Russell.
In un post sul blog del 2015, il CEO di OpenAI Sam Altman ha scritto che l'ascesa dell'"intelligenza artificiale sovrumana (SMI) è probabilmente la più grande minaccia alla continua esistenza dell'umanità".
Il CEO di Tesla, Elon Musk, partecipa all'evento commemorativo "Building a Legacy: Remembering Charlie Kirk" presso lo State Farm Stadium di Glendale, in Arizona, il 21 settembre 2025. Madalina Kilroy/The Epoch Times
Elon Musk, CEO di Tesla Motors e SpaceX, ha dichiarato all'inizio di quest'anno al conduttore del podcast Joe Rogan che le probabilità di annientamento sono "solo del 20 percento".
"La probabilità di un buon risultato è pari all'80%", ha affermato l'imprenditore miliardario.
Non sono solo gli esperti e i personaggi famosi a esprimere cautela.
Il Future of Life Institute ha citato un recente sondaggio nazionale condotto su 2.000 adulti, che ha rilevato solo il 5% di sostegno allo "status quo di uno sviluppo rapido e non regolamentato". Quasi due terzi (64%) ritengono che l'intelligenza artificiale sovrumana non dovrebbe essere creata finché non si dimostri che è sicura e controllabile o "non dovrebbe mai essere sviluppata".
L'intelligenza artificiale in strada e al lavoro
Negli ultimi tre anni Wall Street è stata immersa nell'ascesa dell'intelligenza artificiale, e molti osservatori del mercato l'hanno paragonata alla bolla delle dot-com di 25 anni fa.
Altri sostengono che sia molto diverso dall'esuberanza della fine degli anni '90, quando gli investitori riversavano miliardi di dollari in aziende con la parola "dot-com" nel nome.
"Nel complesso, ci sono alcune somiglianze (crescente concentrazione del mercato nei titoli tecnologici; investimenti di capitale aggressivi prima dei ricavi)", ha affermato John Belton, gestore di portafoglio presso Gabelli Funds, in una nota inviata via email a The Epoch Times.
"Ma penso che sia troppo semplicistico dire che ci troviamo in una 'bolla' (quasi certamente non in una bolla di valutazione; ma si può sostenere che di recente si è assistito a una certa schiuma nei flussi di utili)."
Che la bolla dell'intelligenza artificiale sia reale o meno, le aziende stanno portando avanti l'intelligenza artificiale e i lavoratori statunitensi sono preoccupati.
Secondo i dati di giugno di FactSet Insights, nel secondo trimestre, oltre il 40% delle aziende dell'indice S&P 500 ha commentato l'"intelligenza artificiale" durante le conference call sui risultati finanziari. Si tratta del quinto trimestre consecutivo in cui più di 200 aziende dell'indice S&P 500 lo hanno fatto.
Un sondaggio Reuters-Ipsos condotto la scorsa estate ha rilevato che il 71 percento degli intervistati era preoccupato che l'intelligenza artificiale "mettesse troppe persone fuori dal lavoro in modo permanente".
Sebbene l'intelligenza artificiale non abbia ancora causato una diffusa perdita di posti di lavoro, Christopher Waller, membro del Consiglio dei governatori della Federal Reserve, ha affermato la scorsa settimana che sempre più aziende si stanno preparando ad accogliere la nuova tecnologia nelle loro attività quotidiane.
"I rivenditori, in particolare, stanno riducendo l'occupazione nei call center e nelle professioni legate all'IT", ha dichiarato Waller durante un evento della DC Fintech Week del 15 ottobre. "Finora, la maggior parte afferma che la situazione è gestita attraverso l'abbandono del personale, ma diversi rivenditori affermano che esiste il potenziale per un ridimensionamento il prossimo anno".
Anche i dipendenti che lavorano nel campo dell'intelligenza artificiale stanno subendo tagli di posti di lavoro.
Il 22 ottobre Meta ha annunciato che eliminerà circa 600 posizioni nei suoi Superintelligence Labs, il che avrà ripercussioni sulla ricerca sull'intelligenza artificiale di Facebook e su altri prodotti e infrastrutture correlati all'intelligenza artificiale.
Tyler Durden Ven, 24/10/2025 – 20:55
Questa è la traduzione automatica di un articolo pubblicato su ZeroHedge all’URL https://www.zerohedge.com/ai/prominent-personalities-sign-letter-seeking-ban-development-superintelligence in data Sat, 25 Oct 2025 00:55:00 +0000.


