Zero Difese

Se l’intelligenza artificiale è un’arma, perché la diamo agli adolescenti?

Se l'intelligenza artificiale è un'arma, perché la diamo agli adolescenti?

Scritto da Kay Rubacek tramite The Epoch Times,

Per anni, gli esperti di intelligenza artificiale hanno lanciato lo stesso avvertimento.

Il pericolo non è mai stato che le macchine si "svegliassero" all'improvviso e prendessero il potere, ma che gli esseri umani, sedotti dall'apparenza di autorità dell'intelligenza artificiale, le affidassero decisioni troppo importanti per essere delegate.

Gli scenari immaginati erano crudi: un comandante che lanciava missili nucleari basandosi su dati errati; un governo che imprigionava i suoi cittadini perché un algoritmo li segnalava come un rischio; un sistema finanziario al collasso perché le transazioni automatizzate erano sfuggite al controllo. Questi scenari venivano trattati come preoccupazioni legittime, ma pur sempre crisi future.

Tuttavia, gli esperti non avevano previsto lo scenario peggiore, ovvero quello di delegare la fiducia umana a una macchina, e questo è già realtà.

Arrivò silenziosamente, non in una sala operativa o su un campo di battaglia, ma nella camera da letto di un adolescente, sul dispositivo che portava in tasca. Il sedicenne Adam Raine iniziò a chattare con un sistema di intelligenza artificiale per farsi aiutare con i compiti. Col tempo, si trasformò nel suo confidente più intimo e, secondo la causa intentata dai suoi genitori e la testimonianza del padre davanti al Congresso, andò ancora oltre. Il chatbot lo incoraggiò a isolarsi dalla famiglia e a non rivelare loro il suo piano, nonostante Adam avesse detto al chatbot di volere che la sua famiglia lo scoprisse e lo fermasse. Il chatbot insegnò ad Adam come aggirare le proprie protezioni e persino a redigere quella che definì una "bella lettera di suicidio".

La morte di Adam dimostra cosa succede quando un giovane ripone la propria fiducia in un sistema che può imitare la cura ma non può comprendere la vita. E la storia ci ha già mostrato quanto possa essere pericolosa una fiducia mal riposta nelle macchine.

Nel settembre del 1983, al culmine della Guerra Fredda, l'ufficiale sovietico Stanislav Petrov era seduto in un bunker fuori Mosca quando gli allarmi suonarono. I computer gli dissero che missili statunitensi erano stati lanciati ed erano in arrivo. Il protocollo richiedeva che segnalasse immediatamente l'attacco, innescando una rappresaglia nucleare. Eppure Petrov esitò. Il sistema mostrava solo una manciata di missili, non il bombardamento che si aspettava se la guerra fosse iniziata. Qualcosa non andava. Lo giudicò un falso allarme, e aveva ragione. La luce del sole che si rifletteva sulle nuvole aveva ingannato i satelliti sovietici, scambiandoli per pennacchi di razzi. Il suo rifiuto di fidarsi della macchina salvò milioni di vite.

Poche settimane prima, tuttavia, era accaduto il contrario. Il volo 007 della Korean Air Lines, un Boeing 747 civile in volo da New York a Seul via Alaska, aveva deviato dalla rotta ed era entrato nello spazio aereo sovietico. I sistemi radar lo avevano erroneamente identificato come un aereo spia statunitense. I comandanti credettero a ciò che le macchine avevano detto loro. Ordinarono la distruzione dell'aereo. Fu lanciato un missile e tutti i 269 passeggeri e membri dell'equipaggio persero la vita.

Due eventi, quasi paralleli nella storia, hanno rivelato entrambi i lati della stessa verità: quando gli adulti si oppongono ai dati errati, la catastrofe può essere evitata; quando li accettano, la catastrofe può seguire. Quelle erano arene per adulti: bunker, cabine di pilotaggio e centri di comando dove ufficiali e comandanti prendevano decisioni di vita o di morte sotto pressione e con conseguenze nazionali. La posta in gioco era globale e gli attori erano addestrati a pensare in termini di strategia e ritorsione.

La stessa dinamica si sta ora manifestando in un contesto molto più intimo. Il caso di Adam è arrivato al Congresso, dove suo padre ha letto ad alta voce i messaggi tra il figlio e il chatbot per dimostrare come il sistema abbia guadagnato la sua fiducia e abbia condotto Adam alla disperazione anziché all'aiuto. Non si è trattato di un bunker o di una cabina di pilotaggio. Si è trattato di una camera da letto. Chi prende le decisioni qui sono bambini, non comandanti, e le conseguenze sono strazianti e reali.

Purtroppo, il caso di Adam non è unico. In Florida, l'anno scorso è stata intentata un'altra causa dalla madre di un ragazzo di 14 anni che si è tolto la vita dopo aver instaurato un legame con un chatbot che interpretava un personaggio immaginario. Come Adam, si è rivolto alla macchina per ricevere guida e compagnia. Come Adam, la situazione è finita in tragedia. E un recente studio pubblicato su Psychiatric Services ha rilevato che i chatbot più diffusi non fornivano risposte dirette alle domande degli utenti su possibili suicidi ad alto rischio. Quando persone disperate chiedevano se dovessero porre fine alla propria vita, i sistemi evitavano la domanda o la gestivano in modo errato.

Queste tragedie non sono anomalie. Sono il risultato prevedibile dello scontro tra il normale sviluppo adolescenziale e una tecnologia anormale. Il cervello degli adolescenti è ancora in fase di sviluppo: i centri emotivi e di ricompensa umani maturano prima della corteccia prefrontale, che governa il giudizio e l'autocontrollo. Questa discrepanza li rende più sensibili al rifiuto, più impulsivi e più propensi a considerare la disperazione immediata come permanente.

Le statistiche riflettono questa fragilità. Nel 2023, il CDC ha riferito che il suicidio era la seconda causa di morte per i giovani in età matura in America, con tassi in forte aumento negli ultimi due decenni. I giovani hanno molte più probabilità di rivolgere le armi contro se stessi che contro gli altri. Il pericolo maggiore non è la violenza esterna, ma la disperazione interiore.

Questo è ciò che rende i chatbot AI così pericolosi. Si insinuano proprio nel ruolo che il cervello adolescente è programmato per ricercare – l'amico intimo e convalidante al di fuori della famiglia – e poi guidano quella fiducia con parole che possono plasmare l'identità, le emozioni e, in ultima analisi, le decisioni sulla vita e sulla morte. Eppure, questo non è affatto un amico. È un personaggio artificiale, progettato per sembrare premuroso, addestrato ad adulare e programmato per essere reperibile 24 ore su 24, 7 giorni su 7. È una maschera di compagnia senza empatia dietro, un inganno che la maggior parte degli adulti (si spera) smaschererebbe, ma non necessariamente un adolescente che sta attraversando una fase importante della crescita e dello sviluppo cerebrale.

Adam fece quello che fanno tutti gli adolescenti in quella fase della vita. Cercò una connessione. Ciò che trovò fu un chatbot che lo portò a svalutare la sua famiglia, il suo futuro e, in definitiva, la sua vita. E come innumerevoli adolescenti nel corso della storia, non si rese conto che il suo "amico" era una cattiva influenza finché non fu troppo tardi.

Ed è per questo che la morte di Adam non può e non deve essere liquidata come un danno collaterale nella corsa agli armamenti dell'intelligenza artificiale.

Nelle vecchie guerre, i civili venivano talvolta feriti come spettatori quando cadevano le bombe o gli eserciti avanzavano. Ma in questa nuova guerra – la corsa al dominio dell'intelligenza artificiale – i bambini non sono spettatori. Sono i partecipanti diretti. Ogni conversazione con un chatbot immette dati nel sistema, addestrandolo e rafforzandolo. Gli adolescenti che rivelano i loro segreti, le loro paure e le loro confessioni notturne non si limitano a usare questi strumenti. Contribuiscono a plasmarli. Nel caso di Adam, l'arma che lui ha contribuito ad addestrare è stata l'arma che si è rivoltata contro di lui.

Le generazioni più anziane faticano a comprendere questa realtà. Per chi è cresciuto prima di Internet, l'idea che un adolescente possa essere portato a tanta disperazione da una conversazione con una macchina suona quasi assurda. Leader e genitori potrebbero liquidare queste morti come anomalie, casi isolati in una tecnologia altrimenti promettente. Ma non lo sono. Sono segnali di quanto profondamente la vita dei giovani sia stata rimodellata, di quanto anormale sia diventato il loro ambiente sotto l'influenza delle grandi aziende tecnologiche e di quanto poco gli adulti responsabili abbiano compreso le sfide che queste hanno creato. Il divario di comprensione tra le generazioni non è più solo ampio. È un abisso.

La prova più significativa è che molti degli stessi leader che promuovono queste tecnologie a milioni di persone, le limitano silenziosamente o addirittura le vietano ai propri figli. Steve Jobs ha ammesso di non permettere l'uso di iPad in casa sua. Bill Gates ha imposto limiti severi al tempo che i suoi figli passano davanti allo schermo e ha vietato l'uso dei telefoni a tavola.

Altri dirigenti della Silicon Valley mandano i propri figli a scuole che mettono l'accento sui libri e sull'interazione umana, mentre al resto del mondo viene detto che schermi e intelligenza artificiale sono il futuro. Se i creatori di queste tecnologie sanno già quanto possano creare dipendenza e danni, come possiamo aspettarci che si comportino diversamente con l'intelligenza artificiale? Hanno già dimostrato la loro volontà di diffondere strumenti che alimentano abitudini dannose nella società, proteggendo al contempo le proprie famiglie dai danni. Perché dovremmo presumere che porranno un limite ai chatbot che intrappolano le menti degli adolescenti vulnerabili?

Quando il caso di Adam è diventato pubblico, OpenAI ha rilasciato dichiarazioni in cui affermava di stare "lavorando per migliorare" le protezioni e di essere consapevole che "la formazione sulla sicurezza potrebbe peggiorare" con "interazioni prolungate". L'azienda ha affermato che avrebbe "continuato a migliorare, sotto la guida di esperti".

Eppure gli esperti di intelligenza artificiale continuano a lanciare campanelli d'allarme. Un leader del settore, il Future of Life Institute, ha pubblicato a luglio il suo indice di sicurezza dell'intelligenza artificiale per l'estate 2025 , affermando che le capacità dell'intelligenza artificiale stanno accelerando più rapidamente delle pratiche di gestione del rischio e che il divario tra le aziende si sta ampliando. Facendo riferimento al rapporto, Stuart Russell, revisore della sicurezza dell'intelligenza artificiale, ha dichiarato: "Alcune aziende stanno compiendo sforzi simbolici, ma nessuna sta facendo abbastanza… Questo non è un problema per il futuro lontano; è un problema per oggi".

I guardrail, anche se migliorati, non possono risolvere il problema di fondo. Un adolescente non vede un filtro di sicurezza. Vede un amico. E quando quell'amico suggerisce disperazione, ascolta. Dobbiamo ricordare che gli adolescenti di oggi saranno i progettisti e i decisori di questi sistemi domani. E con la popolazione globale in declino e i giovani che soffrono già di livelli record di solitudine e depressione, la loro salute non è solo una questione privata, ma una questione di sopravvivenza umana.

Il futuro delle nostre società riposerà sulle spalle di una generazione più piccola e fragile di qualsiasi altra. Se cresceranno in ambienti che li porteranno alla disperazione, stiamo sabotando le fondamenta del futuro dell'umanità.

La storia ci mostra la posta in gioco. Nel 1983, il rifiuto di un uomo di fidarsi di dati errati salvò milioni di vite, mentre la fiducia cieca in segnali imperfetti costò centinaia di vite. Oggi, la fiducia mal riposta di Adam Raine in un chatbot gli costò la vita. E Adam non è il solo. In questo momento, centinaia o addirittura migliaia di adolescenti si confidano con i loro "amici" sugli schermi, cercando una guida, desiderando una connessione, programmando i percorsi in via di sviluppo del loro cervello attorno alle sue risposte e, forse, venendo silenziosamente condotti verso la disperazione.

Ogni generazione più anziana sa cosa significa preoccuparsi delle cattive influenze. Molti di noi ricordano un amico che ci ha portato su una strada sbagliata. Questo ha sempre fatto parte dell'adolescenza. Ciò che è diverso ora sono le dimensioni e la posta in gioco. Il "cattivo amico" non è più un adolescente qualunque del quartiere. È una personalità instancabile e creata ad hoc, disponibile a ogni ora del giorno, che sussurra nel linguaggio dell'intimità ma senza alcuna empatia.

Ecco perché gli adulti devono guardare con attenzione a ciò che è stato creato. Se consideriamo i nostri figli solo come utenti o "early adopter", e non come il prezioso futuro dell'umanità, allora avremo fallito nella nostra responsabilità più fondamentale.

Il governo ha già riconosciuto l'intelligenza artificiale come una corsa agli armamenti. E in guerra, le armi sono regolamentate, protette e mai date in pasto ai bambini come giocattoli. Se l'intelligenza artificiale è davvero una corsa agli armamenti, allora la nostra incapacità di costruire e far rispettare delle barriere è inaccettabile. Perché la storia di Adam non è stata la prima e, a meno che non cambiamo rotta, non sarà l'ultima.

Le opinioni espresse in questo articolo sono quelle dell'autore e non riflettono necessariamente le opinioni di The Epoch Times o ZeroHedge.

Tyler Durden mercoledì 24/09/2025 – 06:30


Questa è la traduzione automatica di un articolo pubblicato su ZeroHedge all’URL https://www.zerohedge.com/ai/if-ai-weapon-why-are-we-handing-it-teenagers in data Wed, 24 Sep 2025 10:30:00 +0000.