Fondazione Frontiera Elettronica

Come la FTC può rendere Internet sicuro per i chatbot

Come la FTC può rendere Internet sicuro per i chatbot

Inutile indovinare l'oggetto della prima domanda che il Wall Street Journal ha rivolto alla presidente della FTC Lina Khan : ovviamente riguardava l'intelligenza artificiale.

Tra l'hype, la legislazione, i colpi di sciabola, le capitalizzazioni di mercato di trilioni di dollari e le previsioni di un imminente collasso della civiltà , la discussione sull'intelligenza artificiale è diventata inevitabile, pro forma e priva di contenuto come chiedere come sta qualcuno o augurando loro una bella giornata.

Ma il presidente Khan non ha considerato la questione come una scusa per lanciarsi nell'equivalente verbale di un'esibizione di ginnastica obbligatoria.

Invece, ha iniettato qualcosa di veramente nuovo ed entusiasmante nella discussione, proponendo che le controversie su lavoro e privacy nell’intelligenza artificiale potrebbero essere affrontate utilizzando la sua attuale autorità di regolamentazione ai sensi della Sezione 5 del Federal Trade Commission Act (FTCA5).

La sezione 5 conferisce alla FTC un ampio mandato per prevenire “metodi di concorrenza sleali” e “atti o pratiche sleali o ingannevoli”. La presidente Khan ha fatto ampio uso di questi poteri durante il suo primo mandato come presidente, ad esempio vietando i non competitivi e intervenendo sulla privacy online .

Noi di EFF condividiamo molte delle preoccupazioni diffuse sulla privacy, sull’equità e sui diritti dei lavoratori sollevate dall’intelligenza artificiale . Riteniamo che la legge sul copyright sia lo strumento sbagliato per affrontare tali preoccupazioni, sia a causa di ciò che la legge sul copyright consente e non consente , sia perché stabilire il copyright come quadro per la formazione dei modelli di intelligenza artificiale non affronterà le reali questioni relative alla privacy e al lavoro poste da IA generativa . Riteniamo che i problemi legati alla privacy dovrebbero essere affrontati con la politica sulla privacy e che le questioni legate al lavoro dovrebbero essere affrontate con la politica del lavoro.

Questo è ciò che ha reso le osservazioni del presidente Khan così interessanti per noi: proponendo che la Sezione 5 possa essere utilizzata per regolamentare l'addestramento dell'intelligenza artificiale, il presidente Khan sta aprendo la porta per affrontare queste questioni a testa alta. La legge FTC conferisce alla FTC il potere di elaborare regole e linee guida specifiche e adatte allo scopo in grado di proteggere i diritti dei consumatori, della privacy, del lavoro e altri diritti degli americani.

Prendiamo il problema delle “ allucinazioni ” dell’intelligenza artificiale, che è il termine utilizzato nel settore per indicare la propensione apparentemente irrefrenabile dei chatbot a rispondere a domande con risposte errate, fornite con la spensierata sicurezza di un “ stronzo ”.

La questione se sia possibile insegnare ai chatbot a non avere “allucinazioni” è tutt’altro che risolta. Alcuni leader del settore pensano che il problema non potrà mai essere risolto , anche se le startup pubblicano documenti (tecnicamente impressionanti, ma non sottoposti a peer review) che affermano di aver risolto il problema .

Se il problema può essere risolto, è chiaro che per le offerte commerciali di chatbot oggi sul mercato, le "allucinazioni" sono incluse. Oppure, più semplicemente: i chatbot di oggi mentono e nessuno può fermarli.

Questo è un problema, perché le aziende stanno già sostituendo gli addetti umani al servizio clienti con chatbot che mentono ai propri clienti, causando loro danni reali. È già abbastanza difficile partecipare al funerale di tua nonna senza il dolore aggiuntivo del chatbot della tua compagnia aerea che ti mente sulla tariffa del lutto .

Ecco dove i poteri della FTC possono aiutare il pubblico americano:

La FTC dovrebbe emanare linee guida in cui si dichiara che qualsiasi azienda che distribuisce un chatbot che mente a un cliente è impegnata in una "pratica sleale e ingannevole" che viola la Sezione 5 del Federal Trade Commission Act, con tutte le multe e le altre sanzioni che ciò comporta.

Dopotutto, se un'azienda non si mette nei guai quando il suo chatbot mente a un cliente, perché dovrebbe pagare un extra per un chatbot progettato per non mentire? E se non c'è motivo di pagare un extra per un chatbot che non mente, perché qualcuno dovrebbe investire nella risoluzione del problema delle "allucinazioni"?

Le linee guida che promettono di punire le aziende che sostituiscono i loro lavoratori umani con chatbot bugiardi daranno alle nuove aziende che inventano chatbot veritieri un vantaggio sul mercato. Se riesci a dimostrare che il tuo chatbot non mentirà agli utenti dei tuoi clienti, puoi anche chiedere a una compagnia assicurativa di scriverti una polizza che ti consentirà di indennizzare i tuoi clienti contro i reclami derivanti dall'output del tuo chatbot.

Ma finché qualcuno non riuscirà a capire come realizzare un chatbot privo di “allucinazioni”, le linee guida che promettono gravi conseguenze per i chatbot che ingannano gli utenti con bugie “allucinate” spingeranno le aziende a limitare l’uso dei chatbot ad ambienti a basso rischio, lasciando i lavoratori umani a lavorare. fare il loro lavoro.

La FTC ha già intrapreso questa strada. All'inizio di questo mese, Michael Atleson, procuratore senior della FTC, ha pubblicato un eccellente documento di base in cui espone alcune delle riflessioni dell'agenzia su come le aziende dovrebbero presentare i propri chatbot agli utenti.

Riteniamo che una guida più formale sulle conseguenze per le aziende che risparmiano denaro mettendo in prima linea chatbot inaffidabili farà molto per proteggere il pubblico da decisioni aziendali irresponsabili, soprattutto se tale guida è supportata da un’applicazione vigorosa.


Questa è la traduzione automatica di un articolo pubblicato su EFF – Electronic Frontier Foundation all’URL https://www.eff.org/deeplinks/2024/06/how-ftc-can-make-internet-safe-chatbots in data Fri, 28 Jun 2024 20:13:49 +0000.