Zero Difese

La NSF ha pagato le università per sviluppare strumenti di censura dell’intelligenza artificiale per i social media

La NSF ha pagato le università per sviluppare strumenti di censura dell'intelligenza artificiale per i social media

Di Daniel Nuccio di The College Fix

"Utilizzato dai governi e dalle Big Tech per modellare l'opinione pubblica limitando determinati punti di vista o promuovendone altri: rapporto

Secondo i membri della Camera, la National Science Foundation sta pagando le università utilizzando i soldi dei contribuenti per creare strumenti di intelligenza artificiale che possano essere utilizzati per censurare gli americani su varie piattaforme di social media.

L’Università del Michigan, l’Università del Wisconsin-Madison e il MIT sono tra le università citate nel rapporto provvisorio della Commissione giudiziaria della Camera e del Sottocomitato ristretto sull’arma del governo federale.

Descrive in dettaglio il " finanziamento da parte della fondazione di strumenti di censura e propaganda basati sull'intelligenza artificiale e i suoi ripetuti sforzi per nascondere le sue azioni ed evitare il controllo politico e dei media".

“NSF ha concesso sovvenzioni multimilionarie a gruppi di ricerca universitari e no-profit” allo scopo di sviluppare tecnologie basate sull’intelligenza artificiale “che possono essere utilizzate dai governi e dalle Big Tech per modellare l’opinione pubblica limitando determinati punti di vista o promuovendone altri”. ”, afferma il rapporto, pubblicato il mese scorso.

I finanziamenti per i progetti sono iniziati nel 2021 e sono stati erogati attraverso il programma di sovvenzioni Convergence Accelerator della NSF, inizialmente lanciato nel 2019 per sviluppare soluzioni interdisciplinari alle principali sfide di importanza nazionale e sociale come quelle relative all’intelligenza artificiale e alla tecnologia quantistica.

Nel 2021, tuttavia, la NSF ha introdotto la “Traccia F: fiducia e autenticità nei sistemi di comunicazione”.

La sollecitazione del programma Convergence Accelerator 2021 della NSF affermava che l'obiettivo dei progetti Track F era quello di "sviluppare prototipi di nuove piattaforme di ricerca che formassero raccolte integrate di strumenti, tecniche e materiali e programmi educativi per supportare una maggiore fiducia dei cittadini nell'informazione pubblica di ogni tipo (salute, clima, notizie, ecc.), attraverso una prevenzione, una mitigazione e un adattamento più efficaci alle minacce critiche nei nostri sistemi di comunicazione”.

Nello specifico, la richiesta di sovvenzione ha individuato le minacce poste dagli hacker e dalla disinformazione.

Quel settembre, rileva il rapporto del sottocomitato selezionato, la NSF ha assegnato "dodici team di Track F 750.000 dollari ciascuno (per un totale di 9 milioni di dollari) per sviluppare e perfezionare le loro idee di progetto e costruire partnership". L’anno successivo, secondo il rapporto, la NSF ha selezionato sei dei 12 team per ricevere ulteriori 5 milioni di dollari ciascuno per i rispettivi progetti.

I progetti dell’Università del Michigan, dell’Università del Wisconsin-Madison, del MIT e di Meedan, un’organizzazione no-profit specializzata nello sviluppo di software per contrastare la disinformazione, sono evidenziati dal sottocomitato selezionato.

Complessivamente questi quattro progetti hanno ricevuto 13 milioni di dollari dalla NSF, si legge.

"L'Università del Michigan intendeva utilizzare i finanziamenti federali per sviluppare il suo strumento 'WiseDex', che potrebbe utilizzare la tecnologia AI per valutare la veridicità dei contenuti sui social media e assistere le grandi piattaforme di social media con quali contenuti dovrebbero essere rimossi o altrimenti censurati," afferma.

Il Course Correct dell'Università del Wisconsin-Madison, presentato in un articolo di The College Fix lo scorso anno, era “destinato ad aiutare giornalisti, organizzazioni sanitarie pubbliche, funzionari dell'amministrazione elettorale e altri ad affrontare la cosiddetta disinformazione su argomenti come gli Stati Uniti elezioni ed esitazione sul vaccino COVID-19”.

Search Lit del MIT, come descritto nel rapporto del sottocomitato selezionato, è stato sviluppato come un intervento per aiutare a educare i gruppi di americani che i ricercatori ritenevano più vulnerabili alla disinformazione come conservatori, minoranze, americani rurali, anziani e famiglie di militari.

Meedan, secondo il suo sito web , ha utilizzato i suoi finanziamenti per sviluppare “strumenti facili da usare e ottimizzati per i dispositivi mobili [che] consentiranno ai membri della comunità AAPI [asiatico-americani e isolani del Pacifico] di inoltrare contenuti potenzialmente dannosi alle notizie e di scoprire il contesto pertinente. spiegazioni, verifiche dei fatti, materiali di alfabetizzazione mediatica e altri interventi di disinformazione”.

Secondo il rapporto del comitato ristretto, "Una volta investiti del denaro dei contribuenti, i ricercatori pseudo-scientifici esercitano le risorse e il prestigio conferiti loro dal governo federale contro qualsiasi entità che resista ai loro progetti di censura".

“In alcuni casi”, afferma il rapporto, “se una società di social media non riesce ad agire abbastanza velocemente da cambiare una politica o rimuovere ciò che i ricercatori percepiscono come disinformazione sulla sua piattaforma, i ricercatori di disinformazione pubblicheranno post sul blog o documenti formali per “generare un momento di comunicazione" (ovvero, copertura stampa negativa) per la piattaforma, cercando di costringerla a conformarsi alle loro richieste."

Sono stati compiuti sforzi via e-mail per contattare i membri senior dei tre gruppi di ricerca universitari, nonché un rappresentante di Meedan, per quanto riguarda la rappresentazione del loro lavoro nel rapporto del sottocomitato selezionato.

Paul Resnick, che ricopre il ruolo di direttore del progetto WiseDex presso l'Università del Michigan, ha indirizzato The College Fix al sito web WiseDex.

“Le società di social media hanno politiche contro la disinformazione dannosa. Sfortunatamente, l’applicazione della norma non è uniforme, soprattutto per i contenuti non inglesi”, afferma il sito. “WiseDex sfrutta la saggezza delle folle e le tecniche di intelligenza artificiale per aiutare a segnalare più post [di quanto possano fare gli umani]. Il risultato è un’applicazione più completa, equa e coerente, che riduce significativamente la diffusione della disinformazione”.

Un video sul sito presenta lo strumento come un mezzo per aiutare i siti di social media a segnalare i post che violano le politiche della piattaforma e successivamente allegare avvisi o rimuovere i post. Come esempio vengono utilizzati i post che descrivono i vaccini COVID-19 approvati come potenzialmente pericolosi.

Anche Michael Wagner dell'Università del Wisconsin-Madison ha risposto a The Fix , scrivendo: "È interessante essere incluso in un rapporto che afferma di riguardare la censura quando il nostro progetto non censura esattamente nessuno".

Secondo il rapporto del sottocomitato selezionato, alcuni dei ricercatori associati a Track F e progetti simili, tuttavia, gli sforzi riconosciuti privatamente per combattere la disinformazione erano intrinsecamente politici e una forma di censura.

Tuttavia, a seguito della copertura negativa dei progetti Track F, che li descrivevano come motivati ​​politicamente e i loro prodotti come strumenti di censura finanziati dal governo, osserva il rapporto, la NSF ha iniziato a discutere la strategia sui media e di sensibilizzazione con i beneficiari delle sovvenzioni.

Gli appunti tratti da un paio di sessioni di pianificazione della strategia mediatica del tracciato F incluse nell'Appendice B del rapporto del sottocomitato selezionato raccomandano ai ricercatori, quando interagiscono con i media, di concentrarsi sulla natura "pro-democrazia" e "non ideologica" del loro lavoro, "Dai esempi di entrambe le parti" e "usa metafore sportive".

Il rapporto del sottocomitato ristretto evidenzia inoltre che si è discusso di una lista nera dei media, anche se almeno un ricercatore dell'Università del Michigan si è opposto a ciò, citando il potenziale aspetto.

Tyler Durden Mer, 27/03/2024 – 21:40


Questa è la traduzione automatica di un articolo pubblicato su ZeroHedge all’URL https://www.zerohedge.com/markets/nsf-paid-universities-develop-ai-censorship-tools-social-media in data Thu, 28 Mar 2024 01:40:00 +0000.