Quanti

Le reti neurali profonde aiutano a spiegare i cervelli viventi

Le reti neurali profonde, spesso criticate come

Nell'inverno del 2011, Daniel Yamins , un ricercatore post-dottorato in neuroscienze computazionali presso il Massachusetts Institute of Technology, a volte faticava oltre la mezzanotte nel suo progetto di visione artificiale. Stava progettando meticolosamente un sistema in grado di riconoscere gli oggetti nelle immagini, indipendentemente dalle variazioni di dimensioni, posizione e altre proprietà, cosa che gli esseri umani fanno con facilità. Il sistema era una rete neurale profonda, un tipo di dispositivo computazionale ispirato al cablaggio neurologico dei cervelli viventi.

"Ricordo molto distintamente il momento in cui abbiamo trovato una rete neurale che ha effettivamente risolto il compito", ha detto. Erano le 2 del mattino, un po 'troppo presto per svegliare il suo consigliere, James DiCarlo , o altri colleghi, quindi un eccitato Yamins fece una passeggiata nell'aria fredda di Cambridge. "Ero davvero pompato", ha detto.

Sarebbe stato considerato un risultato degno di nota solo nell'intelligenza artificiale, uno dei tanti che renderebbero le reti neurali i beniamini della tecnologia AI nei prossimi anni. Ma quello non era l'obiettivo principale di Yamins e dei suoi colleghi. Per loro e per altri neuroscienziati, questo è stato un momento cruciale nello sviluppo di modelli computazionali per le funzioni cerebrali.

DiCarlo e Yamins, che ora gestisce il suo laboratorio presso la Stanford University, fanno parte di una cerchia di neuroscienziati che utilizzano reti neurali profonde per dare un senso all'architettura del cervello. In particolare, gli scienziati hanno faticato a capire le ragioni alla base delle specializzazioni all'interno del cervello per vari compiti. Si sono chiesti non solo perché parti diverse del cervello fanno cose diverse, ma anche perché le differenze possono essere così specifiche: perché, ad esempio, il cervello ha un'area per riconoscere gli oggetti in generale ma anche per i volti in particolare? Le reti neurali profonde stanno dimostrando che tali specializzazioni possono essere il modo più efficiente per risolvere i problemi.

Allo stesso modo, i ricercatori hanno dimostrato che le reti profonde più abili nel classificare parole, musica e profumi simulati hanno architetture che sembrano parallele ai sistemi uditivo e olfattivo del cervello. Tali paralleli si manifestano anche in reti profonde che possono guardare una scena 2D e dedurre le proprietà sottostanti degli oggetti 3D al suo interno, il che aiuta a spiegare come la percezione biologica possa essere sia veloce che incredibilmente ricca. Tutti questi risultati suggeriscono che le strutture dei sistemi neurali viventi incarnano alcune soluzioni ottimali ai compiti che hanno assunto.

Questi successi sono tanto più inaspettati dato che i neuroscienziati sono stati a lungo scettici nei confronti dei confronti tra cervelli e reti neurali profonde, il cui funzionamento può essere imperscrutabile. "Onestamente, nessuno nel mio laboratorio stava facendo nulla con le reti profonde", ha detto la neuroscienziata del MIT Nancy Kanwisher . "Ora, la maggior parte di loro li sta addestrando regolarmente."

Reti profonde e visione

Le reti neurali artificiali sono costruite con componenti di interconnessione chiamati perceptrons, che sono modelli digitali semplificati di neuroni biologici. Le reti hanno almeno due strati di perceptrons, uno per lo strato di input e uno per l'output. Metti uno o più strati "nascosti" tra l'input e l'output e ottieni una rete neurale "profonda" ; maggiore è il numero di livelli nascosti, più profonda è la rete.

Le reti profonde possono essere addestrate per individuare modelli nei dati, come modelli che rappresentano le immagini di cani o gatti. L'addestramento prevede l'utilizzo di un algoritmo per regolare in modo iterativo la forza delle connessioni tra i perceptrons, in modo che la rete impari ad associare un dato input (i pixel di un'immagine) con l'etichetta corretta (gatto o cane). Una volta addestrato, il deep net dovrebbe idealmente essere in grado di classificare un input che non ha visto prima.

Nella loro struttura e funzione generali, le reti profonde aspirano vagamente a emulare il cervello, in cui i punti di forza regolati delle connessioni tra i neuroni riflettono le associazioni apprese. I neuroscienziati hanno spesso evidenziato importanti limitazioni in quel confronto: i singoli neuroni possono elaborare le informazioni in modo più estensivo di quanto non facciano i perceptrons "stupidi", per esempio, e le reti profonde spesso dipendono da un tipo di comunicazione tra i perceptron chiamata retro propagazione che non sembra verificarsi nei sistemi nervosi. Tuttavia, per i neuroscienziati computazionali, le reti profonde a volte sono sembrate la migliore opzione disponibile per modellare parti del cervello.

I ricercatori che sviluppano modelli computazionali del sistema visivo sono stati influenzati da ciò che sappiamo del sistema visivo dei primati, in particolare il percorso responsabile del riconoscimento di persone, luoghi e cose chiamato flusso visivo ventrale. (Un percorso in gran parte separato, il flusso visivo dorsale, elabora le informazioni per vedere il movimento e le posizioni delle cose.) Negli esseri umani, questo percorso ventrale inizia negli occhi e procede al nucleo genicolato laterale nel talamo, una sorta di stazione di trasmissione per informazioni sensoriali. Il nucleo genicolato laterale si collega a un'area chiamata V1 nella corteccia visiva primaria, a valle della quale si trovano le aree V2 e V4, che alla fine portano alla corteccia temporale inferiore. (I cervelli dei primati non umani hanno strutture omologhe.)

L'intuizione neuroscientifica chiave è che l'elaborazione delle informazioni visive è gerarchica e procede per fasi: le fasi precedenti elaborano caratteristiche di basso livello nel campo visivo (come bordi, contorni, colori e forme), mentre rappresentazioni complesse, come interi oggetti e volti , emergono solo più tardi nella corteccia temporale inferiore.

Queste intuizioni hanno guidato la progettazione della rete profonda da parte di Yamins e dei suoi colleghi. La loro rete profonda aveva strati nascosti, alcuni dei quali eseguivano una "convoluzione" che applicava lo stesso filtro a ogni porzione di un'immagine. Ogni convoluzione ha catturato diverse caratteristiche essenziali dell'immagine, come i bordi. Le caratteristiche più basilari sono state catturate nelle prime fasi della rete e le caratteristiche più complesse nelle fasi più profonde, come nel sistema visivo dei primati. Quando una rete neurale convoluzionale (CNN) come questa viene addestrata per classificare le immagini, inizia con valori inizializzati casualmente per i suoi filtri e apprende i valori corretti necessari per l'attività da svolgere.

La CNN a quattro strati del team è stata in grado di riconoscere otto categorie di oggetti (animali, barche, automobili, sedie, volti, frutti, aerei e tavoli) rappresentati in 5.760 immagini 3D fotorealistiche. Gli oggetti raffigurati variavano notevolmente in posa, posizione e scala. Anche così, la rete profonda ha eguagliato le prestazioni degli esseri umani, che sono estremamente bravi a riconoscere gli oggetti nonostante la variazione.

All'insaputa di Yamins, una rivoluzione in atto nel mondo della visione artificiale avrebbe anche convalidato in modo indipendente l'approccio che lui ei suoi colleghi stavano adottando. Poco dopo aver finito di costruire la loro CNN, un'altra CNN chiamata AlexNet si è fatta un nome in un concorso annuale di riconoscimento delle immagini. Anche AlexNet era basato su un'architettura di elaborazione gerarchica che catturava le caratteristiche visive di base nelle sue fasi iniziali e le caratteristiche più complesse nelle fasi più alte; era stato addestrato su 1,2 milioni di immagini etichettate che presentavano mille categorie di oggetti. Nel concorso del 2012, AlexNet ha indirizzato tutti gli altri algoritmi testati: in base alle metriche della concorrenza, il tasso di errore di AlexNet era solo del 15,3%, rispetto al 26,2% del suo concorrente più vicino. Con la vittoria di AlexNet, le reti profonde sono diventate contendenti legittimi nel campo dell'IA e del machine learning.

Yamins e altri membri del team di DiCarlo, tuttavia, erano alla ricerca di una ricompensa neuroscientifica. Se la loro CNN imitava un sistema visivo, si chiedevano, poteva prevedere le risposte neurali a una nuova immagine? Per scoprirlo, hanno prima stabilito come l'attività in serie di neuroni artificiali nella loro CNN corrispondesse all'attività in quasi 300 siti nel flusso visivo ventrale di due macachi rhesus.

Quindi hanno usato la CNN per prevedere come avrebbero risposto quei siti cerebrali quando alle scimmie fossero state mostrate immagini che non facevano parte del set di dati di addestramento. "Non solo abbiamo ottenuto buone previsioni … ma c'è anche una sorta di coerenza anatomica", ha detto Yamins: gli strati iniziale, intermedio e avanzato della CNN predicevano i comportamenti delle aree cerebrali di primo, intermedio e di livello superiore, rispettivamente . La forma ha seguito la funzione.

Kanwisher ricorda di essere rimasta colpita dal risultato quando è stato pubblicato nel 2014. "Non dice che le unità nella rete profonda si comportano individualmente come neuroni biofisicamente", ha detto. "Tuttavia, c'è una specificità scioccante nella corrispondenza funzionale."

Specializzato per i suoni

Dopo che sono apparsi i risultati di Yamins e DiCarlo, la caccia era aperta ad altri modelli di cervello a rete profonda migliori, in particolare per le regioni meno studiate del sistema visivo dei primati. Ad esempio, "non abbiamo ancora una buona comprensione della corteccia uditiva, in particolare negli esseri umani", ha detto Josh McDermott , neuroscienziato del MIT. L'apprendimento profondo potrebbe aiutare a generare ipotesi su come il cervello elabora i suoni?

Questo è l'obiettivo di McDermott. Il suo team, che comprendeva Alexander Kell e Yamins, ha iniziato a progettare reti profonde per classificare due tipi di suoni: parola e musica. Innanzitutto, hanno codificato un modello della coclea – l'organo che trasduce il suono nell'orecchio interno, il cui funzionamento è compreso in grande dettaglio – per elaborare l'audio e ordinare i suoni in diversi canali di frequenza come input per una rete neurale convoluzionale. La CNN è stata addestrata sia a riconoscere le parole nei clip audio del discorso sia a riconoscere i generi di clip musicali mescolati con il rumore di fondo. Il team ha cercato un'architettura deep-net in grado di eseguire queste attività in modo accurato senza bisogno di molte risorse.

Sembravano possibili tre serie di architetture. Le due attività della rete profonda potrebbero condividere solo il livello di input e quindi dividersi in due reti distinte. All'altro estremo, le attività potrebbero condividere la stessa rete per tutta la loro elaborazione e suddividersi solo nella fase di output. Oppure potrebbe essere una delle dozzine di varianti intermedie, in cui alcune fasi della rete erano condivise e altre erano distinte.

Non sorprende che le reti che avevano percorsi dedicati dopo il livello di input superassero le reti che condividevano completamente i percorsi. Tuttavia, una rete ibrida – una con sette livelli comuni dopo la fase di input e poi due reti separate di cinque livelli ciascuna – ha funzionato quasi altrettanto bene della rete completamente separata. McDermott e colleghi hanno scelto la rete ibrida come quella che funzionava meglio con le minori risorse di calcolo.

Quando hanno confrontato quella rete ibrida con gli umani in questi compiti, si è accordato bene. È stato anche confrontato con i risultati precedenti di un numero di ricercatori che suggerivano che la corteccia uditiva non primaria avesse regioni distinte per l'elaborazione di musica e linguaggio. E in un test chiave pubblicato nel 2018, il modello ha previsto l'attività cerebrale nei soggetti umani: gli strati intermedi del modello hanno anticipato le risposte della corteccia uditiva primaria e gli strati più profondi hanno anticipato aree più alte nella corteccia uditiva. Queste previsioni erano sostanzialmente migliori di quelle dei modelli non basati sull'apprendimento profondo.

"L'obiettivo della scienza è essere in grado di prevedere cosa faranno i sistemi", ha detto McDermott. "Queste reti neurali artificiali ci avvicinano a questo obiettivo nelle neuroscienze".

Kanwisher, inizialmente scettica sull'utilità del deep learning per la propria ricerca, si è ispirata ai modelli di McDermott. Kanwisher è meglio conosciuta per il suo lavoro tra la metà e la fine degli anni '90 che mostra che una regione della corteccia temporale inferiore chiamata area fusiforme del viso (FFA) è specializzata per l'identificazione dei volti. L'FFA è significativamente più attivo quando i soggetti fissano le immagini dei volti rispetto a quando guardano le immagini di oggetti come le case. Perché il cervello separa l'elaborazione dei volti da quella di altri oggetti?

Tradizionalmente, rispondere a queste domande del "perché" è stato difficile per le neuroscienze. Quindi Kanwisher, insieme alla sua postdoc Katharina Dobs e altri colleghi, si è rivolta a reti profonde per chiedere aiuto. Hanno usato un successore della visione artificiale di AlexNet – una rete neurale convoluzionale molto più profonda chiamata VGG – e addestrato due reti profonde separate in compiti specifici: riconoscimento di volti e riconoscimento di oggetti.

Il team ha scoperto che la rete profonda addestrata a riconoscere i volti non era in grado di riconoscere gli oggetti e viceversa, suggerendo che queste reti rappresentano volti e oggetti in modo diverso. Successivamente, il team ha addestrato una singola rete su entrambe le attività. Hanno scoperto che la rete si era organizzata internamente per separare l'elaborazione di volti e oggetti nelle fasi successive della rete. "VGG separa spontaneamente di più nelle fasi successive", ha detto Kanwisher. "Non deve separarsi nelle fasi iniziali."

Questo concorda con il modo in cui è organizzato il sistema visivo umano: la ramificazione avviene solo a valle degli stadi iniziali condivisi del percorso visivo ventrale (il nucleo genicolato laterale e le aree V1 e V2). "Abbiamo scoperto che la specializzazione funzionale dell'elaborazione di volti e oggetti è emersa spontaneamente in reti profonde addestrate su entrambi i compiti, come nel cervello umano", ha detto Dobs, che ora è alla Justus Liebig University di Giessen, in Germania.

"La cosa più eccitante per me è che penso che ora abbiamo un modo per rispondere alle domande sul perché il cervello è così com'è", ha detto Kanwisher.

Strati di profumi

Ulteriori prove di questo tipo stanno emergendo dalla ricerca che affronta la percezione degli odori. L'anno scorso, il neuroscienziato computazionale Robert Yang ei suoi colleghi della Columbia University hanno progettato una rete profonda per modellare il sistema olfattivo di un moscerino della frutta, che è stato mappato in modo molto dettagliato dai neuroscienziati.

Il primo strato di elaborazione degli odori coinvolge i neuroni sensoriali olfattivi, ognuno dei quali esprime solo uno dei circa 50 tipi di recettori dell'odore. Tutti i neuroni sensoriali dello stesso tipo, circa 10 in media, raggiungono un singolo cluster nervoso nello strato successivo della gerarchia di elaborazione. Poiché ci sono circa 50 di questi ammassi nervosi su ciascun lato del cervello in questo strato, questo stabilisce una mappatura uno a uno tra i tipi di neuroni sensoriali e gli ammassi nervosi corrispondenti. Gli ammassi nervosi hanno più connessioni casuali ai neuroni nello strato successivo, chiamato strato Kenyon, che ha circa 2.500 neuroni, ognuno dei quali riceve circa sette input. Si pensa che lo strato Kenyon sia coinvolto nelle rappresentazioni di alto livello degli odori. Uno strato finale di circa 20 neuroni fornisce l'output che la mosca usa per guidare le sue azioni legate all'odore (Yang avverte che nessuno sa se questo output si qualifica come classificazione degli odori).

Per vedere se potevano progettare un modello computazionale per imitare questo processo, Yang e colleghi hanno prima creato un set di dati per imitare gli odori, che non attivano i neuroni allo stesso modo delle immagini. Se si sovrappongono due immagini di gatti, aggiungendole pixel per pixel, l'immagine risultante potrebbe non assomigliare affatto a un gatto. Tuttavia, se mescoli un odore di due mele, probabilmente avrà ancora l'odore di una mela. "Questa è una visione critica che abbiamo utilizzato per progettare il nostro compito olfattivo", ha detto Yang.

Hanno costruito la loro rete profonda con quattro strati: tre che modellavano gli strati di lavorazione nella mosca della frutta e uno strato di output. Quando Yang e colleghi hanno addestrato questa rete per classificare gli odori simulati, hanno scoperto che la rete convergeva su più o meno la stessa connettività vista nel cervello della mosca della frutta: una mappatura uno-a-uno dallo strato 1 allo strato 2, e poi un e mappatura casuale (7-a-1) dal livello 2 al livello 3.

Questa somiglianza suggerisce che sia l'evoluzione che la rete profonda hanno raggiunto una soluzione ottimale. Ma Yang rimane diffidente riguardo ai loro risultati. "Forse abbiamo solo avuto fortuna qui, e forse non generalizza", ha detto.

Il prossimo passo nella sperimentazione sarà quello di sviluppare reti profonde in grado di prevedere la connettività nel sistema olfattivo di alcuni animali non ancora studiati, che potrà poi essere confermata dai neuroscienziati. "Ciò fornirà un test molto più rigoroso della nostra teoria", ha detto Yang, che si trasferirà al MIT nel luglio 2021.

Non solo scatole nere

Le reti profonde vengono spesso derise per non essere in grado di generalizzare a dati che si allontanano troppo dal set di dati di addestramento. Sono anche famigerati per essere scatole nere. È impossibile spiegare le decisioni di una rete profonda esaminando i milioni o addirittura miliardi di parametri che la modellano. Un modello deep-net di una parte del cervello non sta semplicemente sostituendo una scatola nera con un'altra?

Non proprio, secondo Yang. "È ancora più facile studiare che il cervello", ha detto.

L'anno scorso, il team di DiCarlo ha pubblicato risultati che hanno assunto sia l'opacità delle reti profonde sia la loro presunta incapacità di generalizzare. I ricercatori hanno utilizzato una versione di AlexNet per modellare il flusso visivo ventrale dei macachi e hanno scoperto le corrispondenze tra le unità di neuroni artificiali e i siti neurali nell'area V4 delle scimmie. Quindi, utilizzando il modello computazionale, hanno sintetizzato immagini che prevedevano avrebbero suscitato livelli di attività innaturalmente elevati nei neuroni delle scimmie. In un esperimento, quando queste immagini "innaturali" sono state mostrate alle scimmie, hanno aumentato l'attività del 68% dei siti neurali oltre i loro livelli usuali; in un altro, le immagini aumentavano l'attività in un neurone mentre la sopprimevano nei neuroni vicini. Entrambi i risultati sono stati previsti dal modello della rete neurale.

Per i ricercatori, questi risultati suggeriscono che le reti profonde si generalizzano al cervello e non sono del tutto insondabili. "Tuttavia, riconosciamo che … molte altre nozioni di 'comprensione' rimangono da esplorare per vedere se e come questi modelli aggiungono valore", hanno scritto.

Le convergenze nella struttura e nelle prestazioni tra reti profonde e cervelli non significano necessariamente che funzionino allo stesso modo; ci sono modi in cui è dimostrato che non lo fanno. Ma può darsi che ci siano abbastanza somiglianze perché entrambi i tipi di sistemi seguano gli stessi ampi principi guida.

Limitazioni dei modelli

McDermott vede un potenziale valore terapeutico in questi studi sulla rete profonda. Oggi, quando le persone perdono l'udito, di solito è a causa di cambiamenti nell'orecchio. Il sistema uditivo del cervello deve far fronte agli input alterati. "Quindi, se avessimo buoni modelli di ciò che sta facendo il resto del sistema uditivo, avremmo un'idea migliore di cosa fare per aiutare effettivamente le persone a sentire meglio", ha detto McDermott.

Tuttavia, McDermott è cauto su ciò che le reti profonde possono offrire. "Abbiamo spinto abbastanza duramente per cercare di comprendere i limiti delle reti neurali come modelli", ha detto.

In una sorprendente dimostrazione di tali limitazioni, la studentessa laureata Jenelle Feather e altri nel laboratorio di McDermott si sono concentrati sui metameri, che sono segnali di ingresso fisicamente distinti che producono la stessa rappresentazione in un sistema. Due metameri audio, ad esempio, hanno forme d'onda diverse ma suonano allo stesso modo per un essere umano. Utilizzando un modello deep-net del sistema uditivo, il team ha progettato metameri di segnali audio naturali; questi metameri hanno attivato diversi stadi della rete neurale allo stesso modo dei clip audio. Se la rete neurale ha modellato accuratamente il sistema uditivo umano, anche i metameri dovrebbero suonare allo stesso modo.

Ma non è quello che è successo. Gli esseri umani hanno riconosciuto i metameri che hanno prodotto la stessa attivazione dei corrispondenti clip audio nelle prime fasi della rete neurale. Tuttavia, questo non valeva per i metameri con attivazioni corrispondenti nelle fasi più profonde della rete: quei metameri suonavano come rumore per gli umani. "Quindi, anche se in determinate circostanze questi tipi di modelli fanno un ottimo lavoro nel replicare il comportamento umano, c'è qualcosa di molto sbagliato in loro", ha detto McDermott.

A Stanford, Yamins sta esplorando modi in cui questi modelli non sono ancora rappresentativi del cervello. Ad esempio, molti di questi modelli richiedono un sacco di dati etichettati per l'allenamento, mentre il nostro cervello può imparare senza sforzo da un solo esempio. Sono in corso sforzi per sviluppare reti profonde senza supervisione in grado di apprendere in modo altrettanto efficiente. Le reti profonde imparano anche usando un algoritmo chiamato propagazione posteriore, che la maggior parte dei neuroscienziati pensa non possa funzionare nel tessuto neurale reale perché manca delle connessioni appropriate. "Ci sono stati alcuni grandi progressi in termini di regole di apprendimento un po 'più biologicamente plausibili che effettivamente funzionano", ha detto Yamins.

Josh Tenenbaum , un neuroscienziato cognitivo del MIT, ha affermato che, sebbene tutti questi modelli della rete profonda siano "veri passi di progresso", svolgono principalmente compiti di classificazione o categorizzazione. Il nostro cervello, tuttavia, fa molto di più che classificare ciò che è là fuori. Il nostro sistema di visione può dare un senso alla geometria delle superfici e alla struttura 3D di una scena e può ragionare su fattori causali sottostanti – ad esempio, può dedurre in tempo reale che un albero è scomparso solo perché un'auto è passata davanti di esso.

Per comprendere questa capacità del cervello, Ilker Yildirim , precedentemente al MIT e ora alla Yale University, ha lavorato con Tenenbaum e colleghi per costruire qualcosa chiamato un efficiente modello grafico inverso. Inizia con parametri che descrivono un volto da rendere su uno sfondo, come la sua forma, la sua consistenza, la direzione dell'illuminazione, la posa della testa e così via. Un programma di computer grafica chiamato modello generativo crea una scena 3D dai parametri; quindi, dopo varie fasi di elaborazione, produce un'immagine 2D di quella scena vista da una certa posizione. Utilizzando i dati 3D e 2D del modello generativo, i ricercatori hanno addestrato una versione modificata di AlexNet per prevedere i probabili parametri di una scena 3D da un'immagine 2D non familiare. "Il sistema impara a tornare indietro dall'effetto alla causa, dall'immagine 2D alla scena 3D che l'ha prodotta", ha detto Tenenbaum.

Il team ha testato il proprio modello verificando le sue previsioni sull'attività nella corteccia temporale inferiore dei macachi rhesus. Hanno presentato i macachi con 175 immagini, che mostravano 25 individui in sette pose, e hanno registrato le firme neurali da "macchie facciali", aree di elaborazione visiva specializzate nel riconoscimento facciale. Hanno anche mostrato le immagini alla loro rete di deep learning. Nella rete, l'attivazione dei neuroni artificiali nel primo strato rappresenta l'immagine 2D e l'attivazione nell'ultimo strato rappresenta i parametri 3D. "Lungo la strada, passa attraverso una serie di trasformazioni, che sembrano fondamentalmente portarti dal 2D al 3D", ha detto Tenenbaum. Hanno scoperto che gli ultimi tre strati della rete corrispondevano notevolmente bene agli ultimi tre strati della rete di elaborazione del viso dei macachi.

Ciò suggerisce che i cervelli utilizzano combinazioni di modelli generativi e di riconoscimento non solo per riconoscere e caratterizzare gli oggetti, ma per inferire le strutture causali inerenti alle scene, il tutto in un istante. Tenenbaum riconosce che il loro modello non prova che il cervello funzioni in questo modo. "Ma apre la porta a porre quelle domande in un modo meccanicistico più fine", ha detto. "Dovrebbe essere … motivarci ad affrontarlo."

Nota del redattore: Daniel Yamins e James DiCarlo ricevono finanziamenti per la ricerca dalla Simons Collaboration on the Global Brain , che fa parte della Simons Foundation, l'organizzazione che finanzia anche questa rivista editoriale indipendente. Le decisioni di finanziamento della Simons Foundation non hanno alcuna incidenza sulla copertura di Quanta . Si prega di consultare questa pagina per maggiori dettagli.


Questa è la traduzione automatica di un articolo pubblicato su Quanta Magazine all’URL https://www.quantamagazine.org/deep-neural-networks-help-to-explain-living-brains-20201028/ in data Wed, 28 Oct 2020 15:00:29 +0000.