1 settembre 2022
caratteristica

Figura che riassume la valutazione e le prestazioni della macro di calcolo in memoria dei ricercatori. Attestazione: Huo et al (Elettronica della natura2022).
Le architetture di apprendimento automatico basate su reti neurali convoluzionali (CNN) si sono rivelate estremamente preziose per un’ampia gamma di applicazioni, che vanno dalla visione artificiale all’analisi di immagini e all’elaborazione o generazione del linguaggio umano. Per affrontare compiti più avanzati, tuttavia, queste architetture stanno diventando sempre più complesse e impegnative dal punto di vista computazionale.
Negli ultimi anni, molti ingegneri elettronici in tutto il mondo hanno quindi cercato di sviluppare dispositivi in grado di supportare lo storage e il carico computazionale di complesse architetture basate sulla CNN. Ciò include dispositivi di memoria più densi che possono supportare grandi quantità di pesi (cioè i parametri addestrabili e non addestrabili considerati dai diversi livelli delle CNN).
I ricercatori dell’Accademia cinese delle scienze, dell’Istituto di tecnologia di Pechino e di altre università cinesi hanno recentemente sviluppato un nuovo sistema di calcolo in memoria che potrebbe aiutare a eseguire modelli più complessi basati sulla CNN in modo più efficace. La loro componente di memoria, introdotta in un articolo pubblicato in Elettronica della naturasi basa su macro di calcolo in memoria non volatili costituite da array di memristor 3D.
“Il ridimensionamento di tali sistemi su array 3D potrebbe fornire maggiore parallelismo, capacità e densità per le necessarie operazioni di moltiplicazione di matrice vettoriale”, hanno scritto Qiang Huo e i suoi colleghi nel loro articolo. “Tuttavia, il ridimensionamento a tre dimensioni è impegnativo a causa di problemi di produzione e variabilità dei dispositivi. Segnaliamo una macro di calcolo in memoria non volatile da due kilobit basata su una memoria ad accesso casuale resistivo verticale tridimensionale fabbricata utilizzando un 55 nm processo complementare a ossido di metallo e semiconduttore.”
Le memorie resistive ad accesso casuale, o RRAM, sono dispositivi di archiviazione non volatili (cioè conservano i dati anche dopo un’interruzione dell’alimentazione) basati su memristori. I memristori sono componenti elettronici che possono limitare o regolare il flusso di corrente elettrica nei circuiti, registrando la quantità di carica che in precedenza scorreva attraverso di essi.
Le RRAM funzionano essenzialmente variando la resistenza attraverso un memristore. Mentre studi passati hanno dimostrato il grande potenziale di questi dispositivi di memoria, le versioni convenzionali di questi dispositivi sono separate dai motori dei computer, il che limita le loro possibili applicazioni.
I dispositivi RRAM di calcolo in memoria sono stati progettati per superare questa limitazione, incorporando i calcoli all’interno della memoria. Ciò può ridurre notevolmente il trasferimento di dati tra memorie e processori, migliorando in definitiva l’efficienza energetica dell’intero sistema.
Il dispositivo di calcolo in memoria creato da Huo e dai suoi colleghi è una RRAM 3D con strati impilati verticalmente e circuiti periferici. I circuiti del dispositivo sono stati fabbricati utilizzando la tecnologia CMOS a 55 nm, la tecnologia alla base della maggior parte dei circuiti integrati oggi sul mercato.
I ricercatori hanno valutato il loro dispositivo utilizzandolo per eseguire operazioni complesse e per eseguire un modello per rilevare i bordi nelle scansioni cerebrali MRI. Il team ha addestrato i propri modelli utilizzando due set di dati MRI esistenti per l’addestramento di strumenti di riconoscimento delle immagini, noti come set di dati MNIST e CIFAR-10.
“La nostra macro può eseguire operazioni di moltiplicazione di matrice vettoriale 3D con un’efficienza energetica di 8,32 tera-operazioni al secondo per watt quando i dati di input, peso e output sono rispettivamente di 8,9 e 22 bit e la densità di bit è di 58,2 bit µm-2“, hanno scritto i ricercatori nel loro articolo. “Mostriamo che la macro offre un rilevamento dei bordi MRI cerebrale più accurato e una migliore precisione dell’inferenza sul set di dati CIFAR-10 rispetto ai metodi convenzionali”.
Nei test iniziali, il sistema RRAM verticale di calcolo in memoria creato da Huo e dai suoi colleghi ha ottenuto risultati notevoli, superando gli approcci RRAM convenzionali. In futuro, potrebbe quindi rivelarsi estremamente prezioso per l’esecuzione di modelli complessi basati sulla CNN in modo più efficiente dal punto di vista energetico, consentendo anche migliori precisioni e prestazioni.
Una macro nvCIM da quattro megabit per dispositivi edge AI
Qiang Huo et al, Una macro di calcolo in memoria basata su memoria ad accesso casuale resistivo tridimensionale, Elettronica della natura (2022). DOI: 10.1038/s41928-022-00795-x
© 2022 Scienza X Rete
Citazione: un sistema informatico in memoria basato su memorie resistive 3D impilate (2022, 1 settembre) recuperato il 12 ottobre 2022 da https://techxplore.com/news/2022-09-in-memory-based-stacked-3d-resistive. html
Questo documento è soggetto a copyright. Al di fuori di qualsiasi correttezza commerciale a fini di studio o ricerca privati, nessuna parte può essere riprodotta senza il permesso scritto. Il contenuto è fornito a solo scopo informativo.