Technologies

News information

HBM3 ha tutto a posto, solo lo standard è finalizzato

Rilasciare : 12 ott 2021

HBM3 ha tutto a posto, solo lo standard è finalizzato
HBM3
Dall'era del PC all'era dei dispositivi mobili e dell'intelligenza artificiale, anche l'architettura del chip è passata dall'essere incentrata sulla CPU a incentrata sui dati. Il test portato dall'IA include non solo la potenza di calcolo del chip, ma anche la larghezza di banda della memoria. Anche se le velocità DDR e GDDR sono relativamente alte, molti algoritmi AI e reti neurali hanno ripetutamente riscontrato limitazioni della larghezza di banda della memoria.HBM, che si concentra su un'ampia larghezza di banda, è diventata la DRAM preferita per chip ad alte prestazioni come data center e HPC. .

Al momento, JEDEC non ha ancora fornito la bozza finale dello standard HBM3, ma i fornitori di IP che partecipano al lavoro di formulazione dello standard hanno già fatto i preparativi. Non molto tempo fa, Rambus è stata la prima ad annunciare un sottosistema di memoria che supporta HBM3. Recentemente, Synopsys ha anche annunciato la prima soluzione completa di verifica e IP HBM3 del settore.

I fornitori di IP vanno per primi

 

Nel giugno di quest'anno, Taiwan Creative Electronics ha rilasciato una piattaforma AI/HPC/di rete basata sulla tecnologia CoWoS di TSMC, dotata di un controller HBM3 e PHY IP, con una velocità di I/O fino a 7,2 Gbps. Creative Electronics sta inoltre richiedendo un brevetto per il cablaggio dell'interposer, che supporta il cablaggio a zigzag con qualsiasi angolazione e può dividere l'IP HBM3 in due SoC per l'uso.

La soluzione IP completa HBM3 annunciata da Synopsys fornisce un controller, PHY e IP di verifica per un sistema multi-chip 2.5D, sostenendo che i progettisti possono utilizzare la memoria con un basso consumo energetico e una maggiore larghezza di banda nel SoC. Il controller DesignWare HBM3 e l'IP PHY di Synopsys si basano sull'IP HBM2E comprovato dal chip, mentre l'IP PHY HBM3 si basa sul processo a 5 nm La velocità per pin può raggiungere i 7200 Mbps e la larghezza di banda della memoria può essere aumentata a 921 GB/s .

Pacchetto bonus

Quanto sopra sono solo i dati dell'HBM a strato singolo.Dopo aver impilato 2 o 4 strati attraverso l'imballaggio 2.5D, la larghezza di banda della memoria sarà raddoppiata. Prendiamo come esempio l'acceleratore A100 di Nvidia: la prima versione da 80 GB di Nvidia utilizza un HBM2 a 4 strati per ottenere una larghezza di banda di 1,6 TB/s, successivamente è stata introdotta una versione HBM2E a 5 strati per aumentare ulteriormente la larghezza di banda a 2 TB/s. E questo tipo di prestazioni della larghezza di banda può essere ottenuto con solo 2 strati di HBM3 e la configurazione del 4° e 5° strato è la specifica di memoria esistente sul supermercato lontano.

Inoltre, il metodo Logic + HBM non è più nuovo e molti chip per GPU e server hanno adottato design simili. Tuttavia, poiché i Fab continuano a impegnarsi nella tecnologia di packaging 2.5D, anche il numero di HBM su un singolo chip sta aumentando. Ad esempio, la tecnologia TSMC CoWoS sopra menzionata può integrare più di 4 HBM nel chip SoC. Il P100 di Nvidia integra 4 HBM2, mentre il processore vettoriale Sx-Aurora di NEC integra 6 HBM2.

Samsung sta inoltre sviluppando la tecnologia di packaging I-Cube 2.5D di prossima generazione, oltre a supportare l'integrazione di 4-6 HBM, sta anche sviluppando una soluzione I-Cube 8 con due chip logici + 8 HBM. Tecnologia di packaging 2.5D simile e EMIB di Intel, ma la HBM è utilizzata principalmente nel suo FPGA Agilex.

Osservazioni conclusive

Attualmente, Micron, Samsung, SK Hynix e altri produttori di memoria stanno già seguendo questo nuovo standard DRAM.Il designer di SoC Socionext ha collaborato con Synopsys per introdurre HBM3 nel suo design multi-chip, oltre all'architettura x86 che deve essere supportata. , la piattaforma Neoverse N2 di Arm ha anche pianificato di supportare HBM3 e il SoC RISC-V di SiFive ha anche aggiunto HBM3 IP. Ma anche se JEDEC non è "bloccato" e ha rilasciato lo standard HBM3 ufficiale alla fine dell'anno, potremmo dover aspettare fino alla seconda metà del 2022 per vedere i prodotti correlati all'HBM3 disponibili.

Tutti hanno visto HBM2/2E su molti chip ad alte prestazioni, in particolare applicazioni per data center, come Tesla P100/V100 di NVIDIA, Radeon Instinct MI25 di AMD, processore di rete neurale Nervana di Intel e TPU v2 di Google e molti altri.

Le applicazioni di livello consumer sembrano allontanarsi dalla HBM: in passato, Radeon RxVega64/Vega 56 di AMD e KabyLake-G di Intel utilizzavano i prodotti grafici della HBM, e livelli ancora più elevati includono Quaddro GP100/GV100 di Nvidia e AMD. Pro WX.

Oggi questi prodotti utilizzano tutti DRAM GDDR. Dopotutto, non c'è collo di bottiglia della larghezza di banda nelle applicazioni consumer. Al contrario, la velocità e il costo sono i più apprezzati dai produttori di chip. Tuttavia, HBM3 menziona i vantaggi di una larghezza di banda maggiore e di una maggiore efficienza. non ridurre i costi.