Technologies

News information

HBM3는 모든 것을 갖추고 있으며 표준만 확정되었습니다.

출시일 : 2021. 10. 12.

HBM3는 모든 것을 갖추고 있으며 표준만 확정되었습니다.
HBM3
PC 시대에서 모바일, AI 시대로 접어들면서 칩 아키텍처도 CPU 중심에서 데이터 중심으로 옮겨갔다. AI가 가져온 테스트에는 칩 컴퓨팅 성능뿐만 아니라 메모리 대역폭도 포함됩니다. DDR과 GDDR의 비율이 상대적으로 높지만 많은 AI 알고리즘과 신경망이 반복적으로 메모리 대역폭의 한계에 부딪혔고, 큰 대역폭에 초점을 맞춘 HBM은 데이터센터, HPC와 같은 고성능 칩에 선호되는 DRAM이 되었습니다. .

현재 JEDEC는 HBM3 표준의 최종 초안을 아직 제공하지 않았지만 표준 공식화 작업에 참여하는 IP 벤더는 이미 준비를 마쳤습니다. 얼마 전 Rambus는 HBM3를 지원하는 메모리 서브시스템을 최초로 발표했으며, 최근 Synopsys는 업계 최초의 완전한 HBM3 IP 및 검증 솔루션도 발표했습니다.

IP 벤더가 먼저

 

올해 6월 대만 크리에이티브 일렉트로닉스(Taiwan Creative Electronics)는 최대 7.2Gbps의 I/O 속도를 가진 HBM3 컨트롤러와 PHY IP를 탑재한 TSMC의 CoWoS 기술 기반 AI/HPC/네트워크 플랫폼을 출시했다. 크리에이티브 일렉트로닉스는 어떤 각도에서도 지그재그 배선을 지원하고 HBM3 IP를 2개의 SoC로 분할하여 사용할 수 있는 인터포저 배선 특허도 출원하고 있다.

Synopsys가 발표한 완전한 HBM3 IP 솔루션은 2.5D 다중 칩 패키지 시스템을 위한 컨트롤러, PHY 및 검증 IP를 제공하여 설계자가 SoC에서 저전력 소비와 더 큰 대역폭으로 메모리를 사용할 수 있다고 주장합니다. Synopsys의 DesignWare HBM3 컨트롤러 및 PHY IP는 칩이 검증된 HBM2E IP를 기반으로 하고 HBM3 PHY IP는 5nm 공정을 기반으로 하며 핀당 속도는 7200Mbps에 달할 수 있으며 메모리 대역폭은 921GB/s까지 증가할 수 있습니다. .

패키지 보너스

위의 내용은 싱글레이어 HBM의 데이터일 뿐이며, 2.5D 패키징을 통해 2~4레이어를 적층하면 메모리 대역폭이 2배가 됩니다. Nvidia의 A100 가속기를 예로 들면 Nvidia의 첫 번째 80GB 버전은 4레이어 HBM2를 사용하여 1.6TB/s의 대역폭을 달성한 후 5레이어 HBM2E 버전을 도입하여 대역폭을 2TB/s로 더욱 높였습니다. 그리고 이런 대역폭 성능은 HBM3의 2계층만으로 가능하며, 4계층과 5계층의 구성은 기존 파슈퍼마켓의 메모리 사양이다.

또한 로직 + HBM 방식은 더 이상 새로운 것이 아니며 많은 GPU 및 서버 칩이 유사한 디자인을 채택했습니다. 그러나 팹이 2.5D 패키징 기술에 대한 노력을 계속하면서 단일 칩에 있는 HBM의 수도 증가하고 있습니다. 예를 들어 위에서 언급한 TSMC CoWoS 기술은 SoC 칩에 4개 이상의 HBM을 통합할 수 있습니다.Nvidia의 P100은 4개의 HBM2를 통합하고 NEC의 Sx-Aurora 벡터 프로세서는 6개의 HBM2를 통합합니다.

삼성은 차세대 I-Cube 2.5D 패키징 기술도 개발 중이며, 4~6개의 HBM 통합 지원과 함께 2개의 로직칩 + 8개의 HBM을 탑재한 I-Cube 8 솔루션도 개발 중이다. 2.5D 패키징 기술과 인텔의 EMIB가 비슷하지만 HBM은 주로 Agilex FPGA에 사용됩니다.

끝 맺는 말

현재 Micron, Samsung, SK Hynix 및 기타 메모리 제조업체는 이미 이 새로운 DRAM 표준을 따르고 있으며 SoC 설계자인 Socionext는 Synopsys와 협력하여 지원해야 하는 x86 아키텍처 외에도 멀티칩 설계에 HBM3을 도입했습니다. , Arm의 Neoverse N2 플랫폼도 HBM3를 지원할 예정이며, SiFive의 RISC-V SoC도 HBM3 IP를 추가했습니다. 그러나 JEDEC가 "고착"되지 않고 연말에 공식 HBM3 표준을 출시하더라도 HBM3 관련 제품을 사용할 수 있으려면 2022년 하반기까지 기다려야 할 수도 있습니다.

모든 사람은 많은 고성능 칩, 특히 NVIDIA의 Tesla P100/V100, AMD의 Radeon Instinct MI25, Intel의 Nervana 신경망 프로세서, Google의 TPU v2 등과 같은 데이터 센터 애플리케이션에서 HBM2/2E를 보았습니다.

소비자 수준의 응용 프로그램은 HBM에서 멀어지는 것 같습니다.과거에는 AMD의 Radeon RxVega64/Vega 56과 Intel의 KabyLake-G가 HBM의 그래픽 제품을 사용했으며 Nvidia의 Quaddro GP100/GV100 및 AMD가 더 높은 수준의 제품을 사용했습니다. Radeon과 같은 전문 그래픽 GPU 프로 WX.

오늘날 이러한 제품은 모두 GDDR DRAM을 사용합니다. 결국 소비자 응용 프로그램에는 대역폭 병목 현상이 없습니다. 반대로 칩 제조업체는 속도와 비용을 가장 중요하게 생각합니다. 그러나 HBM3는 더 큰 대역폭과 더 높은 효율성의 이점을 언급했습니다. 비용을 줄이지 않습니다.