규격 | 총 채널 구성과 스택당 다이 구성 | 스택당 최대 용량 (GB) | 스택당 버스 폭 | 전압(V) | 클럭 (비트레이트) | 채널당 I/O 데이터 전송률 | 스택당 대역폭 (GB/s) | 개발 | 표준화 | 적용 |
HBM | 8 채널 × 128-bit × 4-Hi | 4 | 1024-bit | 1.3 | 500 MHz (1 Gbps) | 1 GT/s | 128 | 2013년 | 2013년 | 2015년 |
HBM2 | 8 채널 × 128-bit × 8-Hi | 8 | 1024-bit | 1.2 | 1200 MHz (2.4 Gbps) | 2.4 GT/s | 307 | 2015년 | 2016년 | 2016년 |
HBM2E | 8 채널 × 128-bit × 12-Hi | 24 | 1024-bit | 1.2 | 1800 MHz (3.6 Gbps) | 3.6 GT/s | 461 | 2018년 | 2019년 | 2020년 |
HBM3 | 16 채널 × 64-bit × 16-Hi | 24 | 1024-bit | 1.1 | 3200 MHz (6.4 Gbps) | 6.4 GT/s | 819 | 2021년 | 2022년 | 2023년 |
HBM3E[3] | 16 채널 × 64-bit × 16-Hi | 48 | 1024-bit | 1.1 | 4800 MHz (9.6 Gbps) | 9.6 GT/s | 1229 | 2023년 | 2024년 | 2024년 |
HBM4[4] | 2026년 |
제품명 | 구분 (용량) | 칩 개수 (총 용량) | 대역폭 |
엔비디아 A100 | HBM2e(8Hi) (16GB) | 6개 (80GB) | 2TB/s |
엔비디아 RTX3090 | GDDR6X (1GB) | 24개 (24GB) | 936GB/s |
엔비디아 RTX A6000 | GDDR6 (2GB) | 24개 (48GB) | 768GB/s |
제품명 | 구분 (용량) | 칩 개수 (총 용량) | 대역폭 |
엔비디아 H100 PCIe | HBM2e(8Hi) (16GB) | 6개 (80GB) | 2TB/s |
엔비디아 RTX4090 | GDDR6X (2GB) | 12개 (24GB) | 1TB/s |
제품명 | 구분 (용량) | 칩 개수 (총 용량) | 대역폭 |
AMD Instinct MI300X | HBM3(8Hi) (24GB) | 8개 (192GB) | 5.3TB/s |
엔비디아 H200 SXM | HBM3e(8Hi) (24GB) | 6개 (141GB) | 4.8TB/s |
HBM3e(8Hi) (24GB) | 16개 (384GB) | 16TB/s |
제품명 | 구분 (용량) | 칩 개수 (총 용량) | 대역폭 |
엔비디아 B300A | HBM3e(12Hi) (36GB) | 4개 (144GB) | 4.8TB/s |
GDDR7 (2GB) | 16개 (32GB) | 1.8TB/s |
이 저작물은 CC BY-NC-SA 2.0 KR에 따라 이용할 수 있습니다. (단, 라이선스가 명시된 일부 문서 및 삽화 제외)
기여하신 문서의 저작권은 각 기여자에게 있으며, 각 기여자는 기여하신 부분의 저작권을 갖습니다.
나무위키는 백과사전이 아니며 검증되지 않았거나, 편향적이거나, 잘못된 서술이 있을 수 있습니다.
나무위키는 위키위키입니다. 여러분이 직접 문서를 고칠 수 있으며, 다른 사람의 의견을 원할 경우 직접 토론을 발제할 수 있습니다.
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply. This site is protected by hCaptcha and its Privacy Policy and Terms of Service apply.