
Будущее памяти HBM: от HBM4 до HBM8, эра эксабайтной пропускной способности и встроенного охлаждения
Будущее вычислений строится на высокоскоростной памяти (HBM), и недавно представленная дорожная карта значительно расширяет горизонты. KAIST и Tera Labs поделились планами по стандартам HBM, от HBM4 до HBM8 — и это настоящая революция с потрясающими показателями пропускной способности, объема памяти и потребляемой мощности, которые заставляют GPU потеть только от чтения этих цифр.

HBM4, который выйдет в 2026 году, будет основным стандартом для будущих AI GPU. NVIDIA Rubin и AMD Instinct MI400 будут использовать его. Rubin будет оснащен 8-16 HBM4 модулями, емкость до 384 ГБ VRAM и общей мощностью чипа до 2200 Вт. AMD MI400 даст еще больше, с 432 ГБ и 20 TB/s пропускной способности. Технология использует жидкостное охлаждение и упаковку с микробампами, где каждый модуль HBM потребляет 75 Вт.
HBM5 появится в 2029 году и будет поддерживать до 4096 выводов, 4 TB/s пропускной способности на модуль и 80 ГБ на каждый чип. Первая видеокарта с этим стандартом — “Feynman” от NVIDIA. Потребление мощности возрастет до 100 Вт на HBM и до 4400 Вт на пакет чипов. В качестве охлаждения используется погружное охлаждение с дополнительным декуплирующим конденсатором и улучшениями LPDDR+CXL.
HBM6 наступит после Feynman примерно в 2032 году. Он увеличит пропускную способность до 8 TB/s и поддерживает до 120 ГБ на один модуль. Характеристики изменения: упаковка без припоя Cu-Cu и погружное охлаждение с гибридной архитектурой из кремния и стекла, которая позволит подключать сети внутри памяти. Ожидается, что мощность чипа может достичь 5920 Вт с более чем 1900 ГБ памяти.
HBM7 нацелен на эксабайтную производительность. 8192 вывода и скорость передачи данных 24 Гбит/с принесут до 192 ГБ на модуль и пропускную способность 24 TB/s. Новый дизайн с двумя башнями и встроенным охлаждением предоставит до 1024 TB/s пропускной способности и более 6 ТБ памяти. Потребление энергии — 15,360 Вт на один пакет.
HBM8 будет доступен не раньше 2038 года. Он предложит 32 Гбит/с на вывод и 16 384 вывода. Один модуль будет иметь пропускную способность 64 TB/s и емкость до 240 ГБ. Это будет решение с максимальной производительностью, требующее встроенного охлаждения и коаксиального TSV для использования в центрах обработки данных. Ожидается, что в одном пакете будет до 5000 ГБ памяти, с потреблением энергии, сопоставимым с мощностью небольших дата-центров.
Затем появляется HBF (High-Bandwidth Flash) — гибридный подход, который использует NAND с 128 слоями в 16-Hi модулях. Вместо обычной DRAM используется высокоскоростной HBM с интерфейсом 2 TB/s, что позволяет интегрировать огромные объемы памяти для ИИ. С Glass Interposer и LPDDR до 384 ГБ это создаст единое решение, ориентированное на вычисления с высокой пропускной способностью.
От 2 TB/s до 64 TB/s на модуль и от гигабайтов до терабайтов памяти на одном чипе — HBM больше не просто стандарт памяти, это основа будущих вычислений. Единственный вопрос: смогут ли наши системы охлаждения и электросети справиться с этим?