
Долгая игра SK hynix: HBM5/HBM5E, GDDR7-next, DDR6 и 400+ слоёв 4D NAND на горизонте 2029–2031
На SK AI Summit 2025 компания SK hynix показала не просто очередной слайд с датами, а связанную стратегию памяти для десятилетия ИИ. Дорожная карта разбита на два акта. Первый — 2026–2028 годы — про практичные апгрейды, которые снимут нынешние «узкие места»: HBM4/4E с высоким числом стэков, LPDDR6, свежие итерации CXL и заметный рост ёмкостей eSSD. Второй акт — 2029–2031 — про архитектурные сдвиги: HBM5/HBM5E (включая кастомные варианты), GDDR7-next, выход DDR6 в мейнстрим, 3D DRAM и 400+-слойная 4D NAND. Отдельной линией идёт High-Bandwidth Flash (HBF) — попытка сделать из флеша почти «память» для ИИ-инференса без взрывного роста энергопотребления.
2026–2028: расчистить путь — HBM4/4E, кастомный HBM и ИИ-ориентированный DRAM
В ближайшем окне SK hynix планирует HBM4 16-Hi и HBM4E 8/12/16-Hi, а также выводит кастомный HBM. Ключевое отличие — где живёт логика: контроллер HBM и часть протокольных IP переезжают в базовый кристалл (base die) внутри стека HBM. Такой перенос освобождает площадь на GPU/ASIC под вычисление и кэш, укорачивает электрический тракт и снижает энергозатраты интерфейса. Для реализации тонкой связки памяти и вычислений SK hynix сотрудничает с TSMC: в эпоху продвинутой упаковки и плотной ко-дизайна это ожидаемо.
Традиционный DRAM тоже не стоит на месте. На подходе — LPDDR6 для мобильных и периферийных ИИ-сценариев и целая линейка AI-D. В неё попадают решения вроде LPDDR5X SOCAMM2 для размещения памяти «у вычислений», серверные модули MRDIMM Gen2 для высокой плотности без потери пропускной способности, LPDDR5R для жёстких энергобюджетов и вторая волна CXL вплоть до LPDDR6-PIM (processing-in-memory) как эксперимент с обработкой ближе к данным. Общая идея проста: больше гигабайт в секунду на ватт, меньше латентность до ускорителя и гибкое «пуление» между CPU, GPU и ASIC.
Во флеше компания ведёт две линии — «стандартную» и AI-N (NAND, адаптированная под ИИ). В дорожной карте — PCIe Gen5 eSSD с QLC-ёмкостями уровня 245 ТБ на устройство, затем PCIe Gen6 для eSSD/cSSD и клиентский UFS 5.0. AI-N делает упор на стабильный QoS при высоких очередях и умные контроллеры, чтобы inference-конвейеры не буксовали на ввод-выводе.
2029–2031: HBM5/HBM5E, GDDR7-next, DDR6, 3D DRAM и 400+ слоёв 4D NAND
На дальней дуге карты SK hynix целится в HBM5/HBM5E — снова с кастомными модификациями на базовом кристалле. В графике фигурирует GDDR7-next: прозрачный намёк, что первая волна GDDR7 (с практическими 30–32 Гбит/с на пин и верхней планкой стандарта ближе к 48 Гбит/с) ещё далеко не исчерпана; индустрия, скорее всего, выжмет максимум из текущего сигнального стека, прежде чем вводить новое имя. Для системной памяти DDR6 в таймфрейме 2029–2031 выглядит реалистично с учётом платформенных циклов и инерции экосистемы.
Параллельно созревают концепции 3D DRAM — более плотное вертикальное наращивание и тесная увязка логики с массивом памяти, выходящая за сегодняшние подходы с TSV. На стороне флеша SK hynix планирует 4D NAND с 400+ слоями. «4D» у корейцев — это архитектура cell-over-peripheral: ячейки над периферией, что увеличивает плотность битов без слишком агрессивного раздувания кристалла. Но гонка слоёв — не всё: на практике решают стоимость бита, ресурс перезаписей, удержание заряда и эффективность интерфейсов — именно эти скучные метрики отвечают, окупается ли петабайт в стойке.
HBF: флеш, который ведёт себя чуть более «как память»
Самый любопытный ингредиент — High-Bandwidth Flash (HBF). Это промежуточная ступень между DRAM и SSD: неизvolatile как NAND, но подключённая и управляемая так, чтобы давать сильно выше пропускную способность и предсказуемый QoS по сравнению с обычным накопителем. Для ИИ-инференса — особенно на ПК и edge-узлах, где модели уже выходят за бюджет DRAM — HBF может поддерживать ровный поток токенов без постоянной своп-лихорадки. Если HBM — это турбина, то HBF претендует на роль крупного, но экономичного «впуска», который не даёт мотору заголодать данными.
Полный стек памяти для ИИ
SK hynix описывает стратегию как full-stack AI memory. Три опоры выглядят так:
- Custom HBM: перенести часть функций GPU/ASIC в базовый кристалл HBM, чтобы снизить энергопотребление интерфейса и освободить площадь под вычисления и кеши. Ко-дизайн даёт более детерминированные задержки и предсказуемый теплопрофиль.
- AI-D (AI DRAM): деление на три направления — O (Optimization) для снижения TCO и энергопотребления, B (Breakthrough) для ультраёмких конфигураций, отодвигающих «памятную стену», и E (Expansion) для новых отраслей — от робототехники до промышленной автоматизации.
- AI-N и HBF: умные контроллеры, стабильный QoS и новый «почти-память» уровень, который кормит ускорители, даже когда активные наборы данных больше DRAM.
Что это значит для ПК, рабочих станций и ЦОД
В ЦОД всё прямолинейно: больше стэков HBM на пакет, больше ёмкости и лучшая пропускная на ватт. Для создателей контента и геймеров сигнал смешанный, но логичный. GDDR7-next говорит: у графической памяти есть запас по текущей технологии, прежде чем придётся менять парадигму; «за-GDDR7» история в потребительском сегменте вряд ли появится до того, как из 48 Гбит/с выжмут львиную долю. По системной памяти DDR6 в окне 2029–2031 означает, что десктопы и ноутбуки ещё несколько лет проведут на DDR5. Это расстроит тех, кто ждал DDR6 уже к 2027-му, но у больших платформ свои ритмы: производители CPU обычно держат сокеты и стандарты памяти по два и более поколений, чтобы не устраивать ежегодную ломку экосистемы.
Частая претензия читателей — «нам важнее ёмкость, а не рекордные скорости». Когда современные игры легко переваливают за 150 ГБ, клиенсткие 2–4 ТБ кажутся тесными. В слайдах SK hynix акценты на еnterprise-ёмкостях (уровня 245 ТБ QLC на накопитель), но технологические сдвиги в контроллерах и флеше обычно «просачиваются вниз», и именно они делают возможными более доступные клиентские 8–16 ТБ без кошмаров с латентностью и износом. Если индустрии удастся сохранить QoS при росте слоёв, то следующий «вау» для потребителя будет не в цифре последовательного чтения, а в объёме за разумные деньги.
Гонка слоёв против реальности
Популярный тезис: если конкурент довезёт 1000 слоёв к 2027-му, то 400+ в 2029-м — «труп». Не обязательно. Количество слоёв — лишь одна ось. Решающими остаются выход годных, дефектность, надёжность стекования строк, масштабируемость периферии и архитектура ввода-вывода. Хорошо ведущая себя 400+-слойная 4D-NAND с достойным ресурсом способна побить более «высокослойного», но капризного соперника с плохим RBER и деградацией удержания. Производители будут занимать разные точки на кривой «стоимость-качество», а не бежать исключительно за заголовком.
Про мечту «QDR»
Ещё одна регулярная просьба комьюнити: «нам не DDR6, а QDR — quadruple data rate подавай». На практике память уже заимствует подходы многоуровневой модуляции (вспомните PAM3/PAM4 в быстрых интерфейсах) и опирается на упаковку и эквализацию, чтобы поднимать скорости. Удвоение тактовых «щелчков» не бесплатно: растёт чувствительность к джиттеру и сложность PHY. Текущая стратегия — поднять эффективную полосу за счёт HBM, переосмысления топологий DRAM и флеш-уровня «почти-памяти» — выглядит более прагматично по соотношению скорость/ватт/стоимость.
Итоги
Замысел SK hynix амбициозен, но логичен. В 2026–2028 нас ждут ощутимые шаги, чтобы ускорители ИИ не простаивали и платформы оставались энергоэффективными. Горизонт 2029–2031 приносит тяжёлую артиллерию: HBM5/HBM5E, элементы 3D DRAM, созревший GDDR7-next, мейнстримный DDR6 и 400+-слойную 4D NAND, подкреплённую HBF. Да, сроки могут плавать, конкуренты внесут коррективы, но направление ясно: память перестаёт быть «приложением к вычислениям» и становится частью самой архитектуры. Если индустрия справится, новые ИИ-ПК и серверы будут ощущаться быстрее не только из-за частот, а потому что «труба данных» наконец сравняется с аппетитами вычислений.