Компания NVIDIA планирует выпустить до 800 000 единиц своих новых модулей памяти SOCAMM в 2025 году для использования в продуктах на базе искусственного интеллекта. Это модульное решение по памяти призвано значительно упростить процесс апгрейда устройств, улучшив их производительность и эффективность. Память SOCAMM была впервые представлена на мероприятии NVIDIA GTC, и она является частью усилий компании по повышению производительности и снижению энергопотребления в своих продуктах для ИИ.
На GTC мероприятии NVIDIA продемонстрировала свою платформу GB300 с памятью SOCAMM, разработанную компанией Micron. Это новое решение по памяти отличается от широко используемых HBM и LPDDR5X, которые применяются в продуктах для ИИ, таких как серверы и мобильные устройства. SOCAMM основана на LPDDR DRAM, который обычно используется в мобильных устройствах, но с важным отличием: память можно обновлять. В отличие от HBM и LPDDR5X, SOCAMM не припаяна к печатной плате и крепится всего тремя винтами.
По данным южнокорейского издания ETNews, NVIDIA планирует произвести от 600 000 до 800 000 единиц памяти SOCAMM в этом году, что свидетельствует о серьезных намерениях по внедрению этой технологии в свои продукты для ИИ. Первым устройством с SOCAMM станет платформа GB300 Blackwell, что, вероятно, укажет на переход NVIDIA к использованию этой модульной памяти в будущих ИИ-продуктах.
Хотя цель по производству 800 000 единиц в 2025 году кажется небольшой по сравнению с объемами поставок HBM, которые NVIDIA ожидает получить в том же году, производство SOCAMM, как ожидается, существенно увеличится в следующем году, особенно с появлением памяти SOCAMM 2. Эта модульная память не только компактна, но и значительно более энергоэффективна, чем решения RDIMM. Точные улучшения в энергопотреблении пока не раскрыты, но по отчетам SOCAMM обеспечит большую пропускную способность по сравнению с RDIMM, LPDDR5X и LPCAMM, которые являются популярными решениями для мобильных платформ.
Ожидается, что память SOCAMM обеспечит пропускную способность от 150 до 250 ГБ/с, предлагая гибкое и обновляемое решение для ИИ-ПК и серверов. В будущем SOCAMM, скорее всего, станет стандартом для устройств с низким потреблением энергии. На данный момент память SOCAMM производит Micron, однако источники сообщают, что NVIDIA ведет переговоры с Samsung и SK Hynix, чтобы расширить производство модулей.