SK hynix объявила о начале массового производства 192GB SOCAMM2
mardi, avril 21, 2026
SK hynix объявила о начале массового производства 192GB SOCAMM2 — нового серверного модуля памяти на базе LPDDR5X, созданного для следующего поколения AI-серверов и платформы NVIDIA Vera Rubin.
Модуль построен на техпроцессе 1cnm, то есть шестом поколении 10-нм класса. По заявлению SK hynix, SOCAMM2 обеспечивает более чем двукратный рост пропускной способности и более чем на 75% лучшую энергоэффективность по сравнению с традиционной серверной памятью RDIMM.
Что такое SOCAMM2
SOCAMM2 — это серверный модуль памяти, который использует низкопотребляющую LPDDR-память, ранее в основном применявшуюся в мобильных устройствах. В отличие от распаянных решений, такой модуль выполнен в заменяемом форм-факторе с compression connector. Это помогает улучшить целостность сигнала и упрощает обслуживание серверов.
Главные характеристики нового модуля:
- ёмкость: 192GB на один модуль;
- тип памяти: LPDDR5X;
- техпроцесс: 1cnm, шестое поколение 10-нм класса;
- платформа: совместимость с NVIDIA Vera Rubin;
- производительность: более чем в 2 раза выше пропускная способность по сравнению с RDIMM;
- энергоэффективность: улучшение более чем на 75% относительно RDIMM.
Почему это важно для AI-инфраструктуры
Для обучения и инференса крупных языковых моделей память всё чаще становится одним из главных ограничений. Нужны не только быстрые GPU, но и высокая пропускная способность памяти, большая ёмкость на узел и приемлемое энергопотребление.
SOCAMM2 занимает промежуточную позицию между обычной серверной DDR5 RDIMM и HBM-памятью. Такой формат может быть интересен для AI-кластеров, где важны плотность, энергоэффективность и возможность обслуживания модулей без усложнения всей серверной сборки.
Что это меняет для серверного рынка
Массовое производство SOCAMM2 показывает, что рынок серверной памяти движется к новым классам решений, оптимизированных под AI-нагрузки. Для cloud service providers, OEM-производителей и операторов дата-центров это означает появление ещё одного уровня памяти для систем, где классической RDIMM уже недостаточно, а HBM остаётся дорогим и сложным вариантом.
Для инфраструктурных команд это важно не только на уровне железа. Новые типы памяти будут влиять на архитектуру серверных узлов, энергопотребление, тепловой профиль, стоимость владения и оптимизацию workloads для обучения и обслуживания LLM.
Что стоит отслеживать дальше
В ближайшие месяцы стоит следить за тем, как SOCAMM2 будет внедряться в серверные платформы NVIDIA Vera Rubin, какие конфигурации предложат производители серверов и как ответят Samsung и Micron. Также важны реальные данные по стабильности, температурному режиму и производительности в production-нагрузках.
Для рынка AI-серверов это ещё один сигнал: инфраструктура под искусственный интеллект будет развиваться не только за счёт GPU, но и за счёт новых подходов к памяти, питанию и компоновке серверных систем.
