Çərşənbə axşamı, Aprel 21, 2026

SK hynix объявила о начале массового производства 192GB SOCAMM2 — нового серверного модуля памяти на базе LPDDR5X, созданного для следующего поколения AI-серверов и платформы NVIDIA Vera Rubin.

Модуль построен на техпроцессе 1cnm, то есть шестом поколении 10-нм класса. По заявлению SK hynix, SOCAMM2 обеспечивает более чем двукратный рост пропускной способности и более чем на 75% лучшую энергоэффективность по сравнению с традиционной серверной памятью RDIMM.

Что такое SOCAMM2

SOCAMM2 — это серверный модуль памяти, который использует низкопотребляющую LPDDR-память, ранее в основном применявшуюся в мобильных устройствах. В отличие от распаянных решений, такой модуль выполнен в заменяемом форм-факторе с compression connector. Это помогает улучшить целостность сигнала и упрощает обслуживание серверов.

Главные характеристики нового модуля:

  • ёмкость: 192GB на один модуль;
  • тип памяти: LPDDR5X;
  • техпроцесс: 1cnm, шестое поколение 10-нм класса;
  • платформа: совместимость с NVIDIA Vera Rubin;
  • производительность: более чем в 2 раза выше пропускная способность по сравнению с RDIMM;
  • энергоэффективность: улучшение более чем на 75% относительно RDIMM.

Почему это важно для AI-инфраструктуры

Для обучения и инференса крупных языковых моделей память всё чаще становится одним из главных ограничений. Нужны не только быстрые GPU, но и высокая пропускная способность памяти, большая ёмкость на узел и приемлемое энергопотребление.

SOCAMM2 занимает промежуточную позицию между обычной серверной DDR5 RDIMM и HBM-памятью. Такой формат может быть интересен для AI-кластеров, где важны плотность, энергоэффективность и возможность обслуживания модулей без усложнения всей серверной сборки.

Что это меняет для серверного рынка

Массовое производство SOCAMM2 показывает, что рынок серверной памяти движется к новым классам решений, оптимизированных под AI-нагрузки. Для cloud service providers, OEM-производителей и операторов дата-центров это означает появление ещё одного уровня памяти для систем, где классической RDIMM уже недостаточно, а HBM остаётся дорогим и сложным вариантом.

Для инфраструктурных команд это важно не только на уровне железа. Новые типы памяти будут влиять на архитектуру серверных узлов, энергопотребление, тепловой профиль, стоимость владения и оптимизацию workloads для обучения и обслуживания LLM.

Что стоит отслеживать дальше

В ближайшие месяцы стоит следить за тем, как SOCAMM2 будет внедряться в серверные платформы NVIDIA Vera Rubin, какие конфигурации предложат производители серверов и как ответят Samsung и Micron. Также важны реальные данные по стабильности, температурному режиму и производительности в production-нагрузках.

Для рынка AI-серверов это ещё один сигнал: инфраструктура под искусственный интеллект будет развиваться не только за счёт GPU, но и за счёт новых подходов к памяти, питанию и компоновке серверных систем.

<< Geri