Читайте о представленных Micron и SK Hynix модулях SOCAMМ, созданных исключительно для AI-серверов Nvidia.


Micron и SK Hynix представили SOCAMM — память нового поколения для серверов Nvidia



Эксклюзив для экосистемы Nvidia


На конференции Nvidia GTC 2025 компании Micron и SK Hynix анонсировали новый форм-фактор модулей памяти — SOCAMM (Small Outline Compression Attached Memory Module). Эта технология разработана исключительно для AI-серверов Nvidia Grace Blackwell и несовместима с платформами AMD и Intel.

Что особенного в SOCAMM?


Новые модули построены на базе LPDDR5X и обладают рядом ключевых преимуществ:
- Сниженное энергопотребление — в 3 раза меньше, чем у RDIMM и MRDIMM;
- Высокая пропускная способность — более чем в 2,5 раза выше, чем у традиционных решений;
- Компактные размеры — 14×90 мм, что упрощает компоновку серверов и улучшает их охлаждение.

Планы производителей


Micron уже готова к массовому производству SOCAMM 128 ГБ, а SK Hynix представила собственные модули, но пока не раскрыла их характеристики.

«AI меняет парадигму вычислений, и память играет в этом ключевую роль», — отметил Радж Нарасимхан, старший вице-президент Micron.

С увеличением спроса на AI-вычисления SOCAMM может стать новым стандартом в сегменте высокопроизводительных серверов.

Опубликовано: 24.03.2025 11:41