Micron анонсировала 256 ГБ LPDRAM SOCAMM2 для ИИ-инфраструктуры NVIDIA
-
Micron представила модуль памяти LPDRAM SOCAMM2 объемом 256 ГБ. Это первое в мире решение такого форм-фактора для дата-центров. Новинка создана совместно с NVIDIA для обработки больших данных в ИИ.
Такие модули решают проблему нехватки памяти при работе с длинными контекстами в моделях ИИ. Они позволяют ускорить вывод и снизить энергозатраты. Это упростит масштабирование инфраструктуры для агентного ИИ и задач вроде обработки больших датасетов.
Что такое LPDRAM SOCAMM2 и почему 256 ГБ - это прорыв
Micron разработала модуль на базе монолитного кристалла LPDDR5X емкостью 32 ГБ. Это первый такой кристалл в индустрии, который упакован в компактный форм-фактор SOCAMM2. Скорость передачи данных достигает 9,6 Гбит/с, что делает его подходящим для высоконагруженных серверов.
В конфигурации на 256 ГБ один восьмиканальный процессор получает до 2 ТБ памяти. Это критично для ИИ-моделей, где длинные контекстные окна требуют огромных объемов ОЗУ. По тестам Micron, время первого токена улучшается в 2,3 раза для задач вывода с длинным контекстом. Такие показатели особенно важны в агентном ИИ, где приложения работают автономно.
Вот ключевые характеристики модуля:
- Объем: 256 ГБ на модуль, до 2 ТБ на процессор.
- Тип памяти: LPDDR5X с монолитным кристаллом 32 ГБ.
- Скорость: 9,6 Гбит/с.
- Энергопотребление: Ниже, чем у традиционных RDIMM.
Образцы уже отгружают клиентам, публичный анонс - на GTC 2026.
Интеграция с инфраструктурой NVIDIA Vera Rubin
NVIDIA и Micron работали над SOCAMM2 для платформы Vera Rubin. Этот стандарт памяти откроет путь к процессорам ИИ следующего поколения. Иэн Файндер из NVIDIA отметил, что такие модули повышают плотность памяти в компактном формате.
По сравнению с обычными DIMM, SOCAMM2 позволяет уместить больше ОЗУ на узел без роста энергозатрат. Внутренние тесты Micron показывают ускорение задач Spark SVM до 4 раз. Это достигается за счет локализации данных и минимизации свопинга на диск.
Сравнение с традиционными решениями:
Характеристика SOCAMM2 256 ГБ Традиционные RDIMM Плотность Высокая (2 ТБ/процессор) Средняя Энергопотребление Низкое Высокое Скорость 9,6 Гбит/с До 8 Гбит/с Форм-фактор Компактный Габаритный Такие преимущества делают SOCAMM2 идеальным для ИИ-ускорителей.
Преимущества для задач ИИ и больших данных
Модули SOCAMM2 упрощают обработку длинных последовательностей в моделях вроде LLM. Большой объем памяти снижает задержки при инференсе. Для агентного ИИ это значит более быструю автономную работу без частых обращений к хранилищам.
В тестах на Apache Spark ускорение в 4 раза для SVM-задач. Это помогает в машинном обучении на больших датасетах. Micron подчеркивает, что новинка не для потребителей, а для серверов дата-центров.
Основные плюсы для ИИ-инфраструктуры:
- Ускорение вывода на 2,3x для длинных контекстов.
- 4x рост производительности в Spark SVM.
- Снижение энергозатрат по сравнению с DDR5.
- Поддержка платформ NVIDIA Vera Rubin.
Формат SOCAMM2 изначально создавался для серверов ИИ.
Перспективы применения в реальных проектах
Образцы уже у клиентов, что ускорит внедрение. Платформа Vera Rubin станет одной из первых в использовании. Это открывает двери для новых ускорителей с фокусом на ИИ.
Остается вопрос масштабирования: как интегрировать 2 ТБ на узел в существующие кластеры. Стоит присмотреться к тестам на GTC 2026, там покажут реальные бенчмарки.
© 2024 - 2026 ExLends, Inc. Все права защищены.