Перейти к содержанию
  • Лента
  • Категории
  • Последние
  • Метки
  • Популярные
  • Пользователи
  • Группы
Свернуть
exlends
Категории
  1. Главная
  2. Категории
  3. Искусственный Интеллект
  4. Micron анонсировала 256 ГБ LPDRAM SOCAMM2 для ИИ-инфраструктуры NVIDIA

Micron анонсировала 256 ГБ LPDRAM SOCAMM2 для ИИ-инфраструктуры NVIDIA

Запланировано Прикреплена Закрыта Перенесена Искусственный Интеллект
micronsocamm2nvidia
1 Сообщения 1 Постеры 5 Просмотры
  • Сначала старые
  • Сначала новые
  • По количеству голосов
Ответить
  • Ответить, создав новую тему
Авторизуйтесь, чтобы ответить
Эта тема была удалена. Только пользователи с правом управления темами могут её видеть.
  • kirilljsxK В сети
    kirilljsxK В сети
    kirilljsx
    js
    написал отредактировано
    #1

    Micron представила модуль памяти LPDRAM SOCAMM2 объемом 256 ГБ. Это первое в мире решение такого форм-фактора для дата-центров. Новинка создана совместно с NVIDIA для обработки больших данных в ИИ.

    Такие модули решают проблему нехватки памяти при работе с длинными контекстами в моделях ИИ. Они позволяют ускорить вывод и снизить энергозатраты. Это упростит масштабирование инфраструктуры для агентного ИИ и задач вроде обработки больших датасетов.

    Что такое LPDRAM SOCAMM2 и почему 256 ГБ - это прорыв

    Micron разработала модуль на базе монолитного кристалла LPDDR5X емкостью 32 ГБ. Это первый такой кристалл в индустрии, который упакован в компактный форм-фактор SOCAMM2. Скорость передачи данных достигает 9,6 Гбит/с, что делает его подходящим для высоконагруженных серверов.

    В конфигурации на 256 ГБ один восьмиканальный процессор получает до 2 ТБ памяти. Это критично для ИИ-моделей, где длинные контекстные окна требуют огромных объемов ОЗУ. По тестам Micron, время первого токена улучшается в 2,3 раза для задач вывода с длинным контекстом. Такие показатели особенно важны в агентном ИИ, где приложения работают автономно.

    Вот ключевые характеристики модуля:

    • Объем: 256 ГБ на модуль, до 2 ТБ на процессор.
    • Тип памяти: LPDDR5X с монолитным кристаллом 32 ГБ.
    • Скорость: 9,6 Гбит/с.
    • Энергопотребление: Ниже, чем у традиционных RDIMM.

    Образцы уже отгружают клиентам, публичный анонс - на GTC 2026.

    Интеграция с инфраструктурой NVIDIA Vera Rubin

    NVIDIA и Micron работали над SOCAMM2 для платформы Vera Rubin. Этот стандарт памяти откроет путь к процессорам ИИ следующего поколения. Иэн Файндер из NVIDIA отметил, что такие модули повышают плотность памяти в компактном формате.

    По сравнению с обычными DIMM, SOCAMM2 позволяет уместить больше ОЗУ на узел без роста энергозатрат. Внутренние тесты Micron показывают ускорение задач Spark SVM до 4 раз. Это достигается за счет локализации данных и минимизации свопинга на диск.

    Сравнение с традиционными решениями:

    Характеристика SOCAMM2 256 ГБ Традиционные RDIMM
    Плотность Высокая (2 ТБ/процессор) Средняя
    Энергопотребление Низкое Высокое
    Скорость 9,6 Гбит/с До 8 Гбит/с
    Форм-фактор Компактный Габаритный

    Такие преимущества делают SOCAMM2 идеальным для ИИ-ускорителей.

    Преимущества для задач ИИ и больших данных

    Модули SOCAMM2 упрощают обработку длинных последовательностей в моделях вроде LLM. Большой объем памяти снижает задержки при инференсе. Для агентного ИИ это значит более быструю автономную работу без частых обращений к хранилищам.

    В тестах на Apache Spark ускорение в 4 раза для SVM-задач. Это помогает в машинном обучении на больших датасетах. Micron подчеркивает, что новинка не для потребителей, а для серверов дата-центров.

    Основные плюсы для ИИ-инфраструктуры:

    • Ускорение вывода на 2,3x для длинных контекстов.
    • 4x рост производительности в Spark SVM.
    • Снижение энергозатрат по сравнению с DDR5.
    • Поддержка платформ NVIDIA Vera Rubin.

    Формат SOCAMM2 изначально создавался для серверов ИИ.

    Перспективы применения в реальных проектах

    Образцы уже у клиентов, что ускорит внедрение. Платформа Vera Rubin станет одной из первых в использовании. Это открывает двери для новых ускорителей с фокусом на ИИ.

    Остается вопрос масштабирования: как интегрировать 2 ТБ на узел в существующие кластеры. Стоит присмотреться к тестам на GTC 2026, там покажут реальные бенчмарки.

    1 ответ Последний ответ
    0

    Категории

    • Главная
    • Новости
    • Фронтенд
    • Бекенд
    • Языки программирования

    Контакты

    • Сотрудничество
    • info@exlends.com
    • Наш чат
    • Наш ТГ канал

    © 2024 - 2026 ExLends, Inc. Все права защищены.

    Политика конфиденциальности
    • Войти

    • Нет учётной записи? Зарегистрироваться

    • Войдите или зарегистрируйтесь для поиска.
    • Первое сообщение
      Последнее сообщение
    0
    • Лента
    • Категории
    • Последние
    • Метки
    • Популярные
    • Пользователи
    • Группы