Перейти к содержанию
  • Лента
  • Категории
  • Последние
  • Метки
  • Популярные
  • Пользователи
  • Группы
Свернуть
exlends
Категории
  1. Главная
  2. Категории
  3. Искусственный Интеллект
  4. Инфраструктура памяти для ИИ: Micron и NVIDIA решают проблему масштабирования моделей

Инфраструктура памяти для ИИ: Micron и NVIDIA решают проблему масштабирования моделей

Запланировано Прикреплена Закрыта Перенесена Искусственный Интеллект
ии памятьmicron hbmnvidia масштабирован
1 Сообщения 1 Постеры 2 Просмотры
  • Сначала старые
  • Сначала новые
  • По количеству голосов
Ответить
  • Ответить, создав новую тему
Авторизуйтесь, чтобы ответить
Эта тема была удалена. Только пользователи с правом управления темами могут её видеть.
  • kirilljsxK Не в сети
    kirilljsxK Не в сети
    kirilljsx
    js
    написал отредактировано
    #1

    Контекстные модели ИИ требуют огромных объемов памяти, чтобы работать с длинными последовательностями данных. Без подходящей инфраструктуры масштабирование таких моделей тормозится дефицитом чипов. Micron и NVIDIA предлагают решения, которые помогают справляться с этой проблемой.

    Сегодня спрос на память для ИИ превышает предложение, что приводит к дефициту до конца 2026 года. Это затрагивает не только дата-центры, но и производство смартфонов и ПК. В статье разберем, как Micron фокусируется на HBM и DRAM, а NVIDIA интегрирует их в свои ускорители.

    Дефицит памяти: почему ИИ меняет рынок

    Рост контекстных моделей, таких как большие языковые модели, требует гигантских объемов памяти для хранения контекста. Один инференс в облаке может потреблять петабайты HBM и DRAM. Производители вроде Micron фиксируют рекордную выручку - $13,64 млрд за квартал, но предупреждают: мощностей не хватает. Спрос на ИИ отнимает до 20% производства DRAM, оставляя меньше для традиционных устройств.

    Micron закрыла потребительский бренд Crucial, чтобы перекинуть ресурсы на стратегических клиентов вроде NVIDIA. Производство HBM в три раза сложнее DDR5 - нужно больше кремния на единицу памяти. Новые фабрики в Айдахо и Нью-Йорке запустятся только в 2027-2030 годах. Это создает очередь заказов на 2027 год.

    • HBM для ИИ: Требует в 4 раза больше сырья, чем DDR, но обеспечивает высокую пропускную способность для ускорения.
    • GDDR7 как альтернатива: 1,7x ресурсов по сравнению с DDR, подходит для графических ускорителей NVIDIA.
    • DRAM дефицит: До 3 эксабайт нужно облакам, что удваивается с резервами.
    Тип памяти Ресурсоемкость Применение в ИИ
    HBM 4x DDR Обучение моделей
    GDDR7 1.7x DDR Инференс в облаке
    DDR5 Базовая Традиционные ЦОД

    Решения Micron: фокус на HBM и новые мощности

    Micron полностью переориентируется на память для ИИ, отказываясь от низкомаржинальных сегментов. Компания не принимает заказы на 2026 год - конвейер расписан. HBM3E и будущие версии идут на ускорители NVIDIA, где каждый чип памяти критичен для масштабирования контекста. Руководство отмечает беспрецедентный дефицит, который сохранится из-за сложности производства.

    Расширение в Азии и США позволит к 2027 году увеличить выпуск DRAM для ИИ. Но пока это значит рост цен и задержки в ЦОДах. Важный нюанс: Переключение мощностей сократило поставки для смартфонов на 2,1%, что бьет по всей электронике. Micron подчеркивает: ИИ - приоритет, традиционный рынок в очереди.

    • Стратегический сдвиг: Закрытие Crucial высвободило ресурсы для NVIDIA и облаков.
    • Новые фабрики: Айдахо (2027), Нью-Йорк (2030) добавят объемы HBM.
    • Прогноз: Дефицит подстегнет инфляцию, но ускорит инновации в памяти.

    Micron прогнозирует: 20% DRAM уйдет на ИИ в 2027 году, остальное - под вопросом.

    NVIDIA: интеграция памяти в экосистему ИИ

    NVIDIA решает проблему масштабирования через тесную связь с Micron, поставляя HBM для GPU вроде Blackwell. Ускорители требуют high-bandwidth memory для обработки длинного контекста без потери скорости. Компания строит инфраструктуру, где память - ключ к петабайтным моделям. Это включает оптимизацию под инференс и обучение.

    Партнерство с Micron обеспечивает приоритетные поставки, минимизируя дефицит для своих клиентов. NVIDIA также продвигает программно-определяемые платформы с ИИ, где память интегрируется в RAN и ядро. Нюанс: Пока традиционные производители ждут чипов, NVIDIA лидирует в гонке за мощностями.

    • Blackwell платформа: Использует HBM3E от Micron для 10x масштаба контекста.
    • AI-RAN альянс: 130+ компаний интегрируют память в сети с ИИ.
    • Оптимизация: Снижает нужду в памяти на 30% за счет алгоритмов.
    Компания Решение Эффект для масштаба
    Micron HBM4 +50% bandwidth
    NVIDIA CUDA-X Эффективный контекст

    Перспективы: баланс между ИИ и рынком

    Инфраструктура памяти от Micron и NVIDIA позволит масштабировать контекстные модели, но дефицит продлится до 2027 года. Новые стандарты HBM решат узкие места, но потребуют инвестиций в цепочки поставок. Стоит отметить риски: инфляция и задержки в других секторах.

    1 ответ Последний ответ
    0

    Здравствуйте! Похоже, вас заинтересовала эта беседа, но у вас ещё нет аккаунта.

    Надоело каждый раз пролистывать одни и те же посты? Зарегистрировав аккаунт, вы всегда будете возвращаться на ту же страницу, где были раньше, и сможете выбирать, получать ли уведомления о новых ответах (по электронной почте или в виде push-уведомлений). Вы также сможете сохранять закладки и ставить лайки постам, чтобы выразить свою благодарность другим участникам сообщества.

    С вашими комментариями этот пост мог бы стать ещё лучше 💗

    Зарегистрироваться Войти

    Категории

    • Главная
    • Новости
    • Фронтенд
    • Бекенд
    • Языки программирования

    Контакты

    • Сотрудничество
    • info@exlends.com
    • Наш чат
    • Наш ТГ канал

    © 2024 - 2026 ExLends, Inc. Все права защищены.

    Политика конфиденциальности
    • Войти

    • Нет учётной записи? Зарегистрироваться

    • Войдите или зарегистрируйтесь для поиска.
    • Первое сообщение
      Последнее сообщение
    0
    • Лента
    • Категории
    • Последние
    • Метки
    • Популярные
    • Пользователи
    • Группы