Инфраструктура памяти для ИИ: Micron и NVIDIA решают проблему масштабирования моделей
-
Контекстные модели ИИ требуют огромных объемов памяти, чтобы работать с длинными последовательностями данных. Без подходящей инфраструктуры масштабирование таких моделей тормозится дефицитом чипов. Micron и NVIDIA предлагают решения, которые помогают справляться с этой проблемой.
Сегодня спрос на память для ИИ превышает предложение, что приводит к дефициту до конца 2026 года. Это затрагивает не только дата-центры, но и производство смартфонов и ПК. В статье разберем, как Micron фокусируется на HBM и DRAM, а NVIDIA интегрирует их в свои ускорители.
Дефицит памяти: почему ИИ меняет рынок
Рост контекстных моделей, таких как большие языковые модели, требует гигантских объемов памяти для хранения контекста. Один инференс в облаке может потреблять петабайты HBM и DRAM. Производители вроде Micron фиксируют рекордную выручку - $13,64 млрд за квартал, но предупреждают: мощностей не хватает. Спрос на ИИ отнимает до 20% производства DRAM, оставляя меньше для традиционных устройств.
Micron закрыла потребительский бренд Crucial, чтобы перекинуть ресурсы на стратегических клиентов вроде NVIDIA. Производство HBM в три раза сложнее DDR5 - нужно больше кремния на единицу памяти. Новые фабрики в Айдахо и Нью-Йорке запустятся только в 2027-2030 годах. Это создает очередь заказов на 2027 год.
- HBM для ИИ: Требует в 4 раза больше сырья, чем DDR, но обеспечивает высокую пропускную способность для ускорения.
- GDDR7 как альтернатива: 1,7x ресурсов по сравнению с DDR, подходит для графических ускорителей NVIDIA.
- DRAM дефицит: До 3 эксабайт нужно облакам, что удваивается с резервами.
Тип памяти Ресурсоемкость Применение в ИИ HBM 4x DDR Обучение моделей GDDR7 1.7x DDR Инференс в облаке DDR5 Базовая Традиционные ЦОД Решения Micron: фокус на HBM и новые мощности
Micron полностью переориентируется на память для ИИ, отказываясь от низкомаржинальных сегментов. Компания не принимает заказы на 2026 год - конвейер расписан. HBM3E и будущие версии идут на ускорители NVIDIA, где каждый чип памяти критичен для масштабирования контекста. Руководство отмечает беспрецедентный дефицит, который сохранится из-за сложности производства.
Расширение в Азии и США позволит к 2027 году увеличить выпуск DRAM для ИИ. Но пока это значит рост цен и задержки в ЦОДах. Важный нюанс: Переключение мощностей сократило поставки для смартфонов на 2,1%, что бьет по всей электронике. Micron подчеркивает: ИИ - приоритет, традиционный рынок в очереди.
- Стратегический сдвиг: Закрытие Crucial высвободило ресурсы для NVIDIA и облаков.
- Новые фабрики: Айдахо (2027), Нью-Йорк (2030) добавят объемы HBM.
- Прогноз: Дефицит подстегнет инфляцию, но ускорит инновации в памяти.
Micron прогнозирует: 20% DRAM уйдет на ИИ в 2027 году, остальное - под вопросом.
NVIDIA: интеграция памяти в экосистему ИИ
NVIDIA решает проблему масштабирования через тесную связь с Micron, поставляя HBM для GPU вроде Blackwell. Ускорители требуют high-bandwidth memory для обработки длинного контекста без потери скорости. Компания строит инфраструктуру, где память - ключ к петабайтным моделям. Это включает оптимизацию под инференс и обучение.
Партнерство с Micron обеспечивает приоритетные поставки, минимизируя дефицит для своих клиентов. NVIDIA также продвигает программно-определяемые платформы с ИИ, где память интегрируется в RAN и ядро. Нюанс: Пока традиционные производители ждут чипов, NVIDIA лидирует в гонке за мощностями.
- Blackwell платформа: Использует HBM3E от Micron для 10x масштаба контекста.
- AI-RAN альянс: 130+ компаний интегрируют память в сети с ИИ.
- Оптимизация: Снижает нужду в памяти на 30% за счет алгоритмов.
Компания Решение Эффект для масштаба Micron HBM4 +50% bandwidth NVIDIA CUDA-X Эффективный контекст Перспективы: баланс между ИИ и рынком
Инфраструктура памяти от Micron и NVIDIA позволит масштабировать контекстные модели, но дефицит продлится до 2027 года. Новые стандарты HBM решат узкие места, но потребуют инвестиций в цепочки поставок. Стоит отметить риски: инфляция и задержки в других секторах.
Здравствуйте! Похоже, вас заинтересовала эта беседа, но у вас ещё нет аккаунта.
Надоело каждый раз пролистывать одни и те же посты? Зарегистрировав аккаунт, вы всегда будете возвращаться на ту же страницу, где были раньше, и сможете выбирать, получать ли уведомления о новых ответах (по электронной почте или в виде push-уведомлений). Вы также сможете сохранять закладки и ставить лайки постам, чтобы выразить свою благодарность другим участникам сообщества.
С вашими комментариями этот пост мог бы стать ещё лучше 💗
Зарегистрироваться Войти© 2024 - 2026 ExLends, Inc. Все права защищены.