<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[DeepSeek V4 - крупное обновление и что нового]]></title><description><![CDATA[<p dir="auto"><img src="/assets/uploads/files/ae/66/23/1778077499463-f465e362-4199-440b-baea-253f37cee095-image.webp" alt="f465e362-4199-440b-baea-253f37cee095-image.jpeg" class=" img-fluid img-markdown" /></p>
<p dir="auto">DeepSeek V4 - это не одна модель, а сразу две: V4‑Pro и V4‑Flash. Обе поддерживают до 1 миллиона токенов контекста, обе выложены как open‑weights под лицензией MIT, но на практике между ними огромная разница по требованиям к железу и по тому, насколько они вообще подходят для домашнего запуска.</p>
<p dir="auto">Если говорить без маркетинга, то главный вопрос здесь не «<strong>насколько DeepSeek V4 умный</strong>», а «<strong>где это реально можно крутить</strong>». По официальному релизу и model card видно, что V4‑Pro - это флагман под тяжёлый reasoning, кодинг и agentic‑сценарии, а V4‑Flash - более компактный и быстрый вариант, который ближе к реальному использованию вне дата‑центра.</p>
<h2>Что такое DeepSeek V4</h2>
<p dir="auto">DeepSeek V4 Preview был анонсирован как новая открытая линейка моделей с упором на длинный контекст и эффективность на agentic‑нагрузках. В официальном описании компания прямо разделяет семейство на DeepSeek‑V4‑Pro для максимального качества и DeepSeek‑V4‑Flash для скорости, цены и более лёгких сценариев.</p>
<p dir="auto">С технической точки зрения обе модели относятся к классу MoE, то есть Mixture‑of‑Experts. Это означает, что общий размер модели очень большой, но на каждом токене активируется только часть параметров, поэтому реальные вычислительные затраты ниже, чем можно было бы ожидать по total‑числу параметров.</p>
<p dir="auto">Для пользователя это важно по двум причинам. Во‑первых, large‑scale MoE позволяет сочетать высокий уровень качества с более разумной стоимостью инференса. Во‑вторых, даже при этом размер моделей остаётся настолько большим, что локальный запуск без компромиссов быстро упирается в память и пропускную способность системы.</p>
<p dir="auto">Кстати не раз уже говорил, что пользуюсь агрегатором <a href="https://polza.ai/?referral=20xvy2qodq" target="_blank" rel="noopener noreferrer">polza.ai</a> там как раз можно пощупать саму модельку или поработать с ней через Api</p>
<h3>Чем отличаются V4‑Pro и V4‑Flash</h3>
<p dir="auto">По официальным спецификациям DeepSeek‑V4‑Pro имеет 1.6T total параметров и 49B active параметров, а DeepSeek‑V4‑Flash - 284B total и 13B active параметров (Это реально дохрена). При этом обе модели поддерживают контекст длиной до 1M токенов и доступны через API, а также как открытые веса для самостоятельного развертывания.</p>
<p dir="auto">Практически разница такая:</p>
<table class="table table-bordered table-striped">
<thead>
<tr>
<th>Параметр</th>
<th>V4‑Flash</th>
<th>V4‑Pro</th>
</tr>
</thead>
<tbody>
<tr>
<td>Total parameters</td>
<td>284B</td>
<td>1.6T</td>
</tr>
<tr>
<td>Active parameters</td>
<td>13B</td>
<td>49B</td>
</tr>
<tr>
<td>Контекст</td>
<td>До 1M токенов</td>
<td>До 1M токенов</td>
</tr>
<tr>
<td>Основной сценарий</td>
<td>Быстрый inference, чат, суммаризация, routing</td>
<td>Сложный reasoning, код, long‑context agents</td>
</tr>
<tr>
<td>Реалистичность локального запуска</td>
<td>Частично возможен с компромиссами</td>
<td>Практически только серверная/кластерная среда</td>
</tr>
</tbody>
</table>
<blockquote>
<p dir="auto"><strong>V4‑Flash</strong> - это модель, которую можно рассматривать как базу для личного ассистента, RAG‑помощника, локального чат‑интерфейса или быстрого инженерного copilot‑сценария. <strong>V4‑Pro</strong> - это уже история про максимальное качество, тяжелые многошаговые задачи, агентные пайплайны и инфраструктуру, которая стоит далеко за пределами обычного домашнего ПК.</p>
</blockquote>
<hr />
<h3>Что у них под капотом</h3>
<p dir="auto">Официальные материалы подчеркивают, что ключевой акцент в V4 сделан не только на размере модели, но и на эффективности длинного контекста. В архитектуре используются Compressed Sparse Attention и Heavily Compressed Attention, а в релизе DeepSeek это описано как token‑wise compression и DSA для снижения вычислительных и memory‑затрат на длинных окнах контекста.</p>
<p dir="auto">По model card, в режиме 1M токенов DeepSeek‑V4‑Pro требует только 27% single‑token inference FLOPs и 10% KV cache по сравнению с DeepSeek‑V3.2. Это очень важный момент: при работе с длинным контекстом узким местом становится не только сам размер весов, но и объём KV‑кэша, поэтому любые оптимизации внимания напрямую влияют на реальную возможность обслуживать большие диалоги, документы, логи и цепочки agent‑вызовов.</p>
<blockquote>
<p dir="auto">Кстати я сам фиксил многие вещи уже через DeepSeek V4-flash в связке с редактором ZED - и это просто потрясающе!</p>
</blockquote>
<p dir="auto">Ещё одна важная деталь - режимы reasoning. И V4‑Pro, и V4‑Flash поддерживают три режима: Non‑think, Think High и Think Max. Это означает, что одну и ту же модель можно использовать как в быстром ежедневном режиме, так и в более «тяжёлом» режиме рассуждений, когда важнее качество ответа, чем скорость.</p>
<p dir="auto">На практике это особенно интересно для личного ассистента. В обычном режиме модель может быстро отвечать на рутинные вопросы, а в Think High или Think Max - разбирать код, планировать действия, раскладывать задачу по шагам и работать как более обстоятельный агент.</p>
<hr />
<p dir="auto">Ну и если отвечать коротко потянет ли домашний пк эти модельки:</p>
<ul>
<li>Обычный ноутбук или ПК - только API, облачный доступ или небольшие производные модели/дистилляты.</li>
<li>Топовый домашний ПК - потенциально V4‑Flash в квантизованном виде, но с большим объемом RAM и частичным offload.</li>
<li>Серверная или кластерная среда - V4‑Pro и полноценные long‑context конфигурации.</li>
</ul>
<h3>Коротко о главном</h3>
<p dir="auto"><strong>DeepSeek V4 - это одна модель или две</strong>?<br />
Это семейство из двух моделей: DeepSeek‑V4‑Pro и DeepSeek‑V4‑Flash.</p>
<p dir="auto"><strong>У обеих моделей действительно 1M контекст</strong>?<br />
Да, и в официальном релизе, и в model card для обеих моделей указан контекст до 1 миллиона токенов.</p>
<p dir="auto"><strong>Чем Pro отличается от Flash на практике</strong>?<br />
Pro ориентирован на максимальное качество, сложный reasoning и agentic‑нагрузки, а Flash - на более быстрый и экономичный inference.</p>
<p dir="auto"><strong>Можно ли поставить DeepSeek V4 на домашний компьютер</strong>?<br />
V4‑Flash теоретически можно запускать локально в квантизованном виде на очень мощном ПК, а V4‑Pro практически относится к серверному классу развёртывания.</p>
<p dir="auto"><strong>Подходит ли V4‑Flash для личного ассистента</strong>?<br />
Да, это более реалистичный вариант, чем Pro, если нужен локальный или полу‑локальный ассистент с упором на скорость и разумные требования к инфраструктуре. (Кстати с последними версиями OpenClaw flash версия deepseek стала по умолчанию)</p>
<p dir="auto"><strong>Какие режимы работы есть у моделей</strong>?<br />
Обе модели поддерживают Non‑think, Think High и Think Max.</p>
<p dir="auto"><strong>Подходят ли эти модели для кода и агентных задач</strong>?<br />
Да, DeepSeek отдельно продвигает V4 как линейку для coding, long‑context agents, document analysis и tool‑calling сценариев.</p>
]]></description><link>https://forum.exlends.com/topic/2226/deepseek-v4-krupnoe-obnovlenie-i-chto-novogo</link><generator>RSS for Node</generator><lastBuildDate>Thu, 07 May 2026 12:16:14 GMT</lastBuildDate><atom:link href="https://forum.exlends.com/topic/2226.rss" rel="self" type="application/rss+xml"/><pubDate>Wed, 06 May 2026 14:35:03 GMT</pubDate><ttl>60</ttl></channel></rss>