В пятницу китайская AI-компания DeepSeek выпустила превью V4 — своей долгожданной новой флагманской модели. Примечательно, что модель может обрабатывать гораздо более длинные промпты, чем предыдущее поколение, благодаря новой конструкции, которая позволяет эффективнее работать с большими объемами текста. Как и предыдущие модели DeepSeek, V4 имеет открытый исходный код, то есть ее может скачать, использовать и модифицировать любой желающий.
V4 — самое значимое для DeepSeek обновление со времен R1, reasoning-модели, которую компания выпустила в январе 2025 года. R1, обученная на ограниченных вычислительных ресурсах, потрясла мировую AI-индустрию своей производительностью и эффективностью, почти за одну ночь превратив DeepSeek из малоизвестной исследовательской команды в самую известную AI-компанию Китая. Она также помогла запустить волну релизов открытых моделей от других китайских AI-компаний.
С тех пор DeepSeek сохраняла сравнительно низкий профиль — но в начале этого месяца фактически намекнула на выпуск V4, добавив режимы «expert» и «flash» в онлайн-версию своей модели, что вызвало предположения о связи этих обновлений с более крупным запуском.
Хотя компания стала мощным символом AI-амбиций Китая, ее громкое возвращение к передовым frontier-моделям происходит после месяцев пристального внимания — включая заметные кадровые уходы, задержки предыдущих запусков моделей и растущее внимание со стороны властей США и Китая.
Так сможет ли V4 встряхнуть AI-сферу так же, как это сделала R1? Почти наверняка нет, но есть три веские причины, почему этот релиз важен.
1. Это новый шаг для open-source-модели.
Как и в случае с R1, DeepSeek утверждает, что производительность V4 сопоставима с лучшими моделями на рынке, но стоит лишь часть их цены. Это хорошая новость для разработчиков и компаний, которые используют эту технологию, потому что она дает доступ к передовым AI-возможностям на собственных условиях и без риска стремительного роста расходов.
Новая модель представлена в двух версиях, обе доступны на сайте DeepSeek и в приложении, а доступ к API открыт разработчикам. V4-Pro — более крупная модель, рассчитанная на кодинг и сложные agent-задачи, а V4-Flash — более компактная версия, созданная для более быстрой и дешевой работы. Обе версии поддерживают reasoning-режимы, в которых модель может внимательно разбирать запрос пользователя и показывать каждый шаг по мере решения задачи.
За V4-Pro DeepSeek берет $1.74 за миллион входных токенов и $3.48 за миллион выходных токенов — это лишь малая часть стоимости сопоставимых моделей от OpenAI и Anthropic. V4-Flash еще дешевле: около $0.14 за миллион входных токенов и около $0.28 за миллион выходных токенов, что делает ее одной из самых дешевых моделей верхнего уровня на рынке. Это делает ее очень привлекательной платформой для разработки приложений.
По производительности V4 — что, пожалуй, неудивительно, — это огромный скачок по сравнению с R1, и она выглядит сильной альтернативой почти всем последним крупным AI-моделям. На основных бенчмарках, по данным компании, DeepSeek V4-Pro конкурирует с ведущими закрытыми моделями, показывая результаты на уровне Anthropic Claude-Opus-4.6, OpenAI GPT-5.4 и Google Gemini-3.1. А среди других open-source-моделей, таких как Alibaba Qwen-3.5 или Z.ai GLM-5.1, DeepSeek V4 превосходит их по задачам кодинга, математики и STEM, что делает ее одной из сильнейших открытых моделей из когда-либо выпущенных.
DeepSeek также заявляет, что V4-Pro теперь входит в число сильнейших open-source-моделей в бенчмарках для agentic coding-задач и хорошо показывает себя в других тестах, измеряющих способность выполнять многошаговые задачи. По результатам бенчмаркинга, которыми поделилась компания, ее способность к письму и знание мира также лидируют в отрасли.
В техническом отчете, опубликованном вместе с моделью, DeepSeek привела результаты внутреннего опроса 85 опытных разработчиков: более 90% включили V4-Pro в число лучших вариантов для задач кодинга.
DeepSeek говорит, что специально оптимизировала V4 под популярные agent frameworks, такие как Claude Code, OpenClaw и CodeBuddy.
2. Она реализует новый подход к эффективности памяти.
Одно из ключевых новшеств V4 — это long context window, то есть объем текста, который модель может обработать за один раз. Обе версии способны работать с 1 миллионом токенов — этого достаточно, чтобы вместить все три тома The Lord of the Rings и The Hobbit вместе. Компания утверждает, что этот размер context window теперь является стандартом для всех сервисов DeepSeek и соответствует тому, что предлагают передовые версии моделей вроде Gemini и Claude.
Но важно понимать не только то, что DeepSeek сделала этот скачок, но и как она его добилась. V4 заметно изменила архитектуру по сравнению с прежними моделями компании — особенно в attention mechanism, механизме, который помогает AI-моделям понимать связь каждой части промпта со всеми остальными. По мере того как текст промпта становится длиннее, такие сравнения становятся намного дороже, и attention становится одним из главных узких мест long-context-моделей.
Идея DeepSeek заключалась в том, чтобы сделать модель более избирательной в том, на что она обращает внимание. Вместо того чтобы считать весь более ранний текст одинаково важным, V4 сжимает старую информацию и фокусируется на тех частях, которые с наибольшей вероятностью важны в текущий момент, при этом полностью сохраняя близкий по времени текст, чтобы не упустить важные детали.
DeepSeek утверждает, что это резко снижает стоимость использования long context. При контексте в 1 миллион токенов V4-Pro использует лишь 27% вычислительной мощности, необходимой ее предыдущей модели V3.2, одновременно сокращая использование памяти до 10%. Снижение у V4-Flash еще сильнее: ей требуется лишь 10% вычислительной мощности и 7% памяти. На практике это может удешевить создание инструментов, которым нужно работать с огромными массивами материалов, например AI-помощника для кодинга, способного читать целую codebase, или research-agent, который может анализировать длинный архив документов, не забывая постоянно о том, что было раньше.
Интерес DeepSeek к long context windows не начался с V4. За последние полтора года компания тихо опубликовала серии статей о том, как AI-модели «запоминают» информацию, экспериментируя с compression и математическими методами, чтобы расширить то, с чем модели реально могут работать.
3. Это первые шаги на трудном пути ухода от Nvidia.
V4 — первая модель DeepSeek, оптимизированная под китайские отечественные чипы, такие как Huawei Ascend. Этот шаг превратил запуск в своего рода тест: сможет ли китайская собственная AI-индустрия начать ослаблять зависимость от американского чип-гиганта Nvidia.
Это было во многом ожидаемо, поскольку The Information сообщало ранее в этом месяце, что DeepSeek не давала американским производителям чипов вроде Nvidia и AMD ранний доступ к V4, хотя предварительный доступ обычно предоставляют, чтобы чипмейкеры могли заранее оптимизировать поддержку новой модели перед запуском. Вместо этого, как сообщалось, компания дала ранний доступ только китайским производителям чипов.
В пятницу Huawei заявила, что ее продукты Ascend supernode, основанные на серии Ascend 950, будут поддерживать DeepSeek V4. Это означает, что компании и частные пользователи, которые захотят запускать собственную модифицированную версию DeepSeek V4, смогут без труда использовать чипы Huawei.
Reuters ранее сообщало, что китайские чиновники рекомендовали DeepSeek интегрировать чипы Huawei в процесс обучения. И это давление вписывается в более широкий паттерн китайской промышленной политики: стратегические сектора часто подталкивают, а иногда фактически требуют, чтобы они соответствовали целям национальной самодостаточности. Но в случае AI особая срочность объясняется тем, что с 2022 года экспортные ограничения США отрезали китайские компании от самых мощных чипов Nvidia, а позже ограничили и доступ к ослабленным версиям для китайского рынка. Ответом Пекина стало ускорение построения отечественного AI-стека — от чипов до software frameworks и дата-центров.
По сообщениям, китайские власти подталкивают дата-центры и государственные вычислительные проекты к использованию большего числа отечественных чипов, в том числе через сообщаемые запреты на иностранные чипы, квоты на поставки и требования сочетать чипы Nvidia с китайскими альтернативами от таких компаний, как Huawei и Cambricon.
Впрочем, заменить Nvidia не так просто, как поменять один чип на другой. Преимущество Nvidia — не только в самих чипах, но и в software ecosystem, который разработчики строили вокруг них годами. Переход на чипы Huawei Ascend означает адаптацию кода модели, переработку инструментов и доказательство того, что системы, построенные на этих чипах, достаточно стабильны для серьезного использования.
Если говорить точно, DeepSeek, похоже, еще не полностью ушла от Nvidia. В техническом отчете компании сказано, что китайские чипы используются для inference — то есть когда кто-то просит модель выполнить задачу. Но Лю Чжиюань, профессор компьютерных наук в Университете Цинхуа, рассказал MIT Technology Review, что DeepSeek, по-видимому, адаптировала под китайские чипы лишь часть процесса training V4. В отчете не сказано, были ли некоторые ключевые long-context-функции адаптированы под отечественные чипы, поэтому, по словам Лю, V4, возможно, по-прежнему обучалась в основном на чипах Nvidia. Несколько источников, говоривших на условиях анонимности из-за политической чувствительности темы, сообщили MIT Technology Review, что китайские чипы по-прежнему работают хуже, чем Nvidia, но лучше подходят для inference, чем для training.
DeepSeek также привязывает будущую стоимость V4 к этому аппаратному переходу. Компания утверждает, что цены на V4-Pro могут существенно снизиться после того, как Ascend 950 supernodes от Huawei начнут массово поставляться во второй половине этого года.
Если это сработает, V4 может стать ранним сигналом того, что Китай успешно строит параллельную AI-инфраструктуру.
Материал — перевод статьи с английского.
