В пятницу китайская AI-компания DeepSeek выпустила превью V4 — давно ожидаемой новой флагманской модели. Примечательно, что модель способна обрабатывать гораздо более длинные промпты, чем предыдущее поколение, благодаря новой архитектуре, которая эффективнее справляется с большими объемами текста. Как и прежние модели DeepSeek, V4 имеет open source-статус, то есть доступна для загрузки, использования и модификации.
V4 — самый заметный релиз DeepSeek со времени R1, reasoning-модели, которую компания представила в январе 2025 года. R1, обученная на ограниченных вычислительных ресурсах, поразила мировую AI-индустрию сильной производительностью и эффективностью, практически за одну ночь превратив DeepSeek из малоизвестной исследовательской команды в самую узнаваемую AI-компанию Китая. Кроме того, она запустила волну релизов open-weight-моделей у других китайских AI-компаний.
С тех пор DeepSeek держалась относительно в тени — но в начале этого месяца компания фактически намекнула на запуск V4, добавив режимы «expert» и «flash» в онлайн-версию своей модели, что породило предположения о связи этих обновлений с более крупным релизом.
Хотя компания стала мощным символом AI-амбиций Китая, ее громкое возвращение к cutting-edge frontier-моделям произошло после месяцев пристального внимания — включая крупные кадровые уходы, задержки прошлых запусков моделей и растущее внимание со стороны властей США и Китая.
Так сможет ли V4 встряхнуть AI-рынок так же, как это сделала R1? Почти наверняка нет, но есть три важных причины, почему этот релиз имеет значение.
1. Он задает новую планку для open source-модели.
Как и в случае с R1, DeepSeek утверждает, что производительность V4 сопоставима с лучшими моделями на рынке, но при этом стоит в разы дешевле. Это хорошая новость для разработчиков и компаний, использующих технологию, потому что она дает доступ к frontier AI-возможностям на собственных условиях и без риска стремительного роста затрат.
Новая модель доступна в двух версиях, обе из которых представлены на сайте DeepSeek и в приложении компании, а доступ к API открыт разработчикам. V4-Pro — более крупная модель, предназначенная для программирования и сложных agent-задач, а V4-Flash — более компактная версия, созданная для более быстрой и дешевой работы. Обе версии поддерживают reasoning-режимы, в которых модель может внимательно разбирать пользовательский промпт и показывать каждый шаг по мере решения задачи.
За V4-Pro DeepSeek берет $1,74 за миллион входных токенов и $3,48 за миллион выходных токенов — это лишь малая часть стоимости сопоставимых моделей от OpenAI и Anthropic. V4-Flash еще дешевле: около $0,14 за миллион входных токенов и около $0,28 за миллион выходных токенов, что делает ее одной из самых дешевых top-tier-моделей на рынке. Это делает модель особенно привлекательной для создания приложений.
По уровню производительности V4, что неудивительно, делает большой шаг вперед по сравнению с R1 — и, похоже, становится сильной альтернативой почти всем последним крупным AI-моделям. По основным benchmark-показателям, согласно данным, опубликованным компанией, DeepSeek V4-Pro конкурирует с ведущими закрытыми моделями, достигая результатов Anthropic Claude-Opus-4.6, OpenAI GPT-5.4 и Google Gemini-3.1. А по сравнению с другими open source-моделями, такими как Alibaba Qwen-3.5 или Z.ai GLM-5.1, DeepSeek V4 превосходит их по задачам программирования, математике и STEM-проблемам, что делает ее одной из сильнейших open source-моделей из когда-либо выпущенных.
DeepSeek также заявляет, что V4-Pro теперь входит в число сильнейших open source-моделей по benchmark-показателям для agentic coding-задач и хорошо показывает себя в других тестах на способность решать многошаговые задачи. По данным компании, ее навыки письма и знание мира тоже лидируют в отрасли.
В техническом отчете, опубликованном вместе с моделью, DeepSeek привела результаты внутреннего опроса 85 опытных разработчиков: более 90% включили V4-Pro в число своих лучших моделей для задач программирования.
DeepSeek также сообщает, что специально оптимизировала V4 под популярные agent-фреймворки, такие как Claude Code, OpenClaw и CodeBuddy.
2. Она предлагает новый подход к эффективности памяти.
Одно из ключевых новшеств V4 — длинное context window, то есть объем текста, который модель может обрабатывать за один раз. Обе версии поддерживают 1 миллион токенов, чего достаточно, чтобы уместить все три тома The Lord of the Rings и The Hobbit вместе. Компания утверждает, что такой размер context window теперь стал стандартом во всех сервисах DeepSeek и соответствует тому, что предлагают передовые версии моделей вроде Gemini и Claude.
Но важно понимать не только то, что DeepSeek совершила этот скачок, но и как именно она это сделала. V4 вносит существенные архитектурные изменения по сравнению с прежними моделями компании — особенно в attention mechanism, то есть механизме внимания, который помогает AI-моделям понимать связь каждой части промпта со всем остальным. По мере увеличения текста промпта такие сравнения становятся намного дороже, и attention становится одним из главных узких мест длинноконтекстных моделей.
Инновация DeepSeek заключалась в том, чтобы сделать модель более избирательной в том, на что она обращает внимание. Вместо того чтобы считать весь предыдущий текст одинаково важным, V4 сжимает более старую информацию и фокусируется на тех частях, которые с наибольшей вероятностью важны в текущий момент, при этом сохраняя близкий по времени текст полностью, чтобы не потерять важные детали.
DeepSeek утверждает, что это резко снижает стоимость использования длинного контекста. В контексте в 1 миллион токенов V4-Pro использует только 27% вычислительной мощности, необходимой предыдущей модели V3.2, и сокращает использование памяти до 10%. У V4-Flash снижение еще сильнее: используется лишь 10% вычислительной мощности и 7% памяти. На практике это может удешевить создание инструментов, которым нужно работать с огромными массивами материалов, например AI-помощника для программирования, способного прочитать весь codebase, или research agent, который может анализировать длинный архив документов, не забывая постоянно, что было раньше.
Интерес DeepSeek к длинным context window не начался с V4. За последний год с лишним компания тихо опубликовала серию статей о том, как AI-модели «запоминают» информацию, экспериментируя с методами сжатия и математическими техниками, чтобы расширить объем данных, который модели реально способны обрабатывать.
3. Это первые шаги на трудном пути ухода от Nvidia.
V4 — первая модель DeepSeek, оптимизированная под отечественные китайские чипы, такие как Ascend от Huawei. Этот шаг превратил запуск в своего рода тест на то, сможет ли китайская AI-отрасль начать ослаблять зависимость от американского чипмейкера Nvidia.
Это во многом ожидалось, поскольку The Information ранее в этом месяце сообщило, что DeepSeek не дала ранний доступ к V4 американским производителям чипов, таким как Nvidia и AMD, хотя предварительный доступ обычно предоставляется, чтобы производители могли заранее оптимизировать поддержку новой модели перед запуском. Вместо этого компания, как сообщалось, дала ранний доступ только китайским производителям чипов.
В пятницу Huawei заявила, что ее продукты Ascend supernode, основанные на серии Ascend 950, будут поддерживать DeepSeek V4. Это означает, что компании и частные пользователи, которые захотят запускать собственную модифицированную версию DeepSeek V4, смогут без труда использовать чипы Huawei.
Reuters ранее сообщало, что китайские правительственные чиновники рекомендовали DeepSeek интегрировать чипы Huawei в процесс обучения. Эта практика вписывается в более широкий контекст промышленной политики Китая: стратегические сектора нередко подталкивают, а иногда фактически заставляют, выстраивать работу в логике национальной самодостаточности. Но в AI это особенно срочно. С 2022 года экспортные ограничения США отрезали китайские компании от самых мощных чипов Nvidia, а позднее были ограничены и поставки упрощенных версий для китайского рынка. Ответ Пекина — ускорение создания отечественного AI-стека: от чипов до software frameworks и data centers.
Как сообщается, китайские власти подталкивают data centers и общественные вычислительные проекты к использованию большего числа отечественных чипов, в том числе через запреты на иностранные чипы, квоты на закупки и требования сочетать чипы Nvidia с китайскими альтернативами от компаний вроде Huawei и Cambricon.
И все же заменить Nvidia не так просто, как поменять один чип на другой. Преимущество Nvidia заключается не только в самих чипах, но и в software ecosystem, которую разработчики годами строили вокруг них. Переход на Ascend-чипы Huawei означает адаптацию кода модели, пересборку инструментов и доказательство того, что системы, работающие на этих чипах, достаточно стабильны для серьезного использования.
Если говорить точно, DeepSeek, похоже, еще не полностью ушла от Nvidia. Технический отчет компании показывает, что она использует китайские чипы для запуска модели в inference, то есть когда кто-то просит модель выполнить задачу. Но Лю Чжиюань, профессор компьютерных наук в Университете Цинхуа, рассказал MIT Technology Review, что DeepSeek, по всей видимости, адаптировала для китайских чипов лишь часть процесса training модели V4. В отчете не сказано, были ли некоторые ключевые long-context-функции адаптированы под отечественные чипы, поэтому, по словам Лю, V4, возможно, по-прежнему обучалась в основном на чипах Nvidia. Несколько источников, говоривших на условиях анонимности из-за политической чувствительности темы, сообщили MIT Technology Review, что китайские чипы по-прежнему работают хуже, чем чипы Nvidia, но лучше подходят для inference, чем для training.
DeepSeek также связывает будущие затраты на V4 с этим переходом в аппаратной базе. Компания заявляет, что цены на V4-Pro могут существенно снизиться после того, как Ascend 950 supernodes от Huawei начнут массово поставляться во второй половине этого года.
Если это сработает, V4 может стать ранним сигналом того, что Китай успешно выстраивает параллельную AI-инфраструктуру.
Deep Dive
Artificial intelligence
OpenAI бросает все силы на создание полностью автоматизированного исследователя
Эксклюзивная беседа с главным научным сотрудником OpenAI Якобом Пачоцки о новой большой цели компании и будущем AI.
Как Pokémon Go помогает роботам-доставщикам видеть мир с точностью до дюйма
Эксклюзив: AI-спин-офф Niantic обучает новую world model на 30 миллиардах изображений городских ориентиров, собранных игроками.
Хотите понять текущее состояние AI? Посмотрите эти графики
Согласно AI Index Стэнфорда за 2026 год, AI разгоняется, а мы едва успеваем за ним.
Этот стартап хочет изменить то, как математики занимаются математикой
Axiom Math бесплатно раздает мощный новый AI-инструмент. Но пока неясно, ускорит ли он исследования так сильно, как рассчитывает компания.
Материал — перевод статьи с английского.
