Предположение о том, что США сохраняют устойчивое лидерство в качестве AI-моделей, слабо подтверждается данными — и это лишь один из не самых удобных выводов Stanford University’s 2026 AI Index Report, опубликованного на этой неделе.
Подготовленный Institute for Human-Centred Artificial Intelligence при Stanford University, отчет объемом 423 страницы представляет собой ежегодную оценку состояния искусственного интеллекта. В нем рассматриваются выпуск исследований, качество моделей, инвестиционные потоки, общественные настроения и responsible AI. Главные выводы впечатляют.
Но наиболее важные наблюдения находятся в разделах, которые многие обзоры пропустили, особенно в блоке об AI safety, где разрыв между тем, на что способны модели, и тем, насколько строго их оценивают на вредоносность, не сократился, а вырос.
При этом три вывода заслуживают большего внимания, чем им уделяют.
Разрыв в качестве моделей между США и Китаем фактически закрыт
Представление о том, что США лидируют в развитии AI по отношению к Китаю, нуждается в обновлении. Согласно отчету, модели США и Китая несколько раз менялись местами на вершине рейтинга производительности с начала 2025 года. В феврале 2025 года DeepSeek-R1 ненадолго сравнялась с лучшей американской моделью. По состоянию на март 2026 года лучшая модель Anthropic опережает ближайшего конкурента лишь на 2,7%.
США по-прежнему выпускают больше AI-моделей верхнего уровня — 50 моделей в 2025 году против 30 у Китая — и сохраняют более значимые патенты. Но Китай теперь лидирует по объему публикаций, доле цитирований и числу выданных патентов. Доля Китая в топ-100 самых цитируемых AI-работ выросла с 33 в 2021 году до 41 в 2024 году. Примечательно, что Южная Корея лидирует в мире по числу AI-патентов на душу населения.
Практический вывод таков: предположение о долговременном технологическом преимуществе США в производительности AI-моделей слабо подтверждается данными. Разрыв, существовавший два года назад, сузился до величины, которая меняется с каждым крупным релизом модели.
Отчет указывает и на дополнительную структурную уязвимость. В США расположено 5 427 дата-центров — более чем в десять раз больше, чем в любой другой стране, — но почти все ведущие AI-чипы внутри них производит одна компания, TSMC. Вся глобальная цепочка поставок AI-оборудования проходит через один литейный завод на Тайване, хотя расширение TSMC в США начало работу в 2025 году.
AI safety benchmarking не успевает за развитием моделей, и цифры это подтверждают
Почти каждый разработчик frontier-моделей публикует результаты по ability benchmarks. С responsible AI benchmarks ситуация иная, и AI Index 2026 довольно точно документирует этот разрыв.
В таблице benchmark’ов по safety и responsible AI большинство строк попросту пусты. Только Claude Opus 4.5 публикует результаты более чем по двум отслеживаемым responsible AI benchmark’ам. Только GPT-5.2 публикует результаты по StrongREJECT. По benchmark’ам, измеряющим fairness, security и human agency, у большинства frontier-моделей нет вообще никаких данных.

Это не означает, что frontier-labs не ведут внутреннюю работу по безопасности. В отчете признается, что red-teaming и alignment testing действительно проводятся, но «эти усилия редко раскрываются через общий, внешне сопоставимый набор benchmark’ов». В результате внешнее сравнение по dimensions безопасности AI для большинства моделей фактически невозможно.
По данным AI Incident Database, число задокументированных AI-incidents выросло до 362 в 2025 году с 233 в 2024 году. OECD AI Incidents and Hazards Monitor, использующий более широкую автоматизированную систему, зафиксировал пик в 435 инцидентов в месяц в январе 2026 года при шестимесячном скользящем среднем 326.

Организационная реакция на уровне управления не успевает за этим ростом. Согласно опросу AI Index и McKinsey, доля организаций, оценивающих свой response на AI-incidents как «excellent», снизилась с 28% в 2024 году до 18% в 2025 году. Доля ответов «good» также упала — с 39% до 24%. Между тем доля тех, кто сталкивался с тремя-пятью инцидентами, выросла с 30% до 50%.
Отчет также указывает на структурную проблему самого процесса улучшения responsible AI: прогресс в одном измерении часто снижает показатели в другом. Повышение безопасности может ухудшать accuracy, а усиление privacy — снижать fairness. Единой рамки для управления такими trade-offs не существует, а по ряду измерений, включая fairness и explainability, стандартных данных, необходимых для отслеживания прогресса во времени, пока нет.
Общественная тревога растет вместе с внедрением, а разрыв между экспертами и обществом сохраняется
Во всем мире 59% опрошенных считают, что преимущества AI перевешивают его недостатки, против 55% в 2024 году. Одновременно 52% говорят, что AI-продукты и сервисы вызывают у них беспокойство, что на два процентных пункта выше, чем годом ранее. Оба показателя растут одновременно, и это отражает общество, которое все активнее пользуется AI, но все меньше понимает, куда это приведет.
Особенно заметен разрыв между экспертами и широкой публикой в оценке влияния AI на занятость. По данным отчета, 73% AI-экспертов ожидают позитивного влияния AI на то, как люди выполняют свою работу, против лишь 23% среди общего населения — разрыв в 50 пунктов. В отношении экономики разрыв составляет 48 пунктов: 69% экспертов настроены позитивно против 21% у общественности. В медицине эксперты значительно оптимистичнее — 84% против 44%.
Эти разрывы важны, потому что общественное доверие влияет на регуляторные решения, а регуляторные решения влияют на то, как внедряется AI. На этом фоне отчет отмечает нечто показательное: США сообщили о самом низком уровне доверия к собственной власти в вопросе ответственного регулирования AI среди всех стран, попавших в выборку, — 31%. Средний мировой показатель составил 54%. Наиболее доверчивыми оказались страны Юго-Восточной Азии, где в Сингапуре показатель достиг 81%, а в Индонезии — 76%.
В глобальном масштабе EU доверяют в регулировании AI больше, чем США или Китаю. Среди 25 стран, попавших в опрос Pew Research Centre 2025 года, медианные 53% доверяли EU регулировать AI, против 37% для США и 27% для Китая.
Глава отчета, посвященная общественному мнению, завершается наблюдением, что страны Юго-Восточной Азии остаются одними из самых оптимистичных в мире в отношении AI. В Китае, Малайзии, Таиланде, Индонезии и Сингапуре более 80% респондентов говорят, что AI радикально изменит их жизнь в ближайшие три-пять лет. Наибольший рост этого мнения с 2024 по 2025 год показала Малайзия.
См. также: IBM: как robust AI governance защищает маржу компаний

Хотите узнать больше об AI и big data от лидеров отрасли? Посетите AI & Big Data Expo, которая пройдет в Амстердаме, Калифорнии и Лондоне. Это комплексное мероприятие входит в TechEx и проводится совместно с другими ведущими технологическими событиями, включая Cyber Security & Cloud Expo. Для получения дополнительной информации нажмите здесь.
AI News создается при поддержке TechForge Media. Другие предстоящие мероприятия и вебинары по корпоративным технологиям смотрите здесь.
Материал — перевод статьи с английского.
Оригинал: The US-China AI gap closed. The responsible AI gap didn’t
