В отрасли, которая не стоит на месте, ежегодный обзор ключевых результатов и трендов Stanford AI Index дает возможность перевести дух. (В конце концов, это марафон, а не спринт.)
Новый отчет этого года, опубликованный сегодня, полон поразительных цифр. Во многом его ценность в том, что он подкрепляет числами интуитивные ощущения, которые у вас, возможно, уже были, например мысль о том, что США наращивают AI-гонку сильнее всех остальных: в стране сейчас 5 427 дата-центров (и это число продолжает расти). Это более чем в 10 раз больше, чем у любой другой страны.
Есть и напоминание о том, что в аппаратной цепочке поставок, на которой держится AI-индустрия, есть несколько серьезных узких мест. Вот, пожалуй, самый примечательный факт: «Одна компания, TSMC, производит почти все ведущие AI-чипы, делая глобальную цепочку поставок AI-оборудования зависимой от одной фабрики на Тайване». Одна фабрика! Это просто поразительно.
Но главный вывод, который я делаю из AI Index 2026, состоит в том, что нынешнее состояние AI пронизано несоответствиями. Как сегодня выразилась моя коллега Michelle Kim в своем материале об отчете: «Если вы следите за новостями об AI, у вас, вероятно, уже кружится голова. AI — это золотая лихорадка. AI — это пузырь. AI забирает вашу работу. AI даже не умеет читать часы». (В отчете Стэнфорда отмечается, что лучшая reasoning-модель Google DeepMind, Gemini Deep Think, получила золотую медаль на Международной математической олимпиаде, но при этом не может читать аналоговые часы в половине случаев.)
Michelle хорошо разбирает ключевые моменты отчета. Но я хочу остановиться на вопросе, который не дает мне покоя. Почему так трудно точно понять, что сейчас происходит в AI?
Самый большой разрыв, похоже, проходит между экспертами и неэкспертами. «Эксперты по AI и широкая общественность оценивают траекторию развития технологии очень по-разному», — пишут авторы AI Index. «При оценке влияния AI на рабочие места 73% американских экспертов настроены позитивно, тогда как среди широкой публики таких только 23%, то есть разрыв составляет 50 процентных пунктов. Похожие расхождения наблюдаются и в отношении экономики, и в отношении медицинской помощи».
Это огромный разрыв. Что происходит? Что знают эксперты такого, чего не знает публика? («Эксперты» здесь — это исследователи из США, которые участвовали в AI-конференциях в 2023 и 2024 годах.)
Думаю, часть ответа в том, что эксперты и неэксперты опираются на совершенно разный опыт. «То, насколько вас поражает AI, идеально коррелирует с тем, насколько вы используете AI для написания кода», — написал на днях один разработчик в X. Возможно, это сказано с иронией, но в этом определенно что-то есть.
Новейшие модели ведущих лабораторий теперь лучше, чем когда-либо, справляются с генерацией кода. Поскольку технические задачи вроде программирования имеют правильные и неправильные ответы, обучать модели выполнять их проще, чем задачи с более открытым результатом. Кроме того, модели, умеющие писать код, оказываются прибыльными, поэтому разработчики моделей вкладывают ресурсы в их улучшение.
Это означает, что люди, использующие такие инструменты для программирования или другой технической работы, видят AI в его лучшем виде. За пределами этих сценариев картина гораздо более смешанная. LLM все еще допускают глупые ошибки. Это явление стало известно как «jagged frontier»: модели очень хорошо справляются с одними задачами и заметно хуже — с другими.
Влиятельный исследователь AI Andrej Karpathy тоже высказался по этому поводу. «Судя по моей [ленте], разрыв в понимании возможностей AI растет», — написал он в ответ на тот пост в X. Он отметил, что power users, то есть люди, использующие LLM для программирования, математики или исследований, не только следят за самыми новыми моделями, но и нередко платят по 200 долларов в месяц за лучшие версии. «Недавние улучшения в этих областях за этот год были поистине ошеломляющими», — продолжил он.
Поскольку LLM по-прежнему быстро улучшаются, человек, который платит за Claude Code, по сути использует уже другую технологию, чем тот, кто шесть месяцев назад попробовал бесплатную версию Claude для планирования свадьбы. Эти две группы говорят друг с другом мимо.
Итак, что мы имеем в итоге? Мне кажется, есть две реальности. Да, AI намного лучше, чем многие думают. И да, он по-прежнему довольно плох во многих вещах, которые важны для большого числа людей (и, возможно, таким и останется). Любой, кто делает ставки на будущее с любой из этих позиций, должен это учитывать.
Deep Dive
Artificial intelligence
OpenAI is throwing everything into building a fully automated researcher
Эксклюзивный разговор с главным научным сотрудником OpenAI Jakub Pachocki о новой главной задаче компании и будущем AI.
How Pokémon Go is giving delivery robots an inch-perfect view of the world
Эксклюзив: AI-спин-аут Niantic обучает новую world model, используя 30 миллиардов изображений городских ориентиров, собранных игроками.
This startup wants to change how mathematicians do math
Axiom Math раздает мощный новый AI-инструмент. Но еще предстоит понять, ускорит ли он исследования так сильно, как надеется компания.
AI benchmarks are broken. Here’s what we need instead.
Разовые тесты не измеряют реальное влияние AI. Лучше перейти к более ориентированным на человека и на контекст методам.
Stay connected
Get the latest updates from MIT Technology Review
Узнавайте о специальных предложениях, главных материалах, предстоящих событиях и многом другом.
Материал — перевод статьи с английского.
Оригинал: Why opinion on AI is so divided
