Гиперскейлеры AWS, Microsoft Azure и Google Cloud завышают цены на ИИ-нагрузки

Прослушать статью

AWS, Microsoft Azure и Google Cloud рискуют упустить следующую фазу рынка ИИ, потому что берут слишком много за тот же уровень compute.

Крупные облачные провайдеры по-прежнему хотят, чтобы рынок считал AI infrastructure премиальным бизнесом, где клиенты платят premium prices. Этот аргумент работал, когда у покупателей было мало альтернатив, доступ к advanced GPUs был ограничен, а операционная зрелость hyperscalers давала им преимущество, которое smaller competitors не могли легко повторить. Однако рынок быстро меняется, и экономика становится неизбежной. Последние сравнения показывают, что neocloud providers часто намного дешевле major public clouds, а hyperscalers стоят примерно в три–шесть раз дороже специализированных конкурентов при сопоставимой compute capacity.

Разница здесь — не округление. Enterprises не могут списать это на обычные издержки работы с trusted vendor. Счета настолько велики, что влияют на architectural choices, vendor strategies и даже на то, где будет происходить AI innovation. Один из часто цитируемых примеров в текущих pricing comparisons показывает, что compute класса NVIDIA H100 стоит около $2.01 в час на Spheron против примерно $6.88 в час на AWS для похожей категории workload. Это примерно 3.4-кратная разница при сопоставимой AI processing. Сумеет ли конкретная компания получить более выгодные условия, почти не имеет значения. Рынок уже знает, что lower-cost alternatives exist, а знание меняет поведение.

Помимо neoclouds, более привлекательными становятся private clouds, sovereign clouds и даже on-premises GPU strategies, поскольку покупатели все чаще рассматривают AI infrastructure как долгосрочные operating expense, а не как краткосрочный эксперимент. Как только происходит этот сдвиг, даже небольшие различия в unit costs становятся стратегическими. Большие разрывы в цене становится трудно оправдать. Именно тогда premium vendor перестает выглядеть premium и начинает казаться overpriced.

Когда premium уже недостаточно

Много лет hyperscalers выигрывали за счет понятного value proposition. Они могли предложить global reach, mature security controls, integrated tools, elastic capacity и ecosystem, который снижал operational friction. Все эти факторы по-прежнему важны и ценны. Но ИИ выявляет слабое место традиционной cloud pricing model. Когда compute является ядром и его можно получить где-то еще значительно дешевле, ценность окружающей экосистемы должна быть исключительной, чтобы оправдать наценку. Сегодня во многих случаях это не так.

Именно здесь hyperscalers совершают стратегическую ошибку. Похоже, они предполагают, что AI buyers продолжат принимать те же pricing strategies, которые работали для traditional cloud migrations. Это рискованное допущение. AI buyers не просто переносят старые enterprise applications. Они обучают, донастраивают и разворачивают models в средах, где utilization, throughput, latency и token economics отслеживаются в реальном времени. Их boards задают более жесткие вопросы. Их инвесторы задают более жесткие вопросы. Их finance teams задают самые жесткие вопросы из всех. Если ответ сводится к тому, что компания платит в несколько раз больше за тот же класс compute только потому, что проще остаться с привычным брендом, такое решение не вызовет одобрения.

Проблема не в том, что AWS, Microsoft Azure и Google Cloud дороги в абсолютном выражении. Проблема в том, что они становятся дорогими относительно расширяющегося набора credible alternatives. Это различие важно. Покупатели всегда готовы платить больше за лучший результат. Но они будут сопротивляться, если приходится платить намного больше без заметного proportional benefit. В ИИ hyperscalers все труднее доказать такой benefit. Клиент не получает более высокую accuracy модели только потому, что счет пришел от общеизвестного cloud brand. Workload не становится автоматически более стратегическим только из-за того, что он работает в famous control plane. Chip остается chip. Cluster остается cluster. Economics остается economics.

Покупатели ИИ становятся более рациональными

Следующая фаза рынка ИИ будет не о том, кто соберет больше заголовков. Успех будет определяться тем, кто стабильно обеспечивает надежную performance при устойчивых costs. Такой сдвиг благоприятен для дисциплинированных операторов и провайдеров, оптимизированных под GPU availability, efficient scheduling и простые commercial models. Он также выгоден компаниям, готовым сочетать разные среды, а не всегда полагаться на крупнейшего cloud vendor для каждой workload.

Разговор смещается от простой cloud preference к workload placement strategies. Enterprises все увереннее принимают идею, что разные AI jobs должны выполняться в разных местах. Часть workload останется у hyperscalers, потому что интеграционные преимущества реальны. Другие перейдут в private cloud, потому что этого требуют security, data gravity или regulatory concerns. Еще часть окажется на sovereign platforms, потому что national и industry-specific requirements не оставляют другого выбора. Растущее число задач будет направляться в neoclouds, потому что соотношение price-performance слишком убедительно, чтобы его игнорировать.

Это не отказ от hyperscalers. Это отказ от небрежного ценообразования. Крупнейшие облачные провайдеры по-прежнему будут крайне важны для ИИ. Но их роль меняется: из выбора по умолчанию они превращаются лишь в один из многих вариантов. Это серьезное стратегическое понижение статуса, вызванное не технологической слабостью, а практикой ценообразования.

Рынок вознаграждает дисциплину

Облачная индустрия уже проходила через этот цикл. Устоявшиеся компании считают, что размер их защищает, что клиенты прежде всего ценят удобство и что их pricing power вечна. Затем появляется новая группа конкурентов с более четким value proposition и меньшим количеством устаревших допущений. Сначала incumbents воспринимают их как нишевых игроков. Но те улучшают продукт, специализируются и привлекают самых чувствительных к затратам инноваторов. К тому моменту, когда incumbents начинают действовать, рынок уже изменился.

Именно такой риск сегодня несут hyperscalers в ИИ. Если они продолжат рассматривать GPU-driven workloads как способ поддерживать высокую маржу на compute, storage, networking и managed services, они приучат клиентов искать другие варианты. Когда это станет привычкой, изменить ее будет трудно. Клиенты, выработавшие procurement discipline вокруг lower-cost AI infrastructure, не вернутся быстро только потому, что hyperscaler наконец снизил цены.

Следующими победителями в AI infrastructure могут стать провайдеры, которые понимают жесткую истину: когда рынок растет такими темпами, adoption важнее, чем сохранение margin. Если AWS, Microsoft и Google быстро не усвоят этот урок, они могут обнаружить, что их не обошли конкуренты, а они сами priced themselves out.


Материал — перевод статьи с английского.

Оригинал: The hyperscalers are pricing themselves out of AI workloads