Amazon вложит $5 млрд в Anthropic ради compute и AWS Trainium

Прослушать статью

Инвестиция подчеркивает сдвиг от прямого финансирования к обеспечению долгосрочного compute: Anthropic пытается снять ограничения по мощности и закрепить инфраструктуру на фоне растущего спроса на AI-нагрузки, говорят аналитики.

Amazon в понедельник сообщил, что дополнительно инвестирует $5 млрд в Anthropic — шаг, который, по мнению аналитиков, направлен не только на углубление стратегического партнерства, но и на снятие растущих инфраструктурных узких мест у AI-стартапа.

В рамках сделки Anthropic закрепит за собой до 5 гигаватт вычислительной мощности на чипах AWS Trainium, включая новые Trainium 3 и будущие Trainium 4, говорится в совместном заявлении компаний.

«Сейчас пользователи видят такие ограничения, как throttling и session caps, потому что Anthropic не хватает мощности и ей приходится нормировать использование, чтобы избежать сбоев. Эта сделка помогает решить проблему», — сказал Pareekh Jain, главный аналитик Pareekh Consulting.

«Со временем расширение мощности позволит Anthropic обслуживать больше пользователей одновременно, создавать более крупные модели и снижать эти ограничения, особенно для платных и корпоративных клиентов», — добавил Jain.

Аналитик имел в виду решение Anthropic ограничивать использование в подписках Claude, особенно в часы пикового спроса. Это также совпало с другими тревожными сигналами, включая жалобы на ухудшение reasoning performance у Claude при выполнении сложных задач.

Масштабирование compute capacity

Значительная часть мощности Trainium 3, как ожидается, выйдет в строй уже в этом году, добавили они. Anthropic уже использует Trainium 2 через AWS Project Rainer — кластер почти из полумиллиона чипов — для обучения и запуска своих моделей. Соглашение между Amazon и Anthropic также включает расширение inference capacity в Азии и Европе, что, по словам Jain, должно улучшить скорость и надежность Claude по всему миру. Кроме того, Anthropic получит возможность покупать чипы будущих поколений Trainium по мере их появления.

Однако Anthropic не единственная компания, которая наращивает compute capacity для обучения и запуска моделей.

Ранее в феврале конкурент OpenAI заключил сделку с Amazon, Nvidia и SoftBank, чтобы привлечь около $110 млрд на развитие инфраструктуры и увеличение compute capacity.

В рамках этого соглашения OpenAI обязалась потреблять как минимум 2 ГВт вычислений на базе AWS Trainium, связанных с инвестициями Amazon на $50 млрд, а также 3 ГВт выделенной inference capacity от Nvidia в рамках отдельного обязательства на $30 млрд.

От финансирования к supply chain financing

По мнению аналитиков, такие сделки отражают более широкий сдвиг в том, как сегодня финансируется AI-инфраструктура.

«Вместо простого cash-for-equity такие сделки объединяют долевое инвестирование с огромными обязательствами по cloud-spend или GPU-spend: они одновременно фиксируют клиентов, обеспечивают окупаемость capex и подтверждают проекты инфраструктуры в одной транзакции. Это уже не venture capital, это supply chain financing», — сказал Jain.

Jain отметил, что похожий шаблон прослеживается по всей экосистеме, и привел примеры Microsoft, Oracle и Nvidia.

«Microsoft вложила десятки миллиардов в OpenAI, одновременно обязавшись предоставлять Azure capacity для обучения и inference, а расходы OpenAI на Azure теперь достигли многомиллиардного годового уровня», — сказал Jain.

«Oracle также подписала облачную сделку с OpenAI на $30 млрд, а затем последовало поразительное пятилетнее обязательство по compute на $300 млрд, которое начнется в 2027 году. Nvidia пошла еще дальше, инвестировав $100 млрд в OpenAI, причем оплата была произведена GPU, а не деньгами — эту модель она затем повторила с xAI», — добавил Jain.

Однако, по словам главного аналитика Greyhound Research Sanchit Vir Gogia, такая трактовка может скрывать более глубокий сдвиг.

По словам Gogia, подобные сделки прежде всего помогают заранее закрепить дефицитное предложение compute перед конкурентами. «То, что дает капитал, — это улучшение вашей позиции. Он позволяет вам брать обязательства раньше и в большем масштабе», — отметил аналитик, добавив, что реальное преимущество заключается в том, чтобы закрепить инфраструктуру раньше других.

В то же время долгосрочные обязательства по мощностям, как предупредил Gogia, обычно привязывают компании к конкретным поставщикам.

Хотя model providers могут работать на разных платформах и у разных hyperscalers, их крупнейшие инфраструктурные обязательства в конечном итоге определяют, где они оптимизируют рабочие нагрузки, строят функции и направляют расходы, отметил аналитик.

Для Anthropic сделка с Amazon сопровождается столь же значимыми долгосрочными обязательствами. Компания обязалась потратить более $100 млрд на AWS в течение следующего десятилетия.

Для Amazon инвестиция в $5 млрд дополняет прежнюю ставку в $8 млрд на Anthropic и предусматривает возможность взять на себя еще до $20 млрд, привязанных к определенным коммерческим этапам, которые не были раскрыты. Anthropic также смотрит за пределы AWS. Компания недавно заявила, что планирует наращивать мощности с использованием TPU от Google. Ожидается, что эти чипы выйдут в строй в следующем году.

Оригинал статьи опубликован в NetworkWorld.


Материал — перевод статьи с английского.

Оригинал: Amazon’s $5B Anthropic bet is really about compute, not just cash