
Amazon и OpenAI подписали семилетний договор на $38 млрд: AWS поставит вычислительные мощности на базе NVIDIA GB200 & GB300
OpenAI добавляет еще одного тяжеловеса к своему пулу партнеров: Amazon Web Services станет одним из ключевых поставщиков вычислительных ресурсов для тренировки и вывода ИИ-моделей. В рамках много-летнего соглашения, оцениваемого примерно в $38 млрд на период семи лет, OpenAI получит доступ к крупным кластерам серверов на базе NVIDIA, в том числе к следующему поколению платформ GB200 и GB300. Планируется, что основная емкость будет введена в эксплуатацию к концу 2026 года, что создаст для компании длинную и предсказуемую полосу разгона для разработки последних поколений моделей и сервисов.
Почему именно AWS? На стороне облака Amazon опыт безопасной и стабильной эксплуатации гипермасштабных инфраструктур с сотнями тысяч ускорителей, выстроенные процессы поставок, сетевые топологии, а также зрелые инструменты управления нагрузками. В мире, где задержка в ответе и доступность сервисов решают исход бизнеса, промышленная дисциплина AWS превращается в реальное конкурентное преимущество, а для OpenAI это означает меньше рисков и больше темпа.
Выбор в пользу NVIDIA, а не собственных чипов Trainium
Примечательная деталь — в заявленном пуле мощностей пока нет четких обязательств по Trainium. Фокус смещен на стек NVIDIA: GB200 и GB300, вместе с программной экосистемой, которая десятилетие затачивалась под задачи машинного обучения. Практический расчет понятен: когда критична скорость ввода мощностей и предсказуемость результатов, зрелая платформа с плотной поддержкой фреймворков и библиотек снижает операционные риски и конвертирует вложения быстрее.
Семь лет в индустрии, которая меняется каждый квартал
Срок в семь лет для ИИ звучит почти как эпоха. Но именно долгий горизонт дает сторонам возможность синхронизировать поставки, электромонтаж и охлаждение, пробросить энергомощности и подготовить площадки. Пошаговая реализация до конца 2026 года служит контрольной точкой: можно адаптировать конфигурации под новые поколения ПО, оптимизировать стоимость владения и балансировать капекс и опекс по мере появления более эффективных ускорителей и сетевых решений.
Шахматная доска вычислений OpenAI
Сделка с AWS укладывается в более широкую стратегию OpenAI по диверсификации источников вычислительной емкости. За последние недели компания фигурировала в соглашениях с NVIDIA и AMD на стороне кремния, углубляла кооперацию с Microsoft, работала с Broadcom и Oracle. Логика проста: закрепить доступ к высокой доле дефицитных ресурсов как у нескольких производителей, так и у нескольких облаков, минимизируя зависимость от одного канала. На фоне разговоров о потенциальном выходе на публичный рынок с капитализацией в диапазоне свыше триллиона это выглядит как фундамент под будущий масштаб.
Оптимисты и скептики: пузырь, экономика и энергия
Единым фронтом рынок, конечно, не выступает. Скептики видят классический перегрев: на отчетных звонках много обещаний про будущие контракты, а окупаемость капиталоемких дата-центров упирается в тарифы на электричество и в реальную готовность предприятий платить за генеративные сервисы. С другой стороны, даже при охлаждении хайпа мотивация автоматизировать процессы никуда не денется: конкуренция подталкивает бизнес ускорять рабочие циклы и сокращать затраты. В таком сценарии мегасерверы не пропадают, а просто переходят в режим более спокойной загрузки, без бесконечного строительства новых площадок.
Что будет важнее всего до конца 2026 года
- Темпы ввода мощностей: насколько быстро AWS сумеет развернуть кластеры GB200/GB300 и как равномерно OpenAI будет их потреблять.
- Каденс моделей: выйдет ли эволюция за рамки контекстных окон и оптимизаций вывода, дав качественно новые способности систем.
- Юнит-экономика: как соотносятся траты на обучение и маржинальность инференса с приростом производительности от нового железа и ПО.
- Энергия и локации: где разместят кластеры, как решат вопросы с энергосетями и охлаждением, как впишут проекты в ESG-повестку.
- Смешанный стек: появятся ли со временем Trainium или иные ускорители и что это скажет о переносимости моделей и зрелости тулчейна.
В сухом остатке: соглашение AWS и OpenAI — прагматичный, но одновременно амбициозный шаг. Он страхует доступ к дефицитным ускорителям и закрепляет ставку на экосистему NVIDIA, чтобы ускорить дорожную карту OpenAI. Для сторонников это необходимый фундамент следующего скачка — от просто генеративных ответов к более кооперативным системам. Для критиков — очередной пример гонки за мощностями, где выручка может запаздывать за инвестициями. Так или иначе, к концу 2026 года значительная часть мощностей должна быть на месте. Дальше все решит то, какие продукты и эффекты масштаба на этих мощностях покажет OpenAI.