OpenAI делает ставку на Amazon Web Services как на опорную платформу для масштабирования ChatGPT и всего генеративного стека. Компания подписала семилетнее соглашение на сумму $38 млрд, а первые рабочие нагрузки переезжают на AWS уже сейчас. До конца 2026 года весь законтрактованный объём мощностей должен быть развёрнут, а с 2027-го предусмотрена опция расширения. На уровне железа это прежде всего Amazon EC2 UltraServers — кластеры с сотнями тысяч ускорителей Nvidia и возможностью масштабировать сопутствующие CPU до десятков миллионов потоков для подготовки данных, оркестрации и постобработки.

Что именно получает OpenAI
Ключевой элемент — топология, где Nvidia GB200 и GB300 сведены в один высокоскоростной сетевой домен. Такая ко-локация снижает межузловые задержки, что критично для обучения и инференса распределённых моделей. Чем меньше «болтовни» между узлами, тем выше пропускная способность и ниже стоимость токена/запроса. Плюс — упрощается микширование ресурсов: одна и та же фабрика может одновременно тянуть тренинг, тонкую настройку и высокочастотный прод в одном технологическом контуре.
Почему именно сейчас и почему AWS
Кривая использования ChatGPT напоминает пилу: резкие всплески, затем плато, затем новый пик. Нужна эластичность и предсказуемая поставка чипов. AWS подчёркивает опыт эксплуатации гигантских AI-кластеров (речь идёт о масштабах с сотнями тысяч чипов), а также зрелые практики изоляции, безопасности и многозонной отказоустойчивости. Для OpenAI многолетний контракт — это не только скидка за объём, но и защита от дефицита кремния и очередей на поставку.
Архитектурная ставка: задержка и скорость релизов
Совмещение GB200/GB300 в одном контуре — это не просто про «побыстрее». Это про возможность быстрее выкатывать новые фичи без глубокого перепаковывания пайплайнов, точечно обновлять узлы по мере появления свежего железа и держать горячие пути ближе к памяти и хранилищам. В комплекте идут сетевые сервисы, S3/FS-уровни и наблюдаемость AWS, так что команды могут стандартизировать пайплайны, не теряя гибкости.
Чего опасаются пользователи
Да, крупные облака иногда дают сбой — об этом регулярно напоминают инциденты на уровне регионов. Но именно за многоАЗную архитектуру, автоматический фейловер и геодиверсификацию и платят такие деньги: построить такой контур в одиночку сложно и чрезвычайно дорого. Отдельная реплика из комьюнити — будто «ChatGPT стал холоднее». Важно развести понятия: политика модерации и тон ответов — это продуктовые решения OpenAI, а не следствие выбора дата-центра. Переезд на AWS — про мощность, предсказуемость и инфраструктуру.
Что это даст в итоге
В ближайшее время ожидаем более ровную доступность в пиковые часы, стабильные задержки и более быстрые релизы модельных вариаций по мере наращивания мощностей к 2026 году. Для рынка это ещё один маркер: передовой ИИ — капиталозатратная дисциплина, где выигрывают те, кто может соединить чипы, питание, охлаждение и сеть на планетарном уровне. Если после 2027 года OpenAI увеличит объём, значит, растут размеры моделей, мировая аудитория и стоимость комплексных процедур безопасности и оценки качества.
Итог: это ставка на масштаб. Если AWS реализует обещанную производительность, а OpenAI оптимизирует стеки под GB200/GB300, пользователи почувствуют более отзывчивый и устойчивый ChatGPT — с длинной «взлётной полосой» для новых возможностей.