Главная » Новости » NVIDIA, Google TPU и гонка ASIC против GPU

NVIDIA, Google TPU и гонка ASIC против GPU

by texno.org
0 коммент 0 просмотров

Мир аппаратного обеспечения для искусственного интеллекта уже несколько месяцев живёт одним вопросом: смогут ли собственные чипы Google TPU реально откусить заметный кусок от доминирования NVIDIA в центрах обработки данных? Сообщения о том, что Meta и Anthropic якобы готовятся закупить у Google TPU на миллиарды долларов, подогрели сюжет о том, что кастомные ASIC-ускорители поискового гиганта вот-вот выбьют «зелёного» лидера с его трона. В обсуждениях и аналитических записках всё выглядит просто и драматично: крупные облака устали платить NVIDIA и собираются пересесть на кремний от Google.

NVIDIA, Google TPU и гонка ASIC против GPU

Шум вокруг этой истории стал настолько громким, что NVIDIA решила ответить напрямую. В комментарии профильному изданию компания поздравила Google с успехами в AI и подчеркнула, что продолжает поставлять поисковику свои ускорители. Одновременно NVIDIA аккуратно, но жёстко провела черту между собственной платформой и конкурентными решениями. Если перевести корпоративный язык на человеческий, как уже шутят в мемах, посыл Дженсена Хуана такой: «TPU классные, но настоящий движ по-прежнему на наших GPU и в нашем софте». Это одновременно сигнал клиентам и успокоение инвесторов: NVIDIA по-прежнему считает себя платформой по умолчанию для большей части AI-мира.

GPU против TPU: универсальность против заточки

За витриной PR прячется довольно жёсткий технический спор: универсальные графические процессоры против узкоспециализированных ASIC. TPU от Google — классический пример ASIC-чипа, спроектированного вокруг матричной арифметики и небольшой группы задач, которые сегодня доминируют в глубоком обучении. Центровые решения NVIDIA, напротив, изначально делались так, чтобы тянуть практически всё, что только может придумать индустрия: от гигантских трансформеров до странных исследовательских моделей и традиционных HPC-нагрузок. Именно эту универсальность в компании ставят выше преимуществ ASIC, особенно в мире, где архитектуры и фреймворки меняются каждые несколько лет.

В своём ответе NVIDIA подчёркивает, что остаётся «на поколение впереди» и, что ещё важнее, предлагает единственную платформу, способную запускать практически любую крупную AI-модель в любом месте, где есть вычислительные мощности: в гипермасштабируемых облаках, корпоративных кластерах, на периферийных устройствах и даже рабочих станциях. Ключевая идея — взаимозаменяемость ресурсов. GPU, купленный сегодня под обучение, завтра можно перекинуть под инференс, симуляции или графику. А вот ASIC, заточенный под конкретный набор операций и библиотек, рискует быстро превратиться в дорогой сувенир, как только индустрия массово переедет на новые модели и наборы операторов.

Откуда взялся весь ажиотаж вокруг TPU

Фоном для заявления стал отчёт The Information: по данным источников, Meta рассматривает огромный заказ TPU у Google, причём речь идёт о суммах с девятью нулями. Аналитики уже успели прикинуть, что внешние поставки TPU теоретически могут со временем «съесть» до десяти процентов нынешней выручки NVIDIA от AI-направления. История выглядит правдоподобно, потому что Google много лет вертикально интегрирует свои AI-нагрузки: собственные дата-центры, собственные TPU, собственный софт для планирования задач. Особенно далеко компания ушла в инференсе, где важны задержка, энергопотребление и цена за токен, а не только сырые терафлопсы.

Если Google сумеет стабильно продавать часть мощности TPU внешним игрокам вроде Meta и Anthropic, он превращается не только в конкурирующее облако, но и в поставщика вычислений для AI. Для hyperscaler-компаний это удобный рычаг в переговорах с NVIDIA: всегда можно показать, что у тебя есть альтернативный источник мощности, пусть и более жёстко привязанный к определённым фреймворкам и типам моделей.

Почему экосистема важнее голых терафлопс

На бумаге история Google выглядит очень убедительно. TPU развиваются почти десятилетие, и значительная часть продакшн-AI сервисов компании — поиск, YouTube, реклама, Gemini — давно крутится на собственных чипах. Для конкретных задач внутренний ASIC может дать впечатляющую производительность на ватт и аккуратно вылизанную задержку. Но все эти преимущества живут внутри рамок. Как только появляются новые архитектуры, операторы или вообще другие типы моделей, они почти всегда первым делом приходят на наиболее гибкое железо, а сегодня это всё ещё GPU NVIDIA в связке с экосистемой CUDA и огромной библиотекой готовых решений.

Здесь вступает в игру «гравитация» софта. CUDA, cuDNN, TensorRT и растущая пачка специализированных библиотек — тот клей, который удерживает исследователей, стартапы и крупный бизнес внутри вселенной NVIDIA. Перенести зрелый продакшн-пайплайн на новый ускоритель — это не переключить тумблер. Это переучивать команды, переписывать ядра, заново валидировать модели, перестраивать мониторинг и деплой. Подтекст заявления NVIDIA прост: даже если несколько гигантов действительно купят много TPU, львиная доля экосистемы уже инвестировала годы в CUDA-подход и не горит желанием всё ломать ради очередной «серебряной пули».

Френеми: конкуренты и клиенты одновременно

Отдельный нюанс в том, что отношения NVIDIA и Google куда сложнее, чем заголовок «GPU против TPU». Google остаётся одним из крупнейших клиентов NVIDIA, покупая GPU для задач, которые плохо ложатся на TPU или требуют стандартного стек-инструментов индустрии. Иными словами, TPU — это не замена, а ещё один тип кремния в разношёрстном парке железа. Google может гибко балансировать стоимость и производительность, комбинируя свои чипы и GPU NVIDIA, а «зелёные» всё равно получают крупную долю бюджета компании, которая параллельно строит самый серьёзный ASIC-конкурент.

Гетерогенное будущее AI

Вперёд смотрит не столько битва за очередной рекорд обучения, сколько скучная экономика инференса. По мере того, как AI-сервисы превращаются из демонстраций в привычные продукты, решающим становится вопрос, насколько дёшево можно генерировать токены и масштабировать модели до миллиардов пользователей. В такой реальности специализированные ускорители вроде TPU будут набирать обороты, но мощные и гибкие GPU останутся цементом всей конструкции. Скорее всего, будущее будет гетерогенным: у hyperscaler-игроков рядом работают собственные ASIC и стойки с NVIDIA, стартапы арендуют то, что есть в наличии, а разработчики пытаются выжать максимум, не утонув в зоопарке платформ. Заявление NVIDIA о TPU — это напоминание, что компания угрозу видит, но ставит на открытую по возможностям платформу, а не на один-единственный специально заточенный чип.

Еще статьи по теме

Оставьте комментарий