Главная » Новости » Узкое место ИИ — электроэнергия, а не GPU

Узкое место ИИ — электроэнергия, а не GPU

by texno.org
1 коммент 5 просмотров
Узкое место ИИ — электроэнергия, а не GPU

Наделла: узкое место ИИ — это не GPU, а электроэнергия и площадки

Глава Microsoft сформулировал то, о чём шёпотом говорили инженеры дата-центров весь год: проблема масштабирования генеративного ИИ упирается не в дефицит ускорителей, а в нехватку «подключённых» мегаватт и подготовленных залов. Сатья Наделла пояснил, что теоретически компания может закупить больше ускорителей, но значительная часть железа рискует застрять на складе, потому что для него не хватает энергоснабжения, охлаждения и готовых стоек. Так возникает иллюзия «избытка вычислений»: чипы есть, а включить негде.

«Тёплые оболочки» против холодной реальности

В отрасли «тёплыми оболочками» называют корпуса ЦОДов, где уже подведены питание, оптика, охлаждение и можно сразу ставить стойки. Именно их сейчас не хватает. Очереди на подключение к магистральным сетям растягиваются на годы, мощные трансформаторы поставляются с задержками, а согласования по площадкам конфликтуют с календарём релизов ИИ-платформ, который тикает каждые 12–18 месяцев. Темп строительства и электрификации банально не успевает за темпом поставок кремния — и это главный разрыв нынешнего цикла.

Плотность мощности растёт быстрее, чем стены

Каждое новое поколение GPU-кластеров тянет за собой больше ватт на стойку и выше тепловой поток. От систем эпохи Ampere до нынешних сверхплотных стоек переход сопровождается кратным ростом энергопотребления и жёсткими требованиями к охлаждению: жидкостные контуры, теплообменники в дверях, а местами и полное погружение. На этом фоне оголяются «мелочи», которые раньше прощались: разъёмы и кабель-менеджмент. Высокие токи на компактных коннекторах нагревают контакт, любая лишняя миллиомная «ступенька» превращается в тепловую проблему, а тесные кабель-каналы душат воздушный поток. Сообщество спорит: делать один более крупный силовой разъём или оставить несколько «классических» 8-pin ради надёжности. Варианты с направленными вентиляторами на зоне коннектора и «открытыми» (без глубокого кожуха) версиями разъёма помогают, но это скорее инженерные костыли, чем устойчивое решение.

«Глют вычислений» или энергетическая стена?

Скептики говорят о надвигающемся избытке вычислительных мощностей. Наделла уточняет: временный избыток появится там, где мегаватты и площади не поспевают за поставками. Как только ввод в строй ускоряется — те же чипы исчезают из инвентаря за ночь. Поэтому прогнозировать спрос сложно: инвентарь растёт в краткосрочном горизонте, при том что долгосрочная потребность никуда не девается, особенно на стороне инференса и дообучения корпоративных моделей.

На загрузку железа влияют три рычага. Первый — мегаватты: без них не заработает ни один зал. Второй — эффективность софта: компиляторы, планировщики, квантование, разреженность и сбалансированные топологии межсоединений заметно повышают «вычисления на ватт». Третий — микс нагрузок: переход от гигантских предобучений к высокопоточной выдаче ответов (инференс) меняет профиль потребления и требования к сетям.

Практика дата-центров: как прожить в рамках бюджета по жару и ваттам

Операторы ЦОДов идут на прагматичные шаги. Часто помогает андервольтинг — снижение напряжения ради лучшего КПД и стабильности; там, где это уместно, два слегка «охлаждённых» ускорителя оказываются эффективнее одного «разогнанного» в том же энергобюджете. Перепланировка холодных и горячих коридоров, корректная укладка кабелей, отказ от лишних переходников и качественные ответвители снижают локальные перегревы. Для особенно горячих зон у коннекторов применяют точечные вентиляторы или переход на жидкость. Все эти меры не отменяют потребности в новых мегаваттах, но позволяют дотянуть до ввода следующей очереди ЦОДа без троттлинга и аварий.

Стратегия гиперскейлеров: мощность, эффективность, диверсификация

Дальнейший план — по трём направлениям. Мощность: долгосрочные PPA, собственная генерация на площадках, перенос ЦОДов ближе к узлам передачи, интерес к атомной энергетике (включая SMR), гибриды из ветра/солнца/накопителей и проекты утилизации тепла. Эффективность: оптимизация размерностей моделей, сжатие, планирование задач на уровне кластера и приоритизация загрузки вместо погони за «пиковыми FLOPS». Диверсификация: больше инференса на периферии, рост специализированных ускорителей для робототехники и компьютерного зрения, более взвешенный баланс капитала между кремнием и инфраструктурой.

Что это значит для NVIDIA и рынка

Это не приговор индустрии и не отрицание спроса на ускорители. Скорее, это вопрос очередности: сначала мегаватты и «тёплые оболочки», затем новые партии железа. Если ввод мощностей ускорится — заказы вырастут; если задержится — на витринах появятся истории про «пузырь». Параллельно меняется структура спроса: автономные системы и робототехника способны «перехватывать» вычисления иначе, чем фронтирные предобучения, разгружая дефицит в одних местах и усиливая его в других.

Вывод

Фраза Наделлы о нежелании закупать GPU «больше чем на одно поколение вперёд» — не скепсис по отношению к ИИ, а трезвый сигнал: сегодня самым дефицитным ресурсом являются не микросхемы, а подключённая мощность. Пока разрыв между энергией и вычислениями не сократится — с новыми залами, толстыми фидерами и умным софтом — индустрия будет жить в парадоксе изобилия: много чипов и слишком мало розеток.

1 коммент

PiPusher 20.11.2025 - 22:44

на 12VHPWR можно дуть диагональными вентиляторами, но это скотч-инжиниринг, а не решение

Ответ

Оставьте комментарий