AMD снова удивляет индустрию, показав 97% снижение энергопотребления для задач ИИ по сравнению с системами пятилетней давности. Компания делает ставку на кластерные AI-системы в масштабе стоек, где эффективность достигается не только за счёт чипов, но и благодаря оптимизации всей инфраструктуры: от CPU и GPU до памяти, хранилищ, сетей и ПО.

На мероприятии Advancing AI AMD заявила, что уже перевыполнила амбициозную цель 30×25, поставленную на 2025 год. Цель заключалась в тридцатикратном увеличении энергоэффективности узлов для ИИ и HPC — и она уже достигнута.
Следующий шаг — ещё смелее: 20-кратный рост эффективности в масштабе стойки к 2030 году, начиная отсчёт с 2024. По оценке AMD, это почти в 3 раза быстрее, чем среднеотраслевые темпы. Это может означать, что вместо 275 стоек для обучения моделей потребуется всего одна, при этом потребление электроэнергии и выбросы CO₂ сократятся на 95%.
Такие улучшения стали возможны благодаря комплексному подходу AMD к дизайну AI-систем: вместо того, чтобы «разгонять» отдельные компоненты, компания оптимизирует всю систему целиком. Это не только усиливает производительность, но и отвечает вызовам устойчивого развития в эпоху растущих AI-нагрузок.
Некоторые скептики указывают на возможные манипуляции с цифрами — например, при сравнении FP4 с FP16. Но факт остаётся фактом: системы на базе AMD уже возглавляют рейтинг Green500, и даже у NVIDIA используются процессоры EPYC.
Если AMD выполнит задуманное, она укрепит статус лидера по энергоэффективности в мире AI. Экономия электроэнергии, уменьшение инфраструктурных затрат и снижение углеродного следа — всё это делает проект особенно важным в контексте будущего технологий.