Intel выпустила первое крупное обновление для своих GPU Arc Pro в рамках проекта Battlematrix — LLM Scaler v1.0. Представленный на Computex 2025, Battlematrix задумывался как универсальная, корпоративного уровня платформа для рабочих станций с несколькими GPU Arc Pro, и свежий релиз заметно поднимает планку.
Контейнер LLM Scaler v1.0 обеспечивает до 80% прироста производительности благодаря масштабированию на несколько GPU, передаче данных через PCIe P2P и оптимизированной под Linux архитектуре. Улучшена работа vLLM с длинными входными последовательностями — ускорение в 1,8 раза для моделей 32B KPI и в 4,2 раза для 70B KPI на длине 40K токенов. Есть и общий прирост примерно на 10% по скорости генерации для моделей 8B–32B, а послойная онлайн-квантовка снижает потребление видеопамяти.
В экспериментальных возможностях — конвейерный параллелизм, интеграция torch.compile, спекулятивное декодирование, поддержка embedding и rerank моделей. Расширена работа с мультимодальными моделями, появилась автодетекция максимальной длины и полная поддержка параллельной обработки данных. Для диагностики добавлены инструменты OneCCL и функции XPU Manager — мониторинг мощности, обновление прошивки, проверка пропускной способности памяти и другое.
Battlematrix разрабатывался с учетом промышленных стандартов и простоты развёртывания. Среди корпоративных функций — ECC, SR-IOV, телеметрия и удалённое обновление прошивок. Intel обещает в ближайшем квартале выпустить более «закалённую» версию с улучшенной подачей vLLM, а в четвёртом квартале — полный пакет возможностей.
Пока одни уже фантазируют о генераторах игровых ассетов или AI-моделях текстур в 4K, другие сомневаются, сможет ли Intel догнать NVIDIA по «чистым» AI-цифрам. Но факт — LLM Scaler v1.0 стал важным шагом в амбициях Intel на рынке AI-GPU.