Apple одалживает у Google «самый крупный мозг», чтобы перезапустить Siri — и масштаб этого мозга действительно впечатляет. По данным нескольких источников, Apple опирается на кастомную версию Gemini с примерно 1,2 трлн параметров, чтобы закрыть самые тяжёлые задачи в новой версии Siri. Это прагматичный шаг: сочетать локальные модели на устройстве с строго изолированной облачной прослойкой, чтобы дать пользователю то, чего он давно ждёт — скорость, полезность и приватность одновременно.

Почему именно сейчас и почему именно Google
Apple ведёт собственные разработки, но компании нужен «мост», чтобы прямо сейчас вывести на миллионы устройств функции, которые требуют огромных вычислительных мощностей. Внутри Apple проект перезапуска Siri носит кодовое имя Glenwood, им занимаются, в частности, Майк Роквелл и Крейг Федериги. На ранних этапах Apple сравнивала возможности ChatGPT от OpenAI и Claude от Anthropic, а затем выбрала адаптированный вариант Gemini для конкретных ролей. Идея не в том, чтобы отдать всё на аутсорс; идея — закрыть облаком те сценарии, где масштаб имеет решающее значение, пока собственные большие модели Apple дозревают.
Разделение обязанностей: что работает на устройстве, а что — в облаке
- Планировщик запросов (Query Planner). Новый «мозг» принятия решений у Siri: пройти ли в веб-поиск, заглянуть ли в календарь, вытащить снимок из «Фото» или выполнить действие в стороннем приложении через App Intents. В сложных, многосоставных и неоднозначных запросах значительную часть работы берёт на себя облачный Gemini.
- Суммаризатор (Summarizer). В рамках Apple Intelligence эта сущность отвечает за конспекты уведомлений, краткие пересказы страниц Safari, помощник для письма и сжатие аудио/текста. Когда объём и контекст велики, включается облачная версия Gemini.
- Система фактологических ответов (Knowledge Search). Быстрые справочные ответы остаются за он-девайс-моделями Apple — это минимальная задержка, отсутствие лишних сетевых вызовов и меньше рисков для приватности.
Private Cloud Compute: облако как продолжение безопасного контура
Связующим звеном выступает Private Cloud Compute — архитектура, в которой облако рассматривается как расширение доверенной среды, а не как общий «котёл» для данных. Запросы шифруются, обрабатываются без сохранения состояния и не задерживаются на серверах; по обещаниям Apple, даже сама компания не может прочитать временные полезные нагрузки. На практике это означает, что вы получаете мощь сверхкрупной модели без сдачи персонального контекста.
Деньги и сигналы рынка
Ожидается, что Apple будет платить около $1 млрд в год за лицензирование технологий Google по готовящемуся соглашению. Сумма внушительная, но в реалиях ИИ-гонки выглядит сдержанно. Для масштаба: Google уже перечисляет Apple оцениваемые $20 млрд ежегодно, чтобы оставаться поиском по умолчанию в Safari и ряде сервисов. Контраст показателен: по крайней мере сегодня генеративный ИИ монетизируется как «включаемая услуга», ускоряющая платформу и удержание аудитории, а не как канал мгновенной сверхприбыли за API-вызовы.
Железо: TPU против «обычных» GPU
Один из горячих вопросов — должен ли кастомный Gemini работать на фирменных TPU-стэках Google или Apple сможет исполнять модель на индустриальных GPU в собственном «частном» облаке. Если второй вариант реалистичен (а формулировки Apple намекают на переносимость), то преимущество Google смещается от эксклюзивного железа к качеству модели, обучающей инфраструктуре и инструментам MLOps. В любом случае цель Apple проста: личные данные — на устройстве, сложная логика — «прыжком» в облако, ответ — настолько быстро, чтобы казаться локальным.
Что реально изменится для пользователя
- Действия внутри приложений. Siri перестаёт быть «диктофоном команд» и начинает реально выполнять шаги в приложениях: отправить файл в Сообщениях, применить пресет к фото, переключить режим «Фокус», создать доску в стороннем сервисе — без ручной навигации по меню.
- Личная контекстность. С вашего разрешения помощник научится комбинировать сигналы из календаря, почты, сообщений и фото, чтобы лучше понимать намерение: «перенеси ланч с Майей на следующую неделю и поделись тем документом, о котором говорили».
- Осведомлённость о том, что на экране. Можно спросить о том, что вы видите прямо сейчас; Siri поймёт текущую страницу или приложение и сократит количество уточнений.
- Качественные пересказы. Сводки уведомлений, краткие выжимки из статей и длинных писем, резюме аудио — станет меньше «воды», больше структуры и фактической точности.
Apple нацеливается выпустить крупное обновление Siri в одном из будущих циклов релизов iOS; кастомный Gemini выступит временной подпоркой до момента, когда собственные большие модели полностью возьмут работу на себя. Это не передача «коронных драгоценностей» поиску Google, а ускоритель для заметного, ощутимого скачка возможностей прямо сейчас.
Стратегический ракурс
Лучше всего воспринимать это как мирный союз: Apple получает мощность и время на доводку своего стека; Google — дистрибуцию и выручку от витринной модели. И важнее уже не сама «магическая цифра» параметров — 1,2 трлн или хоть «йотта-масштаб» — а то, насколько тщательно всё встроено в продукт: какие задержки видит пользователь, как контролируются галлюцинации, где проходят гранницы доступа к персональным данным, и насколько надёжно это работает в повседневных кейсах. Если эти точки будут закрыты, Siri наконец-то переместится из категории «приёмник команд» в класс агента, который понимает контекст, выдерживает длинные цепочки действий и не заставляет вас десять раз переспрашивать.
Итог: Apple покупает не зависимость, а время и устойчивость — возможность быстро шагнуть вперёд без отказа от собственной стратегии. Если архитектура Glenwood оправдает ожидания, сегодняшняя «костыль» окажется строительными лесами, благодаря которым вырастет более самостоятельная и по-настоящему полезная Siri.