Google представила Gemini Intelligence — зонтичную ИИ-платформу для автоматизации задач на Android
Агент может прочитать учебную программу в Gmail и сам добавить нужные книги в корзину интернет-магазина
В пакет также входят умная диктовка Rambler, генератор виджетов Create My Widget и автозаполнение форм через Personal Intelligence
Все возможности построены на разрешениях пользователя и требуют подтверждения покупок и публикаций
Первыми получат функции Pixel 10 и Samsung Galaxy S26 летом 2026 года; затем — Wear OS, Android Auto, очки XR и ноутбуки Googlebook
Если у Google всё пойдёт по плану, ваш телефон и другие устройства на Android скоро будут всё меньше нуждаться в вашем участии. На мероприятии Android Show: I/O Edition 2026 12 мая компания представила Gemini Intelligence — пакет ИИ-возможностей, которые встраиваются прямо в уровень операционной системы. По формулировке Google, Android «превращается из операционной системы в систему интеллекта». На практике это означает компьютерного агента для смартфона — концептуально схожего с Claude Cowork от Anthropic и Comet Assistant от Perplexity, но интегрированного на уровне платформы, а не отдельного приложения.
Это не одна функция, а зонтик
Главное недопонимание, которое стоит снять сразу: Gemini Intelligence — не отдельная новая фишка, а ребрендинг всего ИИ-уровня Android. Под этим зонтиком собрано сразу несколько крупных возможностей:
- многошаговая автоматизация задач в приложениях;
- умная диктовка Rambler прямо в клавиатуре Gboard;
- генератор виджетов Create My Widget, который строит их из текстового описания;
- интеллектуальное автозаполнение форм через Personal Intelligence;
- агентный браузер Gemini в Chrome с автопросмотром, разобранный в отдельном материале.
Внешне всё это будет выполнено в новом дизайн-языке Material 3 Expressive. По смыслу — это прямой ответ на Apple Intelligence: не приложение, к которому нужно идти, а слой, который понимает экраны и задачи во всей системе.
Многошаговая автоматизация — главный аргумент
Компания утверждает, что потратила несколько месяцев на доработку агента, чтобы он мог уверенно перемещаться по самым популярным мобильным приложениям и выполнять цепочки действий. Раньше Gemini уже умел заказывать еду и вызывать такси — теперь набор сценариев расширился. Google показала такие примеры:
- прочитать учебную программу курса в Gmail и добавить все необходимые книги в корзину интернет-магазина;
- забронировать конкретное место в первом ряду на групповую велотренировку (сайкл-класс);
- скопировать список покупок из заметок и добавить все позиции в корзину магазина с доставкой;
- заказать латте в любимой кофейне без открытия приложения;
- сфотографировать туристический буклет в отеле и попросить Gemini найти аналогичный тур на Expedia.
Активация задумана через долгое нажатие на кнопку питания: вызвал ассистента, описал задачу — и агент пошёл выполнять. Часть автоматизаций уже работает на Galaxy S26 и Pixel 10 с марта 2026 года, но теперь Google официально оформила это как платформенную возможность.
Сила агента заметно растёт, когда он может опираться на контекст экрана или картинки. На запуске Galaxy S26 ранее в этом году компания уже демонстрировала, как Gemini читает страницу с описанием спортивного занятия и сам бронирует место. Тот же принцип теперь распространяется на любые приложения, где модель «видит» что-то достаточно структурированное, чтобы повторить действия пользователя.
Rambler — диктовка для тех, кто думает вслух
Rambler — новый режим в клавиатуре Gboard, построенный на мультимодальных способностях Gemini. Пользователь говорит как ему удобно, со словами-паразитами, поправками в середине мысли и переключением между языками — а на выходе получается аккуратный, сжатый текст. По словам директора Android Core Experiences Бена Гринвуда, это фактически «переизобретение клавиатуры»:
- удаляются «эм-м», «ну», «короче» и прочий мусор;
- учитываются исправления, сделанные на ходу («нет, лучше так»);
- поддерживается смена языков в одной фразе — актуально для русско-английских и казахско-русских разговоров;
- голосовые данные не сохраняются, используются только для расшифровки. Обработка частично идёт на устройстве, частично в облаке.
Create My Widget — виджеты из текстового запроса
Вторая знаковая возможность под Gemini Intelligence — генеративные виджеты. Вместо выбора из готового каталога пользователь описывает желаемое словами, и Gemini собирает виджет на лету. Примеры запросов:
- «предложи три рецепта высокобелковых блюд на неделю» — получаем кулинарный виджет с обновляющимися идеями;
- «покажи обратный отсчёт до моего рейса и температуру в Анталии» — путевой виджет, который тянет данные из Gmail и веб-поиска;
- «сводка по моим ежедневным тренировкам» — спортивная панель с данными из Fit.
Под капотом работает движок RemoteCompose, который умеет делать виджеты адаптивными — они корректно перестраиваются под разные размеры на главном экране и на циферблате Wear OS. Та же функция позже придёт и на ноутбуки Googlebook.
Personal Intelligence и умное автозаполнение
Третий важный кусок — обновлённое автозаполнение форм, опирающееся на Personal Intelligence. Если пользователь явно подключил функцию, Gemini использует информацию из связанных сервисов (Gmail, Photos, Calendar и других) для заполнения сложных анкет — от бронирования рейса до медицинских форм. Подключение и отключение конкретных приложений остаётся за пользователем в настройках. Это та же логика, которая уже работает в Chrome на компьютере с января 2026 года, теперь расширенная на уровень всей системы.
Прозрачность, контроль и подтверждения
Понятно, что отдавать управление телефоном ИИ-агенту страшновато. Google закладывает несколько механизмов защиты:
- агент не начинает действие без явной команды пользователя;
- любое чувствительное действие — оплата, отправка сообщений, публикация в социальных сетях — останавливается на шаге подтверждения;
- каждый сервис, к которому Gemini получает доступ, подключается отдельно через стандартное меню разрешений;
- в интерфейсе появляется индикатор выполнения, который показывает, что агент работает, и позволяет остановить процесс в любой момент.
Это всё та же модель «человек в петле», которую сейчас используют и другие игроки в агентной гонке — от Anthropic с Claude Cowork до OpenAI с агентным режимом ChatGPT Atlas. Главный практический вопрос — как часто реальные пользователи будут реально нажимать «подтвердить», а не привыкнут хлопать «ок» автоматически.
Когда и где появятся возможности
Развёртывание идёт волнами — функции будут включаться по мере готовности:
- лето 2026 года — старт на смартфонах Samsung Galaxy S26 и Google Pixel 10 (а также Pixel 10 Pro, Pro XL, Pro Fold и 10a);
- позже в 2026 году — поддержка часов на Wear OS, автомобильной платформы Android Auto, гарнитур и очков Android XR, а также ноутбуков Googlebook;
- другие Android-смартфоны подтянутся постепенно во второй половине года.
Что в сухом остатке
Большинство приложений сегодня и без того отлажены настолько, что вызов Uber или заказ кофе занимают пару секунд — двадцать с лишним лет мобильного дизайна работают на интуицию. Поэтому ключевой вопрос к Gemini Intelligence не «может ли он», а «достаточно ли он стабилен, чтобы пользователь захотел отдать ему привычные пять касаний». Конкуренты-агенты вроде Claude Cowork и Comet Assistant уже наглядно показали: одна осечка на покупке или ошибочно заполненная форма — и пользователь больше не возвращается. Google повышает ставки, встраивая агента в платформу, на которой работают 3 миллиарда устройств. Если автоматизация окажется надёжной хотя бы в нескольких десятках самых частых сценариев — это станет крупнейшим практическим экспериментом с агентным ИИ на массовом рынке. Если нет — получится ещё один красивый демонстрационный ролик.

