Если у Google всё пойдёт по плану, ваш телефон и другие устройства на Android скоро будут всё меньше нуждаться в вашем участии. На мероприятии Android Show: I/O Edition 2026 12 мая компания представила Gemini Intelligence — пакет ИИ-возможностей, которые встраиваются прямо в уровень операционной системы. По формулировке Google, Android «превращается из операционной системы в систему интеллекта». На практике это означает компьютерного агента для смартфона — концептуально схожего с Claude Cowork от Anthropic и Comet Assistant от Perplexity, но интегрированного на уровне платформы, а не отдельного приложения.

Gemini Intelligence на смартфонах Pixel и Samsung GalaxyGoogle

Это не одна функция, а зонтик

Главное недопонимание, которое стоит снять сразу: Gemini Intelligence — не отдельная новая фишка, а ребрендинг всего ИИ-уровня Android. Под этим зонтиком собрано сразу несколько крупных возможностей:

  • многошаговая автоматизация задач в приложениях;
  • умная диктовка Rambler прямо в клавиатуре Gboard;
  • генератор виджетов Create My Widget, который строит их из текстового описания;
  • интеллектуальное автозаполнение форм через Personal Intelligence;
  • агентный браузер Gemini в Chrome с автопросмотром, разобранный в отдельном материале.

Внешне всё это будет выполнено в новом дизайн-языке Material 3 Expressive. По смыслу — это прямой ответ на Apple Intelligence: не приложение, к которому нужно идти, а слой, который понимает экраны и задачи во всей системе.

Многошаговая автоматизация — главный аргумент

Компания утверждает, что потратила несколько месяцев на доработку агента, чтобы он мог уверенно перемещаться по самым популярным мобильным приложениям и выполнять цепочки действий. Раньше Gemini уже умел заказывать еду и вызывать такси — теперь набор сценариев расширился. Google показала такие примеры:

  • прочитать учебную программу курса в Gmail и добавить все необходимые книги в корзину интернет-магазина;
  • забронировать конкретное место в первом ряду на групповую велотренировку (сайкл-класс);
  • скопировать список покупок из заметок и добавить все позиции в корзину магазина с доставкой;
  • заказать латте в любимой кофейне без открытия приложения;
  • сфотографировать туристический буклет в отеле и попросить Gemini найти аналогичный тур на Expedia.

Активация задумана через долгое нажатие на кнопку питания: вызвал ассистента, описал задачу — и агент пошёл выполнять. Часть автоматизаций уже работает на Galaxy S26 и Pixel 10 с марта 2026 года, но теперь Google официально оформила это как платформенную возможность.

Сила агента заметно растёт, когда он может опираться на контекст экрана или картинки. На запуске Galaxy S26 ранее в этом году компания уже демонстрировала, как Gemini читает страницу с описанием спортивного занятия и сам бронирует место. Тот же принцип теперь распространяется на любые приложения, где модель «видит» что-то достаточно структурированное, чтобы повторить действия пользователя.

Rambler — диктовка для тех, кто думает вслух

Rambler — новый режим в клавиатуре Gboard, построенный на мультимодальных способностях Gemini. Пользователь говорит как ему удобно, со словами-паразитами, поправками в середине мысли и переключением между языками — а на выходе получается аккуратный, сжатый текст. По словам директора Android Core Experiences Бена Гринвуда, это фактически «переизобретение клавиатуры»:

  • удаляются «эм-м», «ну», «короче» и прочий мусор;
  • учитываются исправления, сделанные на ходу («нет, лучше так»);
  • поддерживается смена языков в одной фразе — актуально для русско-английских и казахско-русских разговоров;
  • голосовые данные не сохраняются, используются только для расшифровки. Обработка частично идёт на устройстве, частично в облаке.

Create My Widget — виджеты из текстового запроса

Вторая знаковая возможность под Gemini Intelligence — генеративные виджеты. Вместо выбора из готового каталога пользователь описывает желаемое словами, и Gemini собирает виджет на лету. Примеры запросов:

  • «предложи три рецепта высокобелковых блюд на неделю» — получаем кулинарный виджет с обновляющимися идеями;
  • «покажи обратный отсчёт до моего рейса и температуру в Анталии» — путевой виджет, который тянет данные из Gmail и веб-поиска;
  • «сводка по моим ежедневным тренировкам» — спортивная панель с данными из Fit.

Под капотом работает движок RemoteCompose, который умеет делать виджеты адаптивными — они корректно перестраиваются под разные размеры на главном экране и на циферблате Wear OS. Та же функция позже придёт и на ноутбуки Googlebook.

Personal Intelligence и умное автозаполнение

Третий важный кусок — обновлённое автозаполнение форм, опирающееся на Personal Intelligence. Если пользователь явно подключил функцию, Gemini использует информацию из связанных сервисов (Gmail, Photos, Calendar и других) для заполнения сложных анкет — от бронирования рейса до медицинских форм. Подключение и отключение конкретных приложений остаётся за пользователем в настройках. Это та же логика, которая уже работает в Chrome на компьютере с января 2026 года, теперь расширенная на уровень всей системы.

Прозрачность, контроль и подтверждения

Понятно, что отдавать управление телефоном ИИ-агенту страшновато. Google закладывает несколько механизмов защиты:

  • агент не начинает действие без явной команды пользователя;
  • любое чувствительное действие — оплата, отправка сообщений, публикация в социальных сетях — останавливается на шаге подтверждения;
  • каждый сервис, к которому Gemini получает доступ, подключается отдельно через стандартное меню разрешений;
  • в интерфейсе появляется индикатор выполнения, который показывает, что агент работает, и позволяет остановить процесс в любой момент.

Это всё та же модель «человек в петле», которую сейчас используют и другие игроки в агентной гонке — от Anthropic с Claude Cowork до OpenAI с агентным режимом ChatGPT Atlas. Главный практический вопрос — как часто реальные пользователи будут реально нажимать «подтвердить», а не привыкнут хлопать «ок» автоматически.

Когда и где появятся возможности

Развёртывание идёт волнами — функции будут включаться по мере готовности:

  • лето 2026 года — старт на смартфонах Samsung Galaxy S26 и Google Pixel 10 (а также Pixel 10 Pro, Pro XL, Pro Fold и 10a);
  • позже в 2026 году — поддержка часов на Wear OS, автомобильной платформы Android Auto, гарнитур и очков Android XR, а также ноутбуков Googlebook;
  • другие Android-смартфоны подтянутся постепенно во второй половине года.

Что в сухом остатке

Большинство приложений сегодня и без того отлажены настолько, что вызов Uber или заказ кофе занимают пару секунд — двадцать с лишним лет мобильного дизайна работают на интуицию. Поэтому ключевой вопрос к Gemini Intelligence не «может ли он», а «достаточно ли он стабилен, чтобы пользователь захотел отдать ему привычные пять касаний». Конкуренты-агенты вроде Claude Cowork и Comet Assistant уже наглядно показали: одна осечка на покупке или ошибочно заполненная форма — и пользователь больше не возвращается. Google повышает ставки, встраивая агента в платформу, на которой работают 3 миллиарда устройств. Если автоматизация окажется надёжной хотя бы в нескольких десятках самых частых сценариев — это станет крупнейшим практическим экспериментом с агентным ИИ на массовом рынке. Если нет — получится ещё один красивый демонстрационный ролик.