Google tiene clarísimo el futuro de Android: un sistema gobernado por agentes de IA

Google tiene clarísimo el futuro de Android: un sistema gobernado por agentes de IA

La forma en la que usamos las apps en el móvil podría estar entrando en una nueva etapa. Hasta ahora, la experiencia en Android se ha basado en algo muy simple: abrir aplicaciones y realizar acciones paso a paso dentro de ellas. Sin embargo, Google está explorando un modelo diferente, en el que la inteligencia artificial actúe como capa intermedia entre lo que pedimos y lo que las apps pueden hacer. En ese escenario, no siempre seremos nosotros quienes recorramos los menús o completemos los procesos manualmente. En muchos casos bastará con expresar lo que queremos hacer para que el sistema intente resolverlo por nosotros, coordinando distintas funciones del teléfono.

El siguiente paso en Android. En una publicación del blog oficial para desarrolladores, la compañía presenta nuevas capacidades pensadas para que las aplicaciones puedan trabajar directamente con asistentes y sistemas de IA. Estas funciones están pensadas para que herramientas como Gemini puedan descubrir y ejecutar determinadas acciones dentro de algunas apps. El proyecto se encuentra todavía en una fase inicial, pero deja entrever una dirección muy concreta: empezar a reconfigurar Android como un entorno en el que la inteligencia artificial pueda ayudar a completar tareas.

Qué entendemos por agente. En el ámbito de la IA, un agente es un sistema diseñado para pasar de la respuesta a la acción. Mientras que los primeros asistentes digitales funcionaban como herramientas de consulta, los agentes intentan comprender una intención y planificar cómo llevarla a cabo. Para hacerlo combinan varias capacidades: entender lenguaje natural, evaluar el contexto y decidir qué pasos son necesarios para cumplir una petición. No se trata solo de generar texto o sugerencias, sino de organizar una pequeña cadena de decisiones orientadas a un objetivo concreto.

Si seguimos el razonamiento que plantea Google en su publicación, el cambio no afecta solo a la IA, sino también a cómo se conciben las aplicaciones dentro de Android. Durante años, el objetivo principal de cualquier app era conseguir que el usuario la abriera y completara dentro de ella todas las acciones necesarias. Sin embargo, ahora ese criterio empieza a desplazarse. En este nuevo escenario, el éxito empieza a medirse menos por lograr que abramos una app y más por su capacidad para ayudar a completar una tarea, incluso cuando el usuario no interactúa directamente con toda su interfaz.

Una de las primeras piezas del cambio. El primer camino que plantea Google para avanzar en esta dirección pasa por algo que denomina AppFunctions. No es una función visible para el usuario como tal, sino un conjunto de herramientas con el que los desarrolladores pueden exponer funciones y datos de sus apps a asistentes inteligentes como Gemini. El ejemplo que menciona el propio blog de Android es bastante ilustrativo: en la serie Galaxy S26 recientemente presentada, Gemini puede acceder a funciones de Samsung Gallery para localizar fotos concretas a partir de una petición en lenguaje natural, como pedir que muestre imágenes de una mascota. En ese caso, el asistente interpreta la solicitud, activa la función correspondiente de Samsung Gallery y devuelve el resultado sin necesidad de que el usuario navegue manualmente por la galería.

El otro camino de Google. Junto a las integraciones directas, la compañía está preparando una segunda fórmula para extender este modelo a más aplicaciones. Según explica, se trata de un sistema de automatización de interfaz que permitirá a Gemini encargarse de tareas genéricas de varios pasos sin depender de una conexión específica entre la app y el asistente. En lugar de apoyarse en una función previamente expuesta por la aplicación, la IA actúa directamente sobre la interfaz. Google señala que esta vista previa inicial se probará en la serie Galaxy S26 y en algunos Pixel 10, dentro de la app de Gemini y con una selección limitada de aplicaciones de reparto, supermercado y transporte en Estados Unidos y Corea. La compañía asegura además que el usuario podrá seguir el proceso por notificaciones o una vista en directo, retomar el control manual en cualquier momento y recibir avisos antes de acciones sensibles, como una compra.

Mirando hacia el futuro. Si algo deja claro el anuncio de Google es que Android está empezando a prepararse para una etapa distinta. Las funciones presentadas todavía se encuentran en desarrollo y su despliegue será gradual, pero apuntan a una dirección concreta: un sistema operativo en el que la inteligencia artificial tenga un papel cada vez más activo en la forma en la que realizamos acciones cotidianas en el móvil. Pixel y Samsung aparecen por ahora como las referencias más visibles, aunque Google deja entrever que quiere llevar estas capacidades a más fabricantes a medida que el ecosistema evolucione. Como suele ocurrir con este tipo de cambios, el resultado final dependerá de cómo evolucionen las herramientas, las integraciones y la respuesta de los propios usuarios.

Imágenes | Google

En Xataka | El iPhone ha sido durante décadas un teléfono «made in China». Ahora está cambiando de país a toda velocidad: India


La noticia

Google tiene clarísimo el futuro de Android: un sistema gobernado por agentes de IA

fue publicada originalmente en

Xataka

por
Javier Marquez

.

Salir de la versión móvil