La compañía planea integrar su herramienta generativa en Google Lens y Circle to Search, dos de sus funciones más utilizadas en Android.
Google da un paso más en su estrategia de inteligencia artificial al preparar la llegada de Nano Banana, su editor de imágenes basado en IA, al núcleo de su ecosistema visual. Según análisis recientes del código de sus aplicaciones, la empresa trabaja para incluir esta función directamente en Google Lens y Circle to Search, lo que permitiría editar imágenes sin depender de apps externas ni modos experimentales.
La novedad situaría, por primera vez, un editor generativo en la propia interfaz de búsqueda por cámara o pantalla. El resultado: un flujo más natural en el que el usuario podría capturar, editar y compartir desde el mismo entorno, sin saltos entre herramientas.
Un editor que entiende lo que el usuario describe
Nano Banana pertenece al ecosistema Gemini, la familia de modelos de lenguaje e imagen de Google. Se apoya en la arquitectura Gemini 2.5 Flash Image, diseñada para transformar instrucciones escritas —los conocidos prompts— en resultados visuales realistas. Hasta ahora, su uso estaba restringido al modo de búsqueda con IA o a pruebas cerradas dentro de Gemini.
La pista más reciente se encontró en la versión 16.40.18.sa.arm64 de la app de Google. En ella aparece un nuevo botón “Create” (Crear) junto a las opciones habituales de “Search” y “Translate” en Google Lens. Al activarlo, surge una breve animación con el mensaje “capture, create and share”, seguida de un campo donde el usuario puede describir la edición deseada.
El proceso recuerda al del experimento “Search AI Mode”: subir o capturar una imagen, indicar los cambios y recibir en segundos una versión modificada. Esta dinámica reduce la complejidad de la edición visual y la pone al alcance de cualquier usuario, incluso sin conocimientos técnicos.
Circle to Search también se prepara
El código analizado sugiere que Circle to Search —la función que permite seleccionar con el dedo cualquier elemento en pantalla para buscar información— también incorporará esta capacidad. En las pruebas actuales, el botón “Create” ya aparece en la interfaz, aunque aún no responde a las interacciones, señal de que el desarrollo sigue en una etapa temprana.
De materializarse, la edición por IA estaría disponible directamente desde el propio entorno de búsqueda visual. El usuario podría generar o modificar imágenes sin salir de la pantalla en la que se encuentra, integrando la creación en los gestos cotidianos del uso de Android.
Con este movimiento, Google extiende la inteligencia artificial más allá del texto o el buscador, adentrándose en el terreno visual. Allí compite con plataformas que apuestan por la generación directa de contenidos desde el móvil, como Adobe Firefly o la integración de DALL·E en Copilot.
Qué implicaría para Google y sus usuarios
La llegada de Nano Banana a Lens y Circle to Search tendría tres implicaciones principales:
- Acceso simplificado: la edición por IA pasaría a ser una función nativa del sistema, sin pasos intermedios.
- Competencia reforzada: Google entraría de lleno en el espacio de los editores visuales inteligentes.
- Gestión responsable: la compañía deberá abordar la trazabilidad y el uso ético de imágenes generadas o alteradas.
Más allá de estas cuestiones, la integración refuerza una tendencia clara: la IA se convierte en una capa invisible en los servicios diarios de Google. Desde el buscador hasta Gmail o Fotos, la empresa busca que las funciones inteligentes formen parte del flujo natural de interacción con la pantalla.
Un proyecto aún sin fecha
Por ahora, Google no ha ofrecido declaraciones oficiales. La información procede de los denominados APK teardowns, análisis de versiones internas de sus aplicaciones que revelan funciones en desarrollo. Aunque no implican un lanzamiento inminente, sí muestran hacia dónde evoluciona el producto.
Si los planes se confirman, Nano Banana podría ser el siguiente paso para integrar la creación generativa en la experiencia visual de Android. No sería solo una herramienta para editar imágenes, sino una extensión de la propia búsqueda: ver, señalar y transformar con un gesto. Una frontera en la que reconocimiento y generación confluyen, marcando un nuevo capítulo en la evolución cotidiana de la inteligencia artificial.
