Google ha dado un paso relevante en la evolución de sus asistentes con el lanzamiento de Personal Intelligence, una nueva función en fase beta integrada en la app de Gemini. La propuesta es clara: permitir que el asistente genere respuestas más útiles combinando información procedente de varios servicios del ecosistema de la compañía, en lugar de tratar cada fuente por separado.
La función arranca conectándose con Gmail, Google Photos, el historial de Búsqueda y YouTube. No se trata solo de recuperar datos concretos, como ya hacía Gemini, sino de razonar de forma conjunta sobre ellos. Es decir, entender relaciones entre correos, imágenes, búsquedas o vídeos vistos para ofrecer una respuesta contextualizada sin que el usuario tenga que guiar paso a paso el proceso.
Hasta ahora, pedirle a un asistente que encontrara algo concreto implicaba decirle dónde buscar. Con esta beta, Google quiere que Gemini haga ese trabajo previo. Por ejemplo, relacionar un email reciente con un vídeo visto semanas atrás o con una foto guardada hace meses, si considera que ese cruce aporta valor real a la consulta.
Activación voluntaria y control del usuario
Google insiste en que Personal Intelligence está desactivada por defecto. Es el usuario quien decide si quiere vincular sus aplicaciones y en qué momento hacerlo. Además, incluso una vez activada, el sistema solo utiliza estas conexiones cuando detecta que pueden mejorar la respuesta.
Este punto no es menor. El asistente no está permanentemente “leyendo” correos o analizando fotos sin contexto. La activación es puntual y ligada a una pregunta concreta. La compañía subraya que el objetivo no es vigilar, sino reducir fricción cuando el usuario ya está buscando una respuesta que depende de información dispersa en su propio historial digital.
Dos capacidades clave detrás del sistema
Josh Woodward, vicepresidente de la app Gemini, Google Labs y AI Studio, explicó que la función se apoya en dos capacidades principales:
- Razonamiento entre múltiples fuentes para conectar información que vive en servicios distintos.
- Recuperación precisa de detalles concretos, como datos de un correo, una imagen o un vídeo.
Ambas capacidades pueden operar al mismo tiempo. El resultado es un asistente capaz de trabajar con texto, imágenes y vídeo de forma integrada, algo que hasta ahora requería varias búsquedas manuales.
Durante la presentación, Woodward compartió un ejemplo cotidiano. Mientras esperaba en un taller, necesitaba recordar el tamaño de los neumáticos de su coche. En lugar de ofrecer una respuesta genérica, Gemini fue capaz de sugerir opciones adecuadas tras identificar imágenes de viajes familiares almacenadas en Google Photos, donde aparecía el vehículo.
En otro caso, el asistente localizó el número de matrícula del coche a partir de una fotografía guardada previamente. No hubo que buscar el archivo exacto ni recordar cuándo se hizo la foto. Gemini cruzó la información y entregó el dato.
Salvaguardas y límites explícitos
El anuncio llega acompañado de aclaraciones sobre privacidad y uso de datos. Google afirma que Gemini evita realizar inferencias proactivas sobre temas sensibles, como la salud. Estos datos solo se tratan si el usuario los solicita de forma explícita.
Además, la compañía señala que el modelo no se entrena directamente con el contenido de Gmail ni con la biblioteca de fotos. Los archivos se consultan únicamente para generar la respuesta concreta en ese momento. El entrenamiento se basa en las indicaciones que el usuario introduce en Gemini y en las respuestas producidas por el sistema, no en el contenido privado almacenado.
Quién puede usarlo y qué viene después
El despliegue inicial de Personal Intelligence está limitado a suscriptores de Google AI Pro y AI Ultra en Estados Unidos. Google prevé ampliar la disponibilidad a otros países y, más adelante, ofrecer esta capacidad también en el nivel gratuito del asistente.
Entre los usos que la compañía plantea están la planificación de un fin de semana según intereses personales, recomendaciones de contenido basadas en hábitos reales o la recuperación rápida de información olvidada que ya existe en el ecosistema del usuario.
Un cambio de modelo para los asistentes
Con esta beta, Google refuerza una idea que lleva tiempo sobre la mesa: el futuro del asistente no pasa solo por responder bien, sino por entender el contexto vital digital del usuario. Correos, fotos, búsquedas y vídeos dejan de ser silos para convertirse en piezas de un mismo puzzle.
