Seguinos

Actualidad

Google lanza en Gemini “Personal Intelligence”, una beta que usa Gmail, Fotos y YouTube para respuestas personalizadas

La función se habilita bajo opción del usuario y empieza a desplegarse este 14 de enero de 2026 en EE.UU. para suscriptores Google AI Pro y AI Ultra.

Publicado

el

Google anunció el inicio del despliegue de Personal Intelligence en la app de Gemini, una función en beta que permite conectar datos de servicios como GmailGoogle PhotosYouTube y el historial de Search para generar respuestas más ajustadas a cada usuario. La compañía informó que la herramienta está desactivada por defecto y que el acceso se irá habilitando “durante la próxima semana” para cuentas personales elegibles en Estados Unidos. 

La novedad apunta a que Gemini pueda “razonar” con información distribuida en distintas fuentes del ecosistema de Google y también recuperar datos puntuales desde un correo o una foto, según lo que el usuario pida. 

Según explicó el vicepresidente Josh Woodward, el objetivo es que el asistente no solo “conozca el mundo” sino que “conozca al usuario” y lo ayude con tareas concretas. 

Qué cambia con Personal Intelligence en Gemini

En el ejemplo que difundió Google, la función ayudó a resolver una situación cotidiana: elegir neumáticos para una Honda Odyssey 2019. Gemini no solo buscó la medida, sino que también sugirió opciones según el uso y cruzó contexto hallado en Google Photos (viajes familiares) y en Gmail (datos del vehículo). 

La compañía detalló que el sistema integra, con un solo paso de configuración, conexiones con GmailPhotosYouTube y Search. Además, Gemini puede mostrar o explicar qué información tomó de las fuentes conectadas para que el usuario verifique el resultado. 

Entre los usos previstos, Google mencionó recomendaciones personalizadas para compras, libros, series y planificación de viajes, con sugerencias basadas en intereses y actividad previa, siempre que el usuario lo habilite. 

Privacidad y límites: qué dice Google

Google remarcó que Personal Intelligence está diseñada con “privacidad en el centro”: el usuario elige si la activa, qué apps conecta y puede apagarla en cualquier momento. 

Sobre el entrenamiento de modelos, la empresa sostuvo que Gemini no entrena directamente con contenidos como una bandeja completa de Gmail o una biblioteca de Fotos. En cambio, puede usar información limitada derivada de “prompts y respuestas”, con medidas para filtrar u ocultar datos personales. 

Además, Google indicó que el sistema busca evitar suposiciones proactivas sobre temas sensibles, aunque puede tratar esos datos si el usuario lo solicita. 

Quiénes lo reciben y cuándo llega al resto

El despliegue arranca este 14 de enero de 2026 para suscriptores Google AI Pro y AI Ultra en EE.UU., y no está disponible por ahora para cuentas Workspace (trabajo o educación). Una vez habilitada, funciona en AndroidiOS y web, y con los modelos disponibles en el selector de Gemini. 

Google adelantó que, con el tiempo, planea ampliar Personal Intelligence a más países y a la versión gratuita, y también llevarla a AI Mode en Search “pronto”. 

El movimiento refuerza la apuesta de Google por un asistente que combine IA y ecosistema propio, con foco en personalización y controles de uso.