Actualidad
Google lanza en Gemini “Personal Intelligence”, una beta que usa Gmail, Fotos y YouTube para respuestas personalizadas
La función se habilita bajo opción del usuario y empieza a desplegarse este 14 de enero de 2026 en EE.UU. para suscriptores Google AI Pro y AI Ultra.

Google anunció el inicio del despliegue de Personal Intelligence en la app de Gemini, una función en beta que permite conectar datos de servicios como Gmail, Google Photos, YouTube y el historial de Search para generar respuestas más ajustadas a cada usuario. La compañía informó que la herramienta está desactivada por defecto y que el acceso se irá habilitando “durante la próxima semana” para cuentas personales elegibles en Estados Unidos.
La novedad apunta a que Gemini pueda “razonar” con información distribuida en distintas fuentes del ecosistema de Google y también recuperar datos puntuales desde un correo o una foto, según lo que el usuario pida.
Según explicó el vicepresidente Josh Woodward, el objetivo es que el asistente no solo “conozca el mundo” sino que “conozca al usuario” y lo ayude con tareas concretas.
Qué cambia con Personal Intelligence en Gemini
En el ejemplo que difundió Google, la función ayudó a resolver una situación cotidiana: elegir neumáticos para una Honda Odyssey 2019. Gemini no solo buscó la medida, sino que también sugirió opciones según el uso y cruzó contexto hallado en Google Photos (viajes familiares) y en Gmail (datos del vehículo).
La compañía detalló que el sistema integra, con un solo paso de configuración, conexiones con Gmail, Photos, YouTube y Search. Además, Gemini puede mostrar o explicar qué información tomó de las fuentes conectadas para que el usuario verifique el resultado.
Entre los usos previstos, Google mencionó recomendaciones personalizadas para compras, libros, series y planificación de viajes, con sugerencias basadas en intereses y actividad previa, siempre que el usuario lo habilite.
Privacidad y límites: qué dice Google
Google remarcó que Personal Intelligence está diseñada con “privacidad en el centro”: el usuario elige si la activa, qué apps conecta y puede apagarla en cualquier momento.
Sobre el entrenamiento de modelos, la empresa sostuvo que Gemini no entrena directamente con contenidos como una bandeja completa de Gmail o una biblioteca de Fotos. En cambio, puede usar información limitada derivada de “prompts y respuestas”, con medidas para filtrar u ocultar datos personales.
Además, Google indicó que el sistema busca evitar suposiciones proactivas sobre temas sensibles, aunque puede tratar esos datos si el usuario lo solicita.
Quiénes lo reciben y cuándo llega al resto
El despliegue arranca este 14 de enero de 2026 para suscriptores Google AI Pro y AI Ultra en EE.UU., y no está disponible por ahora para cuentas Workspace (trabajo o educación). Una vez habilitada, funciona en Android, iOS y web, y con los modelos disponibles en el selector de Gemini.
Google adelantó que, con el tiempo, planea ampliar Personal Intelligence a más países y a la versión gratuita, y también llevarla a AI Mode en Search “pronto”.
El movimiento refuerza la apuesta de Google por un asistente que combine IA y ecosistema propio, con foco en personalización y controles de uso.







