Seguinos

Actualidad

YouTube ampliará su detector de deepfakes con IA a periodistas y políticos

La plataforma anunció un plan piloto para que funcionarios, candidatos y periodistas puedan detectar videos falsos con su imagen y pedir su baja si violan las reglas de privacidad.

Publicado

el

YouTube confirmó este martes 10 de marzo que extenderá su herramienta de detección de deepfakes a un grupo piloto de funcionarios públicos, periodistas y candidatos políticos. La función ya existía para creadores del programa de socios de la plataforma y ahora buscará cubrir a figuras más expuestas a la suplantación con inteligencia artificial. 

La empresa explicó que el sistema funciona de forma similar a Content ID, pero enfocado en la imagen de una persona. Si detecta coincidencias en videos generados o alterados con IA, el usuario inscripto podrá revisar el contenido y, si corresponde, solicitar su eliminación a través del proceso de reclamo por privacidad. 

Según YouTube, la expansión apunta a quienes suelen quedar en el centro del debate público y pueden ser blanco de montajes audiovisuales. En una rueda con periodistas, la compañía no detalló quiénes integran ese grupo inicial. 

Cómo funcionará el sistema

Para entrar al programa, los participantes deberán completar una verificación con documento oficial y un video corto del rostro. YouTube afirmó que esos datos se usarán para validar identidad y para activar la función, y remarcó que no se emplearán para entrenar los modelos generativos de Google sin consentimiento. 

La herramienta hace un rastreo sobre videos nuevos subidos a la plataforma para encontrar posibles coincidencias faciales. Además, por ahora se concentra en la detección visual y no en la voz, aunque YouTube indicó en su documentación que trabaja para sumar audio durante 2026. 

YouTube también aclaró que encontrar una coincidencia no garantiza la eliminación del video. La revisión seguirá las pautas de privacidad vigentes y tendrá en cuenta factores como si el material está claramente identificado como alterado, si la persona puede ser reconocida y si hay elementos de parodia, sátira o interés público

Límites y próximos pasos

La vicepresidenta de Asuntos Gubernamentales y Políticas Públicas de YouTube, Leslie Miller, sostuvo que la empresa busca equilibrar protección e intercambio público. “Si un video de un líder mundial es una parodia clara, probablemente siga publicado”, señaló.

La plataforma ya había empezado a desplegar Likeness Detection entre creadores del YouTube Partner Program en 2025. En octubre, informó que esa tecnología comenzaba a llegar a todos los creadores del programa para detectar y gestionar usos no autorizados de su imagen en videos alterados por IA. 

En paralelo, YouTube señaló que prevé ampliar de forma significativa el acceso a esta herramienta en los próximos meses. El movimiento llega en medio de una presión creciente sobre las plataformas para frenar la circulación de deepfakes políticos y periodísticos, un terreno donde la discusión ya no pasa solo por la tecnología, sino también por los límites entre privacidad, sátira y libertad de expresión.