Actualidad
La UE abre una investigación formal contra X por los deepfakes sexuales generados con Grok
La Comisión Europea activó el procedimiento este lunes 26 de enero de 2026 bajo la Ley de Servicios Digitales (DSA) y amplió el control sobre los algoritmos de recomendación de la plataforma.

La Unión Europea inició una investigación formal contra X (ex Twitter) por el uso de Grok, el chatbot de xAI, para generar y difundir deepfakes sexualizados sin consentimiento, incluidos casos que podrían involucrar a menores. El anuncio se conoció este 26 de enero de 2026 y apunta a determinar si la empresa cumplió con sus obligaciones de prevención de riesgos y control de contenido ilegal exigidas por la DSA.
Según la Comisión, el foco está en la circulación de “imágenes sexualmente explícitas manipuladas”, incluidas aquellas que “podrían constituir material de abuso sexual infantil”, y en si la plataforma evaluó y mitigó esos riesgos antes y después del despliegue de la herramienta.
Además, Bruselas informó que amplió una investigación ya abierta contra X sobre sus sistemas de recomendación, luego de que la compañía anunciara cambios para apoyarse más en tecnología vinculada a Grok para decidir qué contenidos se muestran a los usuarios.
Qué cuestiona Bruselas y qué puede exigir
La comisaria de Tecnología de la UE, Henna Virkkunen, sostuvo que los deepfakes sexuales “no consensuados” son “una forma violenta e inaceptable de degradación”. También advirtió que la investigación buscará establecer si X trató los derechos de los ciudadanos europeos “como daño colateral” del servicio.
En paralelo, la Comisión evalúa si X realizó una evaluación adecuada del impacto de Grok en Europa. De confirmarse incumplimientos, el procedimiento bajo la DSA puede derivar en cambios obligatorios en el producto y en multas de hasta el 6% de la facturación anual global.
Por ahora, el expediente no tiene un plazo fijo de resolución. La Comisión puede cerrar el caso con compromisos de la empresa o avanzar hacia medidas más duras si entiende que no hubo ajustes “significativos”.
El antecedente: reportes de uso masivo para “desnudar” imágenes
El caso tomó impulso tras una seguidilla de denuncias por pedidos simples —como “quitar la ropa” o “poner bikini”— que terminaban en imágenes manipuladas. Gobiernos como Indonesia y Malasia aplicaron restricciones temporales y luego revisaron su postura tras cambios anunciados por la empresa.
Sobre el volumen del fenómeno, las estimaciones públicas difieren: un informe citado por medios británicos habló de cientos de miles de imágenes en menos de dos semanas, mientras que otra organización difundió cálculos de millones en pocos días.
X, en declaraciones previas citadas por agencias, afirmó tener “tolerancia cero” frente a explotación infantil y contenido sexual no consentido, y dijo haber aplicado restricciones al uso de funciones de edición y generación según jurisdicciones.
El avance de la UE se suma a una tendencia regulatoria que busca limitar el uso de IA generativa para producir contenido sexual ilegal, con especial foco en la protección de mujeres y niños.







