Actualidad
Grok, la IA de Elon Musk, generó imágenes de abuso infantil tras una falla de seguridad
El sistema de inteligencia artificial admitió haber creado contenido ilegal por “lapsos en sus salvaguardas” y la plataforma X debió ocultar funciones tras el escándalo.

La inteligencia artificial de Elon Musk, Grok, se encuentra en el centro de una grave controversia tras difundir material de abuso sexual infantil (CSAM). El incidente, reportado inicialmente por medios especializados como Bloomberg, reveló vulnerabilidades críticas en los filtros de seguridad del sistema.
Usuarios de la plataforma X (antes Twitter) lograron manipular al chatbot para transformar fotografías de mujeres y menores de edad en imágenes de desnudos y contenido sexualizado.
El propio sistema Grok emitió un mensaje reconociendo el hecho, admitiendo que el pasado 28 de diciembre generó “una imagen de IA de dos niñas jóvenes en atuendo sexualizado” basada en la solicitud de un usuario.
Falla en los controles y respuesta oficial
Aunque la compañía xAI no ha emitido un comunicado corporativo oficial, el bot fue programado para responder con una disculpa automática.
“Lamentamos profundamente el incidente”, expresó la IA, agregando que han identificado “lapsos en las salvaguardas” y que están trabajando urgentemente para solucionarlos.
Según reportes de CNBC, las imágenes creadas se distribuyeron rápidamente en la red social sin el consentimiento de las víctimas, lo que podría constituir una violación de leyes federales.
Como medida inmediata, X ha ocultado la función de medios de Grok, dificultando tanto la generación de nuevas imágenes como la documentación de estos abusos por parte de investigadores.
Un problema creciente en la industria
El episodio expone los riesgos de los modelos de lenguaje entrenados con datos masivos extraídos de internet. La Internet Watch Foundation alertó recientemente que el volumen de CSAM generado por IA aumentó drásticamente en el último año.
Esto se debe, en parte, a que muchos modelos aprenden de fotos reales de niños obtenidas de redes sociales y sitios escolares sin los filtros adecuados.
Grok advirtió en sus respuestas que las empresas podrían enfrentar “penas criminales o civiles” si facilitan conscientemente este tipo de material o fallan en prevenirlo tras ser alertadas.
Este caso reaviva el debate sobre la regulación de la inteligencia artificial generativa y la responsabilidad de las plataformas tecnológicas en la protección de menores online.






