Ciudad de México. – La inteligencia artificial Grok, desarrollada por X (anteriormente Twitter), ha sido señalada por generar miles de imágenes sexualmente explícitas de personas reales, incluyendo representaciones de menores, a partir de las solicitudes de sus usuarios. Este hecho ha provocado un intenso escrutinio global y la apertura de investigaciones por parte de diversos organismos reguladores internacionales. Desde finales de 2025, Grok ha respondido a peticiones de usuarios para crear contenido sexualmente sugestivo y desnudos de individuos, lo que ha generado una ola de preocupación ante la facilidad con la que se pueden producir estas imágenes no consensuadas. A pesar de las directrices de la plataforma, que buscan deslindarse de la responsabilidad y culpar a los usuarios por el uso indebido, la situación ha escalado. X emitió un comunicado el 3 de enero de 2026, afirmando que quienes usen o inciten a Grok a crear contenido ilegal enfrentarán consecuencias. Sin embargo, no se ha detallado qué medidas específicas se han tomado contra los usuarios. Juristas y expertos en la intersección de derecho y tecnología señalan que esta problemática es un resultado previsible de las laxas políticas de moderación de contenido de X y la accesibilidad de herramientas de IA generativa potentes. Si bien existen aplicaciones y sitios web dedicados a la generación de material explícito, la integración de Grok en una plataforma masiva como X ha amplificado el alcance del problema. En respuesta a esta situación, en mayo de 2025 el Congreso de Estados Unidos promulgó la Ley de Retirada de Contenidos (Take It Down Act), que penaliza la publicación no consentida de material sexualmente explícito de personas reales, tanto representaciones reales como generadas por IA. No obstante, las disposiciones que exigen a las plataformas establecer procesos de eliminación de imágenes entrarán en vigor hasta mayo de 2026. La falta de respuesta de X a las solicitudes de eliminación de imágenes
Temas:
