Grok difundió más de tres millones de imágenes sexualizadas en X, incluidas 23.000 de menores
Durante solo 11 días, el generador de imágenes del asistente de inteligencia artificial Grok provocó una avalancha de contenido sexualizado en la red social X. El volumen superó los tres millones de imágenes, entre ellas 23.000 que representaban a menores de edad, según estimaciones de organizaciones especializadas y medios internacionales.
La expansión de este contenido coincidió con una nueva función habilitada en X a partir del 29 de diciembre, que permitió a los usuarios editar imágenes publicadas mediante Grok con un solo clic. A partir de ese momento, el uso de la herramienta aumentó de forma acelerada.
El 2 de enero, la propia empresa reconoció fallos en las salvaguardias del sistema, luego de que circularan múltiples publicaciones en las que el asistente accedía a solicitudes para desvestir a mujeres y niños. Las modificaciones incluían la alteración de imágenes para colocar bikinis o mostrar a las personas en posiciones sexualizadas.
Las imágenes generadas mediante Grok podían publicarse como respuestas a otros contenidos en X sin el consentimiento de las víctimas, pese a que estas prácticas son ilegales y contravienen las políticas de uso aceptable de xAI, la empresa responsable del asistente.
Tras recibir quejas de usuarios y de autoridades de la Unión Europea, Reino Unido y España, la compañía restringió el generador de imágenes el 9 de enero. Desde esa fecha, el acceso quedó limitado a usuarios de pago. El 14 de enero, xAI bloqueó por completo la generación de imágenes sexualizadas para todos los usuarios.
Un análisis del Centro para la Lucha contra el Odio Digital (CCDH) y de The New York Times estimó que, entre el 29 de diciembre y el 8 de enero, Grok produjo más de 4,4 millones de imágenes. Al menos el 41 %, equivalente a 1,8 millones, correspondió a imágenes sexualizadas de mujeres.
Entre los casos detectados figuraron imágenes alteradas de figuras públicas, como Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, la viceprimera ministra sueca Ebba Busch y la exvicepresidenta de Estados Unidos Kamala Harris.
El informe del CCDH, elaborado mediante un modelo estadístico, señaló que el 65 % de las imágenes generadas por Grok contenían representaciones sexualizadas de hombres, mujeres o niños. Durante el periodo analizado, la herramienta produjo un promedio de 190 imágenes sexualizadas por minuto.
De ese total, la IA generó alrededor de 23.000 imágenes sexualizadas de menores, incluidas representaciones de niñas en bikini y de niños actores. El análisis también indicó que, al 15 de enero, cuando la función ya estaba bloqueada, el 29 % de ese contenido aún permanecía accesible en la plataforma. Además, se identificaron cerca de 9.900 imágenes sexualizadas de menores en formato de dibujo animado.
El director ejecutivo del CCDH, Imran Ahmed, advirtió que este tipo de prácticas favorecen abusos a gran escala contra mujeres y niñas. También subrayó la gravedad de su difusión en una red social con el alcance de X, al señalar que ninguna herramienta similar había tenido antes tanta facilidad de uso ni integración en una plataforma masiva.
Para elaborar su informe, el CCDH analizó una muestra aleatoria de 20.000 imágenes de un total estimado de 4,6 millones producidas por Grok durante ese lapso. El estudio utilizó herramientas de inteligencia artificial para determinar la proporción de contenido sexualizado presente en las imágenes.
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de una agencia de noticias y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.
