La plataforma X, propiedad de Elon Musk, limitó el uso de su herramienta de inteligencia artificial Grok para la edición de imágenes, luego de varios días de denuncias por permitir la alteración de fotografías de otras personas, principalmente mujeres, para mostrarlas desnudas o con contenido sexual sin su consentimiento.
A partir del 9 de enero, la función de edición de imágenes quedó restringida exclusivamente a los usuarios de la versión de pago, lo que implica que el nombre y la información de pago del usuario quedarán vinculados a cualquier imagen modificada, sin importar su contenido.
“Cualquier persona que utilice Grok para crear contenido ilegal sufrirá las mismas consecuencias que si sube contenido ilegal”, advirtió Musk en una publicación en X.
Antes de la restricción, Grok editaba fotografías conforme las peticiones de los usuarios, accediendo incluso a solicitudes para desnudar digitalmente a mujeres o mostrarlas en bikini, situación que provocó una fuerte oleada de quejas y denuncias.
Una de las víctimas, la profesora de Filosofía de la Universidad de Cardiff, Daisy Dixon, calificó la medida como “un parche” y alertó sobre el trasfondo ético del problema.
“El problema de la IA es un problema humano: hay que rediseñar Grok e implementar sus límites éticos. Pero Elon Musk debe reconocerlo, estamos ante otra violación por motivos de género”, señaló.
La profesora advirtió que más del 95% de los abusos sexuales con imágenes no consentidas en X van dirigidos contra mujeres.
Gobiernos de distintas partes del mundo, especialmente europeos, calificaron como “repugnante” la generación de imágenes sexualizadas de niños y mujeres mediante Grok y anunciaron posibles sanciones.
En España, la ministra de Juventud e Infancia, Sira Riego, solicitó a la Fiscalía General del Estado investigar a X y a su herramienta de IA por presuntos delitos de difusión de material de violencia sexual contra la infancia.






