Saltar al contenido principal

La plataforma X, propiedad de Elon Musk, limitó el uso de su herramienta de inteligencia artificial Grok para la edición de imágenes, luego de varios días de denuncias por permitir la alteración de fotografías de otras personas, principalmente mujeres, para mostrarlas desnudas o con contenido sexual sin su consentimiento.

A partir del 9 de enero, la función de edición de imágenes quedó restringida exclusivamente a los usuarios de la versión de pago, lo que implica que el nombre y la información de pago del usuario quedarán vinculados a cualquier imagen modificada, sin importar su contenido.

Antes de la restricción, Grok editaba fotografías conforme las peticiones de los usuarios, accediendo incluso a solicitudes para desnudar digitalmente a mujeres o mostrarlas en bikini, situación que provocó una fuerte oleada de quejas y denuncias.

Una de las víctimas, la profesora de Filosofía de la Universidad de Cardiff, Daisy Dixon, calificó la medida como “un parche” y alertó sobre el trasfondo ético del problema.

La profesora advirtió que más del 95% de los abusos sexuales con imágenes no consentidas en X van dirigidos contra mujeres.

Gobiernos de distintas partes del mundo, especialmente europeos, calificaron como “repugnante” la generación de imágenes sexualizadas de niños y mujeres mediante Grok y anunciaron posibles sanciones.

En España, la ministra de Juventud e Infancia, Sira Riego, solicitó a la Fiscalía General del Estado investigar a X y a su herramienta de IA por presuntos delitos de difusión de material de violencia sexual contra la infancia.