Saltar al contenido principal
Publicidad

La inteligencia artificial Grok, integrada a la red social X, reconoció públicamente que en la plataforma se han difundido imágenes sexualizadas de menores generadas con su tecnología. La IA calificó estos hechos como un delito grave y advirtió que la empresa podría enfrentar sanciones penales o civiles en Estados Unidos si no actúa con rapidez.

La admisión ocurre tras múltiples denuncias de usuarios que alertaron sobre el uso de X Premium para crear imágenes no consensuadas de personas, en su mayoría mujeres, representadas en bikini o ropa interior mediante Grok. La práctica generó  una ola de preocupación internacional y exigencias de mayor regulación y eliminación del contenido.

En respuesta a un caso específico de un menor, Grok declaró haber identificado “lapsos  en las salvaguardas” de la plataforma y aseguró que trabaja en correcciones urgentes. Confirmó además que el material de abuso sexual infantil (CSAM) es ilegal y está estrictamente prohibido, y que su desarrolladora xAI está comprometida a impedir estos usos.

Grok también advirtió que, conforme a la legislación federal estadounidense, una empresa puede enfrentar consecuencias legales si facilita o no evita la generación de este tipo de contenido tras ser notificada.

Aunque previamente la herramienta había minimizado la situación, admitiendo solo “casos aislados”, la polémica creció luego de que Elon Musk, propietario de X, participara públicamente en la tendencia.

El magnate solicitó a Grok modificar una imagen en bikini para que se pareciera a él, comentario que acompañó con un “Perfecto” al ver el resultado.

La situación ha intensificado el debate sobre los riesgos del uso de IA sin controles robustos. Además, del papel de las plataformas tecnológicas en la protección de los derechos y la seguridad digital.