Grok, el modelo de IA de Elon Musk, ya no podrá editar fotos de personas reales para mostrarlas con ropa reveladora, después de la preocupación generalizada por los deepfakes sexualizados de IA en países como el Reino Unido y Estados Unidos.

“Hemos implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales que revelen prendas como bikinis.

«Esta restricción se aplica a todos los usuarios, incluidos los suscriptores pagos», se lee en un anuncio en X, que opera la herramienta Grok AI.

El cambio se anunció horas después de que el fiscal principal de California dijera que el estado estaba investigando la difusión de deepfakes sexualizados de IA, incluidos niños, generados por el modelo de IA.

En un comunicado emitido el miércoles, el fiscal general de California, Rob Bonta, dijo: «Este material, que muestra mujeres y niños desnudos y sexualmente explícitos, se ha utilizado para acosar a personas a través de Internet. »

Malasia e Indonesia bloquearon el acceso al chatbot por las imágenes y el primer ministro británico, Sir Keir Starmer, advirtió que X podría perder su «derecho a la autorregulación» debido a la indignación por las imágenes de la IA.

Enlace de origen