UNICEF lanzó un grito de auxilio este miércoles, exigiendo a los países que penalicen la creación de contenido de abuso sexual infantil generado por inteligencia artificial. La agencia está horrorizada por el aumento de imágenes de IA que sexualizan a menores, un fenómeno tan perturbador que parece sacado de una distopía tecnológica.
En un comunicado, UNICEF instó a los desarrolladores a integrar seguridad desde el diseño y medidas para frenar el mal uso de modelos de IA. También pidieron a las empresas digitales reforzar la moderación de contenido con tecnología de detección, porque, como dicen, “los niños no pueden esperar a que la ley despierte”. Los deepfakes, esas falsificaciones ultrarrealistas de imágenes y videos, son el villano aquí, especialmente cuando se usan para manipular fotos, quitar ropa digitalmente o crear desnudos falsos. Según datos de la agencia, al menos 1.2 millones de niños en 11 países han visto sus imágenes convertidas en deepfakes explícitos en el último año.
Gran Bretaña dio un paso al frente el sábado, anunciando planes para ilegalizar estas herramientas de IA, siendo pionera en esta batalla. La preocupación crece con chatbots como Grok de xAI, propiedad de Elon Musk, criticado por generar imágenes sexualizadas de mujeres y menores, incluso tras advertencias de falta de consentimiento, según una investigación de Reuters. xAI respondió el 14 de enero restringiendo la edición de imágenes en Grok y bloqueando contenido revelador en ciertas jurisdicciones no especificadas, limitando funciones a suscriptores de pago.
Esto no es ciencia ficción, es un problema real. ¿Podrá la ley alcanzar a la tecnología antes de que sea demasiado tarde? Esto está más oscuro que un glitch en la matrix.


