Algunos pedófilos utilizan la tecnología de Inteligencia Artificial (IA) para crear y vender material que simula situaciones reales de abuso sexual infantil, cuenta Angus Crawford y Tony Smith en la BBC.Los productores de las imágenes de abuso están utilizando un programa de inteligencia artificial llamado Stable Diffusion, cuya función original era para generar imágenes para arte o diseño gráfico. El software de Stable Diffusion permite a los usuarios describir la imagen que buscan, a través de palabras clave, para que el programa luego genere esa imagen. La BBC ha encontrado que se está usando para crear imágenes realistas de abuso sexual infantil, incluyendo la violación de bebés y menores. Las imágenes de abuso son compartidas a través de un proceso de tres etapas:
Pedófilos generan las imágenes con software de IA
Promueven las fotos en plataformas como Pixiv, un sitio japones de intercambio de imágenes
Estas cuentas tiene vínculos que dirigen a los clientes a imágenes más explícitas, para las que pueden pagar para mirar en cuentas en sitios como Patreon
Octavia Sheepshanks, periodista independiente,comentó en la BBC que los usuarios parecían estar produciendo imágenes de abuso sexual infantil a una escala industrial.“El volumen es inmenso, hasta el punto en que (los creadores) dicen que apuntamos a producir al menos 1000 imágenes al mes”, informó la periodista. Los comentarios de los usuarios sobre las imágenes individuales en Pixiv dejan claro que tienen interés sexual en menores, con algunos de ellos incluso ofreciendo aportar imágenes y vídeos de abuso que no ha sido generados por inteligencia artificial. Sheepshanks ha estado monitoreando algunos de estos grupos en la plataforma.“Entre esos grupos, que tendrán 100 miembros, la gente estará compartiendo, ‘Oh, mira, aquí hay un vínculo a la cosa real’”,dice.“Las cosas más horrorosas, ni siquiera sabía que existieran esas palabras (descripciones)”.
No hay comentarios:
Publicar un comentario