Las posibilidades de abuso son amplias
Entre las 65 plantillas de video del sitio web hay una serie de videos de «desvestido» en las que las mujeres representadas se quitan la ropa, pero también hay escenas de video específicas denominadas «máquina sexual de garganta profunda» y varios videos de «semen». Generar cada vídeo cuesta una pequeña cantidad; Añadir audio generado por IA cuesta más.
El sitio web, que WIRED no tiene nombre para limitar su exposición, incluye advertencias que dicen que la gente solo debe subir fotos que tengan consentimiento para transformar con IA. No está claro si existen controles reales para hacer cumplir esta norma.
Grok, el chatbot Creado por las empresas de Elon Musk, fue utilizado para crear millas de imágenes no consentidas, industrializando y normalizando aún más el proceso de acoso sexual digital. Pero esto es solo lo más visible, y ni mucho menos lo más explícito. Durante años, ha ido creciendo un ecosistema de deepfakescompuesto por docenas de sitios web, bots y aplicaciones, que facilitan más que nunca la automatización del abuso sexual basada en imágenes, incluida la creación de material de abuso sexual infantil (CSAM). Este ecosistema de «nudificación», y el daño que causa a mujeres y niñas, es probablemente más cómodo de lo que mucha gente entiende.
La sofisticación del abuso
«Ya no se trata de una tira sintética muy burda», afirma Henry Ajder, experto en deepfakes que ha seguido la pista de esta tecnología durante más de media década. «Estamos hablando de un grado mucho mayor de realismo de lo que verdaderamente se genera, pero también de una gama mucho más amplia de funcionalidades». Combinados, es probable que los servicios ganen millones de dólares al año. «Es una lacra social y una de las peores y más oscuras partes de esta revolución de la IA y de los medios sintéticos que estamos viendo», asegura.
En el último año, WIRED ha rastreado cómo múltiples servicios explícitos de profundo Se han introducido nuevas funcionalidades y se han ampliado rápidamente para ofrecer la creación de vídeos dañinos. Los modelos de imagen a vídeo suelen necesitar ahora sólo una foto para generar un clip corto. Una revisión de WIRED de más de 50 sitios web de deepfakesque probablemente reciban millones de visitas al mes, muestra que casi todos ellos ofrecen ahora generación de video explícito de alta calidad y a menudo enumeran docenas de escenarios sexuales en los que se puede representar a las mujeres.
Mientras tanto, en Telegram, docenas de canales y bots de deepfakes sexuales han lanzado regularmente nuevas funciones y actualizaciones de softwarecomo diferentes poses y posturas sexuales. Por ejemplo, en junio del año pasado, un servicio de deepfakes promocionó un «modo sexual», anunciándolo junto al mensaje: «Prueba diferentes ropas, tus poses favoritas, edad y otros ajustes». Otro publicó que pronto llegarían «más estilos» de imágenes y videos, y que los usuarios podrían «crear exactamente lo que imaginan con sus propias descripciones» mediante indicaciones personalizadas a los sistemas de IA.
«No es solamente: ‘Quieres desnudar a alguien’. Es como: ‘Aquí tienes todas estas versiones de fantasía’. Son las distintas poses. Son las diferentes posturas sexuales», denuncia el analista independiente Santiago Lakatos, que junto con el medio de comunicación Indicador ha investigado cómo los servicios de «nudificación» utilizan a menudo la infraestructura de las grandes empresas tecnológicas y probablemente han ganado mucho dinero en el proceso. «Hay versiones en las que puedes hacer que alguien (parezca) embarazada», manifiesta Lakatos.



