Cuando usan la IA para manipular fotos ajenas

Una foto en Instagram con más reacciones de lo normal y un mensaje de una seguidora que no conocía: “Te quitaron la ropa con inteligencia artificial (IA) y está por todos lados”. Después de eso, dos sentimientos, vergüenza y rabia. Johanna Villalobos, periodista costarricense y creadora de contenidos en redes, llevaba meses hablando en su podcast sobre los peligros de la inteligencia artificial generativa y sobre cómo era “otra arma más contra las mujeres”, pero nunca pensó que sería víctima de ello. “Estuve una semana sin salir de mi casa; sentía que todo el mundo me miraba porque lo sabían. Sentí una vergüenza que no es mía. No es mi cuerpo, pero es hiperrealista”, cuenta en su casa en San José. Lo peor, sin embargo, vino luego: “¿A quién denuncio si es imposible saber quién fue y no hay leyes para ello? Estoy sola en esto”.
La única salida que encontró la joven de 30 años fue contarlo en redes y explicar que no era su cuerpo real. “Fui víctima de un ataque misógino por internet, el fake porn o el porno falso […]. Tuve días de ansiedad, miedo en torno a mi carrera profesional, me sentí avergonzada y humillada por algo que ni fue mi culpa”, explicaba en un vídeo. Pero el resultado fue meramente catártico. Si bien días después más de una centena de mujeres en Costa Rica, México y Colombia, entre otros países, lamentaron situaciones similares, las denuncias no tienen cabida en un tribunal.
México ha sido uno de los países más preocupados con la violencia contra las mujeres en línea y cuenta con un gran paquete de reformas federales y estatales para sancionar estás prácticas, conocidas como Ley Olimpia, pero la IA y la difícil trazabilidad del autor mantienen esta conducta en una zona gris. Argentina, inspirada en la normativa mexicana y con una Ley Olimpia vigente, es de los países de la región que más cerca están de lograr un cambio. Actualmente, está en discusión el proyecto de la Ley Belén. El texto permitiría castigar la obtención, la extorsión y la difusión no consentida de material íntimo o que retrate violencia sexual o prácticas de porn deep fake. Mientras, Colombia tiene una de las legislaciones menos garantistas del continente en esta materia. Junto a Nicaragua y Venezuela, la violencia de género en línea no está recogida en ningún marco jurídico. En Chile, el foco de las medidas está puesto apenas en los menores de edad.
Los intentos de tipificar y la concienciación al respecto están llegando tarde, en los países a los que al menos llega. “Vamos hacia un Me Too de este tipo de delitos”, augura Cecilia Celeste Danesi, investigadora y autora de El imperio de los algoritmos. “Hay un movimiento en América Latina muy fuerte de activismo porque creo que aún la sociedad no ha entendido la dimensión de esta herramienta sobre mujeres, niñas y adolescentes”. Según la investigación de Home Security Heros, que estudió casi 96.000 videos creados con IA generativa, el 98% de ellos son pornográficos y no tardan más de 25 minutos en crear un video de un minuto hiperrealista. El 74% de los creadores de este contenido dice no arrepentirse.
Esa pregunta ha estado rondando durante meses la cabeza de Villalobos. “No entiendo qué gana la persona que lo hizo. Ni si es consciente del daño que me ha generado”, explica la joven. En redes, sin embargo, los comentarios reflejan el machismo y la cosificación de las mujeres en el continente. “Todos me decían que fue una estrategia mía para ganar más dinero o para hacerme famosa. ¿A quién se le ocurre que esto me beneficiaría?”, critica. “A cada persona que me hablaba del caso le preguntaba: ‘¿vos la viste?’ Es horrible que se me relacione a esto y no a mi trabajo”. Es por ello que, para Danesi, la clave está en la toma de conciencia, la regulación y, sobre todo, la educación y las políticas públicas para “entender la dimensión” del escenario que empieza a dibujarse.
Una presentadora de televisión en Costa Rica, la cantante Rosalía, las alumnas de la Escuela Superior de Comercio y Administración de Ciudad de México, la legisladora mexicana cuyas fotos falsas terminaron en Only Fans… Ninguna mujer cuenta actualmente con las herramientas para blindarse de estos ataques cibernéticos, dirigidos en un 99% a ellas. A nosotras.
Para Danesi, hay dos vías de regulación. La primera es seguir los estándares europeos, que pautan obligaciones de transparencia a las aplicaciones —como introducir marcas de agua en los contenidos ficticios— y limitar las redes sociales. “Es ahí donde se viralizan y donde generan más dolor a las mujeres”, añade. La segunda forma es ir blindando estos derechos de manera colateral. “Tenemos que hablar de cómo restringir cualquier plataforma de difusión”. Es decir, encontrar herramientas que localicen el contenido ficticio y usar algoritmos para que no se difundan como la pólvora y no al contrario, que es lo que sucede a las mujeres. También a Villalobos. El primer pantallazo que recibió como prueba era la imagen de dos grupos de WhatsApp y Telegram, con unos 1.800 usuarios en cada uno. Después, decenas de llamadas que lo habían visto en otras redes. Hasta que dejó de preguntar. “Solo quiero olvidarlo”, zanja.

ÚLTIMAS NOTICIAS