IComenzó con un correo electrónico anónimo. “Realmente lamento muchísimo comunicarme con usted”, decía. Debajo de las palabras había tres enlaces a un foro de Internet. “Gran advertencia de activación… Contienen imágenes lascivas tuyas retocadas con Photoshop”.
Jodie (no es su nombre real) se quedó helada. En el pasado, la joven de 27 años de Cambridgeshire había tenido problemas con personas que robaban sus fotos para configurar perfiles de citas y cuentas de redes sociales. Lo había denunciado a la policía, pero le dijeron que no podían hacer nada, así que lo dejó en el fondo de su mente.
Pero este correo electrónico, del 10 de marzo de 2021, fue imposible de ignorar. Hizo clic en los enlaces. “Fue como si el tiempo se hubiera detenido”, dijo. “Recuerdo haber dejado escapar un gran grito. Me derrumbé por completo”.
El foro, un sitio web pornográfico alternativo, contenía cientos de fotos suyas (sola, de vacaciones, con sus amigos y compañeros de casa) junto con comentarios que las llamaban “zorras” y “putas” y pedían a la gente que las calificara o fantaseara con lo que hacían. lo harían.
La persona que publicó las imágenes también había compartido una invitación a otros miembros del foro: usar fotos de Jodie completamente vestida, tomadas de su Instagram privado, para crear “deepfakes” sexualmente explícitos: contenido alterado digitalmente creado con inteligencia artificial.
“Nunca había hecho esto antes, pero me ENCANTARÍA verla falsificada… Feliz de charlar/mostrarles más de ella también… :D”, habían escrito. En respuesta, los usuarios publicaron sus creaciones: cientos de imágenes y vídeos sintéticos que muestran el cuerpo de una mujer con el rostro de Jodie. Algunos mostraban su imagen en el aula, vestida de colegiala y siendo violada por un profesor. Otros la mostraron completamente “desnuda”. “Estaba teniendo relaciones sexuales con cada uno de ellos”, dijo. “La conmoción y la devastación me persiguen hasta el día de hoy”.
Las imágenes falsas, que ahora han sido eliminadas, se encuentran entre un número creciente de fotografías y videos sintéticos y sexualmente explícitos que se crean, comercializan y venden en línea en Gran Bretaña y en todo el mundo, en aplicaciones de redes sociales, en mensajes privados y a través de plataformas de juegos. así como en foros para adultos y sitios pornográficos.
La semana pasada, el gobierno anunció una “represión” contra los deepfakes explícitos, prometiendo ampliar la ley actual para tipificar como delito la creación de imágenes sin consentimiento, así como compartirlas, lo cual es ilegal desde enero de 2024. Pero solicitar deepfakes – conseguir alguien que los haga por usted no está cubierto. El gobierno también debe confirmar aún si el delito se basará en el consentimiento (lo que los activistas dicen que debe ser) o si las víctimas tendrán que demostrar que el perpetrador tuvo intenciones maliciosas.
En la sede de Revenge Porn Helpline, en un parque empresarial en las afueras de Exeter, Kate Worthington, de 28 años, una practicante de alto nivel, dice que se necesitan desesperadamente leyes más estrictas, sin lagunas.
La línea de ayuda, lanzada en 2015, es un servicio exclusivo para víctimas de abuso de imagen íntima, financiado en parte por el Ministerio del Interior. Los casos de deepfake están en su punto más alto: los informes de abuso de imágenes sintéticas han aumentado un 400% desde 2017. Pero siguen siendo pequeños en proporción al abuso de imágenes íntimas en general: hubo 50 casos el año pasado, lo que representa alrededor del 1% del total. carga de casos. La razón principal de esto es que no se reportan muchos casos, dice Worthington. “Muchas veces, la víctima no tiene idea de que sus imágenes han sido compartidas”.
El equipo ha notado que muchos perpetradores de abuso de imágenes deepfake parecen estar motivados por la “cultura del coleccionista”. “A menudo no se hace con la intención de que la persona sepa”, dice Worthington. “Se está vendiendo, intercambiando, intercambiando por gratificación sexual o por estatus. Si eres tú quien encuentra este contenido y lo comparte, junto con los identificadores de Snap, los identificadores de Insta y los perfiles de LinkedIn, es posible que seas glorificado”. Muchos se crean utilizando aplicaciones de “nudificación”. En marzo, la organización benéfica que gestiona la línea de ayuda sobre pornografía vengativa informó de 29 servicios de este tipo a Apple, que los eliminó.
En otros casos, se han utilizado imágenes sintéticas para amenazar o humillar directamente a las personas. La línea de ayuda ha escuchado casos de niños jóvenes que crean imágenes falsas de incesto de parientes femeninas; de hombres con adicciones a la pornografía que crean imágenes sintéticas de sus parejas realizando actos sexuales que no dieron su consentimiento en la vida real; de personas a las que les tomaron fotografías en el gimnasio que luego se convirtieron en videos deepfake, para que pareciera que estaban teniendo relaciones sexuales. La mayoría de los destinatarios –pero no todos– son mujeres. Alrededor del 72% de los casos de deepfake vistos por la línea de ayuda involucraban a mujeres. La mayor tenía unos setenta años.
También ha habido varios casos de mujeres musulmanas que fueron atacadas con imágenes deepfake en las que vestían ropa reveladora o se les quitaba el hijab.
Independientemente de la intención, el impacto suele ser extremo. “Estas fotos son muy realistas, a menudo. Tu colega, tu vecina o tu abuela no notarán la diferencia”, dice Worthington.
La línea de ayuda sobre pornografía de venganza puede ayudar a las personas a eliminar las imágenes abusivas. Amanda Dashwood, de 30 años, que ha trabajado en la línea de ayuda durante dos años, dice que ésta suele ser la prioridad de quienes llaman. “Es, 'Dios mío, por favor ayúdame, necesito quitar esto antes de que la gente lo vea'”, dice.
Ella y sus colegas del equipo de la línea de ayuda (ocho mujeres, en su mayoría menores de 30 años) tienen varias herramientas a su disposición. Si la víctima sabe dónde se publicó su contenido, el equipo emitirá una solicitud de eliminación directamente a la plataforma. Algunos ignoran las solicitudes por completo. Pero la línea de ayuda tiene asociaciones con la mayoría de las principales, desde Instagram y Snapchat hasta Pornhub y Onlyfans, y el 90% de las veces logra eliminarla.
Si la víctima no sabe dónde se publicó el contenido, o sospecha que se ha compartido más ampliamente, le pedirá que envíe una selfie y la ejecute a través de tecnología de reconocimiento facial (con su consentimiento), o utilizará la búsqueda inversa de imágenes. herramientas. Las herramientas no son infalibles, pero pueden detectar material compartido en la web abierta.
El equipo también puede recomendar medidas para evitar que se vuelva a publicar contenido en línea. Dirigirán a las personas a un servicio llamado StopNCII, una herramienta creada con financiación de Meta por SWGFL, la organización benéfica de seguridad en línea bajo la cual también se encuentra la línea de ayuda para la pornografía de venganza.
Las personas pueden subir fotos (reales o sintéticas) y la tecnología crea un hash único, que se comparte con plataformas asociadas, incluidas Facebook, Instagram, TikTok, Snapchat, Pornhub y Reddit (pero no X o Discord). Si alguien intenta cargar esa imagen, se bloquea automáticamente. Hasta diciembre, se han aplicado hash a un millón de imágenes y se han bloqueado preventivamente 24.000 cargas.
Algunos también lo denuncian a la policía, pero la respuesta varía drásticamente según la fuerza. A las víctimas que intentan denunciar el abuso de imágenes sintéticas se les ha dicho que la policía no puede ayudar con las imágenes editadas o que el procesamiento no sería de interés público.
Sophie Mortimer, directora de la línea de ayuda, recuerda otro caso en el que la policía dijo “no, ese no eres tú; ese es alguien que se parece a ti” – y se negó a investigar. “A veces parece que la policía busca razones para no investigar este tipo de casos”, dice Mortimer. “Sabemos que son difíciles, pero eso no niega el daño real que se está causando a la gente”.
En noviembre, Sam Millar, subjefe de policía y director estratégico para la Violencia contra las Mujeres y las Niñas en el Consejo de Jefes de la Policía Nacional, dijo en una investigación parlamentaria sobre el abuso de imágenes íntimas que estaba “profundamente preocupada” por la falta de comprensión de los agentes sobre la situación. legislación e inconsistencias en los casos. “Incluso ayer, una víctima me dijo que estaba conversando con 450 víctimas de imágenes deepfake, pero que sólo dos de ellas habían tenido una experiencia policial positiva”, dijo.
Para Jodie, la necesidad de una mayor concienciación sobre el abuso de los deepfake (tanto entre el público como entre la policía) es clara.
Después de que la alertaran sobre sus deepfakes, pasó horas revisando las publicaciones, tratando de reconstruir lo que había sucedido.
Se dio cuenta de que no los había compartido un extraño sino su amiga cercana. Alex Woolfgraduado de Cambridge y ex joven compositor del año de la BBC. Había publicado una foto de ella donde estaba recortado. “Sabía que no había publicado esa foto en Instagram y solo se la había enviado a él. Fue entonces cuando cayó la moneda”.
Después de que Jodie y las otras mujeres pasaron horas revisando material gráfico de ellas mismas y le entregaron a la policía un USB con 60 páginas de evidencia, Woolf fue acusado.
Posteriormente fue declarado culpable y condenado a 20 semanas de prisión suspendida con requisitos de rehabilitación y 150 horas de trabajo no remunerado. El tribunal le ordenó pagar una indemnización de 100 libras esterlinas a cada una de las 15 víctimas y borrar todas las imágenes de sus dispositivos. Pero la condena (15 cargos por enviar mensajes extremadamente ofensivos, indecentes, obscenos o amenazantes) se relacionaba con la naturaleza despectiva de las publicaciones, más que con su solicitud de las imágenes sintéticas en sí.
Jodie es muy crítica con la policía. “Desde el principio, sentí que no se tomaban el abuso en serio”, dice. Ella dice que también enfrentó una “batalla cuesta arriba” con el foro para eliminar las imágenes sintéticas.
Pero su mayor preocupación es que falta la ley misma. Si Woolf no hubiera publicado los comentarios gráficos, es posible que no hubiera sido condenado. Y según la ley propuesta por el gobierno (basada en los detalles que ha publicado hasta ahora), su acto de solicitar imágenes falsas de Jodie no sería un delito específico.
El Ministerio de Justicia ha dicho que ayudar a alguien a cometer un delito ya es ilegal, lo que incluiría la solicitación. Pero Jodie dijo: “Tiene que ser hermético y blanco y negro para que el CPS tome una decisión sobre los cargos. Entonces, ¿por qué permitiríamos que existiera esta laguna jurídica?
Ella está pidiendo al gobierno que adopte otra ley: un proyecto de ley de un miembro privado presentado por la baronesa Owen, elaborado con activistas, que garantiza que la creación de deepfake se base en el consentimiento e incluya un delito de solicitación. El llamado ha sido respaldado por la Coalición para poner fin a la violencia contra las mujeres y organizaciones benéficas como Refuge, así como la línea de ayuda sobre pornografía de venganza.
Lo que Jodie espera que la gente se dé cuenta, en todo caso, es del “impacto monumental” que puede tener el abuso de los deepfake. Tres años después, habla usando un seudónimo porque si usa su nombre real, corre el riesgo de ser atacada nuevamente. Aunque se eliminaron las imágenes originales, dijo que vive con un “miedo constante” de que algunas todavía puedan estar circulando en alguna parte.
También ha afectado sus amistades, relaciones y su visión de los hombres en general. “Para mí fue la máxima traición por parte de alguien en quien realmente confiaba”, dice. Lo que muchos no se dan cuenta es que “es gente normal la que hace esto”, añade. No se trata de “monstruos o bichos raros”. Son personas las que viven entre nosotros: nuestros colegas, socios, amigos”.