El porno deepfake está arruinando la vida de las mujeres. Ahora la ley puede finalmente prohibirlo.


Después de años de activistas que luchan para proteger a las víctimas de violencia sexual basada en imágenes, los deepfakes finalmente están obligando a los legisladores a prestar atención.

Helen Mort no podía creer lo que estaba escuchando. Había fotos de ella desnuda pegadas en un sitio porno, le dijo un conocido. Pero nunca en su vida había tomado o compartido fotos íntimas. ¿Seguramente debe haber algún error? Cuando finalmente reunió el valor para mirar, se sintió asustada y humillada.

Mort, poeta y locutor de Sheffield, Reino Unido, fue víctima de una campaña de pornografía falsa. Lo que más la sorprendió fue que las imágenes estaban basadas en fotos, fechadas entre 2017 y 2019, que habían sido tomadas de sus cuentas privadas de redes sociales, incluida una Facebook perfil que había eliminado.

El perpetrador había subido estas imágenes no íntimas (fotos de vacaciones y embarazo e incluso fotos de ella cuando era adolescente) y alentó a otros usuarios a editar su rostro en fotografías pornográficas violentas. Mientras que algunos estaban mal hechos con Photoshop, otros eran escalofriantemente realistas. Cuando comenzó a investigar lo que había sucedido, aprendió un nuevo término: deepfakes, que se refiere a los medios generados y manipulados por IA.

Helen Mort

“Realmente te hace sentir impotente, como si te pusieran en tu lugar”, dice. “Castigada por ser mujer con voz pública de cualquier tipo. Esa es la mejor forma en que puedo describirlo. Está diciendo: ‘Mira: siempre podemos hacerte esto’ “.

Las revelaciones la llevarían a una frustrante búsqueda de recursos. Llamó a la policía, pero el oficial dijo que no podían hacer nada. Ella consideró salir de la web por completo, pero es crucial para su trabajo.

Ella tampoco tenía idea de quién habría hecho esto. Estaba aterrorizada de que fuera alguien a quien consideraba cercano. Comenzó a dudar de todos, pero lo más doloroso fue que comenzó a dudar de su exmarido. Son buenos amigos, pero el abusador había usado su nombre de pila como seudónimo. “No es él, absolutamente no. Pero es realmente triste ”, dice. “El hecho de que estuviera pensando en eso era una señal de cómo empiezas a dudar de toda tu realidad”.

Si bien los deepfakes han recibido una enorme atención por sus posibles peligros políticos, la gran mayoría de ellos se utilizan para atacar a las mujeres. Sensity AI, una empresa de investigación que ha rastreado videos deepfake en línea desde diciembre de 2018, ha encontrado constantemente que entre el 90% y el 95% de ellos son pornografía no consensual. Alrededor del 90% de eso es pornografía no consensual de mujeres. “Este es un problema de violencia contra las mujeres”, dice Adam Dodge, fundador de EndTAB, una organización sin fines de lucro que educa a las personas sobre el abuso habilitado por la tecnología.

En sus consecuencias, este tipo de violación puede ser tan devastador como el porno de venganza: fotos íntimas reales publicadas sin consentimiento. Esto tiene un costo bien documentado para las víctimas. En algunos casos, han tenido que cambiar sus nombres. En otros, han tenido que retirarse por completo de Internet. Constantemente temen ser retraumatizados, porque en cualquier momento las imágenes podrían resurgir y volver a arruinar sus vidas.

Afortunadamente, los movimientos paralelos en los EE. UU. Y el Reino Unido están ganando impulso para prohibir el porno deepfake no consensuado. La atención también podría ayudar a prohibir otras formas de violencia sexual basada en imágenes, que anteriormente se han desatendido. Después de años de esfuerzos de los activistas para alertar a los legisladores sobre estas atroces lagunas legales, los deepfakes finalmente los obligan a prestar atención.

“Solo estamos esperando una gran ola”

Deepfakes comenzó con la pornografía. En diciembre de 2017, Samantha Cole, reportera de Motherboard, descubrió que un usuario de Reddit con el nombre de pantalla “deepfakes” estaba utilizando técnicas desarrolladas y de código abierto por investigadores de IA para intercambiar rostros de celebridades femeninas en videos porno. Cole intentó advertir a los lectores: otras mujeres serían las siguientes.

Si bien el problema ganó algo de atención pública, fue principalmente por la novedad de la tecnología. Después de todo, el porno falso de celebridades había estado en Internet durante años. Pero para los defensores que trabajan en estrecha colaboración con las víctimas de violencia doméstica, el desarrollo fue motivo inmediato de alarma. “Qué herramienta perfecta para alguien que busca ejercer poder y control sobre una víctima”, dice Dodge.

Se ha vuelto demasiado fácil hacer desnudos profundos de cualquier mujer. Las aplicaciones para este propósito expreso han surgido repetidamente a pesar de que han sido rápidamente prohibidas: hubo DeepNude en 2019, por ejemplo, y un bot de Telegram en 2020. El código subyacente para “desnudar” las fotos de mujeres sigue existiendo en abierto -repositorios de fuentes.

Como resultado, el alcance del abuso ha crecido: ahora los objetivos no son solo celebridades e influencers de Instagram, sino personas privadas, dice Giorgio Patrini, director ejecutivo y científico jefe de Sensity. En el caso del bot de Telegram, Sensity descubrió que había habido al menos 100,000 víctimas, incluidas niñas menores de edad.

Los defensores también se preocupan por las populares aplicaciones deepfake que están hechas para propósitos aparentemente inofensivos como el intercambio de caras. “No es un gran salto de imaginación pasar de ‘puedo poner mi cara en la cara de una estrella en un clip de una película’ a ‘puedo poner la cara de otra persona en algo pornográfico’”, dice Sophie Mortimer, quien dirige el Línea de ayuda de Revenge Porn, una organización sin fines de lucro del Reino Unido.

En el contexto de la pandemia, esta tendencia es aún más preocupante. Mortimer dice que el número de casos de la línea de ayuda casi se ha duplicado desde el inicio del cierre. Las relaciones abusivas existentes han empeorado y el abuso digital ha experimentado un repunte a medida que las personas se han vuelto cada vez más aisladas y pasan más tiempo en línea.

Si bien solo se ha encontrado con algunos casos de pornografía de venganza con Photoshop, sabe que la llegada de sus equivalentes deepfake solo será cuestión de tiempo. “La gente ha tenido más tiempo para aprender a usar parte de esta tecnología”, dice. “Es como si estuviéramos conteniendo la respiración y solo estuviéramos esperando a que se estrellara una gran ola”.

“El 80% no tiene idea de lo que es un deepfake”

Hoy en día existen pocas opciones legales para las víctimas de pornografía deepfake no consensuada. En los EE. UU., 46 estados tienen alguna prohibición sobre la pornografía de venganza, pero solo Virginia y California incluyen medios falsos y profundos. En el Reino Unido, la pornografía de venganza está prohibida, pero la ley no incluye nada que haya sido falsificado. Más allá de eso, ningún otro país prohíbe la pornografía falsa no consensual a nivel nacional, dice Karolina Mania, una académica legal que ha escrito sobre el tema.

Esto deja solo una pequeña parte de las leyes civiles y penales existentes que pueden aplicarse en situaciones muy específicas. Si se saca el rostro de una víctima de una foto con derechos de autor, es posible utilizar la ley de propiedad intelectual. Y si la víctima puede demostrar la intención de daño del perpetrador, es posible utilizar la ley de acoso. Pero reunir tales pruebas a menudo es imposible, dice Mania, y no deja remedios legales para la gran mayoría de los casos.

Esto fue cierto para Mort. El abusador, que no había creado las imágenes pornográficas personalmente y no usó el nombre real de Mort, había caminado una línea cuidadosa para evitar cualquier acción considerada ilegal según la ley de acoso del Reino Unido. Las publicaciones también se habían detenido un año antes de que ella se enterara de ellas. “Cualquier cosa que pudiera haber hecho posible decir que se trataba de un acoso selectivo destinado a humillarme, casi lo evitaban”, dice.

Hay una miríada de razones por las que tales abusos caen por las grietas de la ley existente. Por un lado, los deepfakes todavía no son una tecnología conocida. Dodge organiza regularmente sesiones de capacitación para jueces, profesionales de la salud mental, funcionarios encargados de hacer cumplir la ley y educadores, o cualquier otra persona que pueda encontrar y apoyar a las víctimas de la pornografía no consensual. “Independientemente de la audiencia”, dice, “yo diría que el 80% no tiene idea de lo que es un deepfake”.

Por otro lado, pocas víctimas se han presentado debido a la vergüenza y el acoso que pueden seguir. Mort ya ha sido trolleada desde que compartió su experiencia públicamente. “Hablar de estas cosas abre la puerta a más abusos”, dice. “Además, cada vez que lo haces, tienes que revivir la cosa de nuevo”.

Noelle Martin, quien se convirtió en activista después de descubrir a los 18 años que había sido víctima de una campaña de pornografía falsa, fue posteriormente atacada con una campaña de pornografía falsa más elaborada. El hecho de que la pornografía falsa y falsa sea intrínsecamente falsa tampoco reduce el volumen de culpabilización de la víctima.

Esto dificulta que los políticos comprendan el alcance del problema. Charlotte Laws, una defensora de toda la vida que aprobó con éxito una legislación para prohibir la pornografía de venganza en California (el segundo estado en hacerlo), dice que las historias de las víctimas son cruciales para generar voluntad política. Cuando la pornografía de venganza no se consideraba un problema, ella traía archivos de “dos pulgadas de grosor” con casos de víctimas que habían sufrido daños tangibles en sus carreras y vidas personales, incluida su hija adolescente. Cuando otra adolescente, Audrie Pott, se suicidó en el norte de California después de que se publicaran fotos de ella desnuda sin su consentimiento, los legisladores de California finalmente se movilizaron, lo que provocó una ola de leyes estatales en todo el país. “Esas historias deben salir a la luz, porque eso es lo que toca a la gente”, dice Laws. “Eso es lo que hace que la gente actúe”.

Sin embargo, la tecnología es difícil de regular, en parte porque hay muchos usos legítimos de los deepfakes en el entretenimiento, la sátira y la protección de los denunciantes. Ya, los proyectos de ley deepfake anteriores presentados en el Congreso de los Estados Unidos ya han recibido un retroceso significativo por ser demasiado amplios.

“Se trata de recuperar el poder”

Aquí están las buenas noticias: la marea parece estar cambiando. La Comisión de Derecho del Reino Unido, un organismo académico que revisa las leyes y recomienda reformas cuando es necesario, está examinando las relacionadas con el abuso en línea. Planea publicar un borrador de recomendaciones en las próximas semanas para su consulta pública. Los activistas esperan que esto finalmente amplíe la prohibición del porno de venganza para incluir todas las formas de imágenes y videos íntimos falsos. “Creo que ha sido un ejercicio muy completo”, dice Mortimer, quien ha estado consultando con la comisión para compartir las historias de las víctimas de forma anónima. “Soy cautelosamente optimista”.

Si el Reino Unido avanza con la prohibición, se convertiría en el primer país en hacerlo, engrasando las ruedas para que Estados Unidos siga su ejemplo. Los EE. UU. Y el Reino Unido a menudo se reflejan entre sí porque tienen una estructura de derecho común similar, dice Mania. Y si EE.UU. toma medidas, es probable que la UE también lo haga.

Por supuesto, todavía habrá grandes obstáculos. Una diferencia clave entre los EE. UU. Y el Reino Unido es la Primera Enmienda: uno de los mayores obstáculos para aprobar una prohibición federal de la pornografía por venganza es que se percibe que infringe la libertad de expresión, dice Rebecca Delfino, profesora de derecho en la Universidad Loyola Marymount. Charlotte Laws se hace eco de esta evaluación. Ahora ha trabajado con miembros del Congreso de los Estados Unidos para presentar un proyecto de ley para prohibir la pornografía de venganza tres veces, pero todos esos esfuerzos se agotaron en medio de las preocupaciones de la Primera Enmienda.

Pero los deepfakes también representan una interesante oportunidad legislativa porque los legisladores están muy preocupados por la capacidad de la tecnología para interferir en las elecciones. En 2019, la Representante Yvette Clarke presentó la Ley de Responsabilidad de Deepfakes con esto en mente. Ella reunió los castigos por la interferencia electoral y el recurso para las personas que sufren daños personales, como la pornografía no consensuada. El proyecto de ley se estancó, pero ella dice que se está preparando para reintroducir una versión revisada en unas pocas semanas. “La rápida adopción de tecnología, el uso de las redes sociales, durante esta pandemia, hace que las condiciones sean propicias para aprobar una legislación muy falsa significativa”, dice.

La vicepresidenta Kamala Harris también ha sido durante mucho tiempo defensora de la prohibición federal de la pornografía de venganza, que podría movilizar más apoyo. “Estamos en un nuevo Congreso”, dice Clarke. “Hay miembros del Congreso, tanto del Senado como de la Cámara, que reconocen lo que es esta amenaza para nuestra forma de vida y cómo ya se ha utilizado para abusar de las mujeres”.

En cuanto a Mort, ella dice que ver este impulso ha hecho que valga la pena avanzar. Ahora está hablando con su miembro del Parlamento local, compartiendo su experiencia y ayudando a trazar un mapa de lo que se puede hacer. “Me siento parte de un movimiento. Eso es realmente importante para mí ”, dice.

Unos días después de publicar una petición en Change.org, también publicó un nuevo video. Recitó un poema que había escrito, nacido de su trauma. Fue catártico, dice, convertir esta fealdad en arte: “Se trata de recuperar el poder”.

.



Source link