Olimpia Coral Melo: «La Inteligencia Artificial automatiza, sistematiza y facilita la violación de nuestros cuerpos»

En la era del progreso tecnológico, el mundo enfrenta una crisis silenciosa pero devastadora: la violencia sexual digital potenciada por Inteligencia Artificial (IA). Lo que antes requería una cámara o una traición a la intimidad, hoy se ha convertido en una agresión automatizada donde las identidades de miles de mujeres son secuestradas por algoritmos. Olimpia Coral Melo, la mujer que transformó su propia tragedia en una ley que hoy es referente mundial, advierte que no estamos ante un simple avance, sino ante la sistematización de un “algoritmo patriarcal” que ha encontrado en la IA la forma más barata y masiva de mercantilizar el cuerpo femenino.

Olimpia no habla desde la teoría, sino desde la supervivencia. Tras ser víctima de la difusión de un video íntimo sin su consentimiento en su natal Puebla, México, pasó de la depresión y el asedio social a liderar un conjunto de reformas legislativas que sancionan la violencia digital en México, Argentina y ahora exporta su modelo a otros países. Así, pasó a ser una de las 100 personas más influyentes del mundo según la revista Time. Hoy, su “Ley Olimpia” es el escudo legal de millones y su voz la de una sobreviviente que disecciona con honestidad cómo la tecnología está siendo utilizada para industrializar el daño.

En esta entrevista para DESPACHO 505, Olimpia denuncia cómo la IA está creando una "fábrica de violencia" donde ya no se necesita una cámara para destruir la vida de una mujer. Herramientas de diseño y redes sociales permiten que cualquier usuario "desnude" o modifique el cuerpo de una mujer en segundos. 

En ese sentido, critica a las grandes compañías tecnológicas que evaden su responsabilidad al no tener oficinas jurídicas regionales en América Latina para ser emplazadas o procesadas. Explica que, aunque existan leyes, si los servidores están en Estados Unidos o China, la mujer latinoamericana queda en total desventaja geopolítica ante el "imperio digital".

Desde su visión como sobreviviente, Olimpia es honesta: hoy no existe una reparación total del daño. A diferencia de otras violencias, la "máxima publicidad" de internet hace que la agresión sea permanente. La única solución real, según ella, es "cambiar el código" y "reprogramar la tecnología" para que deje de normalizar la violación masiva de cuerpos.

Olimpia, siempre has dicho que “lo virtual es real”, pero ahora con la inteligencia artificial se fabrican cuerpos y situaciones que nunca ocurrieron. ¿Cómo está cambiando el concepto de violencia sexual cuando el agresor ya no necesita una foto real de la víctima para destruirla socialmente?

Es importante definir primero qué es la violencia digital y por qué es importante para poder identificar el por qué aunque no sea propiamente la imagen, o sea una referencia, o sea una antropomorfización de la persona sigue manteniendo la identidad humana de una persona. Al momento de identificar que esa identidad es humana, estamos hablando de un daño humano, de derechos humanos, estamos hablando de un daño.

Entonces, cuando decimos que lo virtual es real, lo manifestamos y lo entendemos desde una perspectiva en que aunque no lo podamos ver, aunque no lo podamos tocar, aunque no sea tangible para los ojos, aunque no sea tangible para el espectro físico que nosotros conocemos; la violencia digital es una extensión de la violencia sistémica que ya se vive dentro de la socialización humana, o sea, es una extensión de otra violencia que encontró otro ámbito para ejercerse y reproducirse, pero todavía aún más peligroso.

Otra vez en el centro de las condiciones de mayor afectación se encuentran las mujeres y su hipersexualización y su condición de cuerpo, su condición de desventaja sobre el abuso del cuerpo. Entonces, el abuso del cuerpo de las mujeres ha sido milenariamente el usufructo del sistema capitalista, el usufructo del sistema de repartición de bienes, el usufructo del sistema materialista de ver el cuerpo como objeto y no como sujeto de derechos.

¿Cuáles son las formas de violencia sexual digital, potenciadas por la inteligencia artificial que más se están cometiendo? Últimamente hay un “boom” de las “deep fake”, videos, fotos o audios generados mediante IA para imitar de forma muy realista la apariencia o la voz de una persona, generalmente mujeres.

Hoy la violencia que ya conocemos, sistemáticamente o humanamente o materialmente, hoy se reproduce, se sistematiza, se automatiza a través de un algoritmo patriarcal que aprendió de esto para que entonces hoy como resultado tengamos no solamente las “deep fake” como eje toral de lo más que se ha dado —es lo más novedoso que tenemos hoy en día desgraciadamente como afectación a la violación de las mujeres— . 

Sino que hoy tenemos también la reproducción de robots sexuales con identidades humanas, o la reproducción de la antropomorfización de la identidad de una mujer para fines sexuales, o las imágenes infantilizadas de robots sexuales para el goce y disfrute de lo que mal llamamos depredadores sexuales en el sentido de ser pedófilos. Siempre va a existir un eje toral que es ver el cuerpo de la mujer como objeto sexual.

Nuestras identidades terminan siendo completamente borradas, invisibilizadas para convertirse en mercancías para un algoritmo patriarcal que reproduce ya esas enseñanzas que tenemos en los espacios humanos tangibles, porque el el espacio espacio digital es un espacio humano intangible, porque la forma en cómo se reproduce el algoritmo no fue una reproducción espontánea, fue una reproducción programada y la programación es humana.

Entonces, estamos ante la reproducción de lo que ya se ha aprendido materialmente, físicamente humano, hoy trasladado a una herramienta que automatiza y sistematiza la violación de nuestros cuerpos y facilita la violación de nuestros cuerpos. 

Antes la violencia digital solía venir de alguien conocido, pero ahora con la IA vemos formas de violencia o comportamientos masificados y anónimos. ¿Crees que estamos ante una democratización de la violencia donde cualquiera con una aplicación puede ser un victimario?

Sí, es importante entender que hoy en día se masifica y se y se automatiza, pero desgraciadamente el centro de las agresiones son en un 95% más hacia las mujeres. ¿Por qué? Por la diferenciación de la condición de género y de sexo sobre de las mujeres. O sea, no somos consumidoras de los cuerpos desnudos de los hombres. Si hiciéramos una encuesta a groso modo y preguntaran a las mujeres si en sus grupos de WhatsApp, en sus grupos de telecomunicaciones, en sus entornos digitales coleccionan fotos de penes, la gran mayoría de las mujeres te van a decir que no, que no tienen una colección de fotos de penes porque no nos enseñaron a las mujeres a ver los cuerpos de los hombres a goce y disfrute para nosotras como objetos sexuales.

Sin embargo, la sistematización de la violencia patriarcal y machista sí enseñó injustamente a los hombres a ver los cuerpos de las mujeres como objetos sexuales.

Entonces, este es, digamos, la semilla, por la cual es plantada la diferenciación del por qué afecta más a las mujeres, por otra vez la condición de de de ser objetos y no sujetas de derechos y entonces la condición de el atractivo que significa la hipersexualización de niñas, de mujeres, de infancias hacia las tecnologías y la facilitación que tiene estas tecnologías porque encontraron un nicho de mercado.

Explica más en detalle ese punto.

No es un problema moral, no es un problema social nada más. Es un problema económico en donde hay ganancias que se concentran en muy pocos porcentajes de personas que se están beneficiando sobre la violación masiva de los cuerpos. Hay que entender que es una violación masiva de cuerpos.

En las redes sociales, particularmente en X, en nuestra investigación hemos detectado casos en los que los usuarios, particularmente hombres, suben la foto de una mujer y le dicen a IA: "Ponele más tetas o ponele más culo” y la plataforma lo hace en un segundo sin pasar ningún filtro. Esto ocurre no solo en algunas redes, también en herramientas automáticas de diseño o aplicaciones…

Porque está basado en la cultura de la pornificación de nuestros cuerpos. La cultura de la pornificación de nuestros cuerpos exacerba la hipersexualización de los mismos. Otra vez volvemos a sujeto y objeto. Somos históricamente para el sistema objetos sexuales hacia el “modelito sexy” que ha implantado en la pornificación de nuestros cuerpos, hacia el “modelito sexy” que ha implantado la cultura porno. Cultura porno que también fue históricamente una asociación, otra vez, de hombres que decidieron mercantilizar los cuerpos de las mujeres en pro de la liberación. Fue un engaño histórico.

Ahí está la historia de Playboy, ahí está la misma historia de Facebook que los inicios fueron cosificando a las mujeres para obtener ganancias sobre sus cuerpos y que esta línea delgada entre empoderamiento y liberación causa una confusión hoy en día a niñas, adolescentes, que utilizan herramientas como TikTok, que utilizan herramientas tecnológicas propias de su edad que lanzan discursos engañosos, tramposos con la falsa narrativa de empoderamiento bajo la explotación de sus cuerpos.

Esto, ojo, no significa que las mujeres que ellas propiamente se hipersexualizan o se sexualizan o tienen cuentas de sexualización, significa que ellas sean las productoras de su propia violencia. No, no es así. Otra vez, repito, el problema no es moral, el problema es económico. El problema es por qué la tecnología y por qué el algoritmo está poniendo como única oferta para el autofinanciamiento de las mujeres, para la autonomía económica de las mujeres, la pornificación de sus cuerpos, la explotación de sus cuerpos, porque alguien se beneficia.

Y nosotras otra vez somos el producto de ese beneficio bajo ningún costo, además, porque si lo vemos, el costo de la inversión de ese negocio es cero. Es simplemente incluso el pensar que es consentimiento, cuando es un consentimiento no autónomo, no libre, no independiente, sino condicionado al esteticismo. De la estética del qué es lo bello, qué es lo que es el modelo sexy, quién es guapa, quién es aceptada.

Entonces, sí es importante entender que esa cultura de la pornificación se beneficia, se automatiza hoy y se mercantiliza hoy bajo un esquema de negocio para otra vez seguir violando cuerpos, pero ahora con un doble discurso. Ahora incluso, fíjate qué grave, con el mismo consentimiento de las mujeres. 

Hablas de la responsabilidad de las compañías tecnológicas. Hay usuarias que sienten que algunas plataformas digitales ignoran sus reportes de violencia con inteligencia artificial cuando son víctimas, por ejemplo, de las “deep fakes”. ¿Qué presión falta ejercer sobre estas compañías para que entiendan que esto es violencia y que una “deep fake” puede costar una vida?

Bueno, en primer lugar creo que es reconocer las leyes de la violencia digital. Desgraciadamente hasta hace algunos años menos del 10% de los países en el mundo tenían regulaciones sobre el reconocimiento de la violencia hecha por las tecnologías. México fue pionero en ponerle un nombre a esta violencia, llamarla violencia digital.

Esta violencia digital para nosotras desde que iniciamos con la lucha de “Ley Olimpia” son los actos agravados y perpetuados a través de las nuevas tecnologías de la información y la comunicación y otros sistemas de programación algorítmica que dañan los derechos humanos de las personas.

Llámese la dignidad, llámese la privacidad, llámese la identidad, llámese la intimidad sexual. O sea, hoy hablamos de la intimidad sexual, que es como el bien tutelado que que que del que hablamos cuando hay deepfake, cuando hay sexo con robots, cuando hay difusión de contenido íntimo no consensuado, pero estamos hablando también de derecho a la identidad cuando se están robando datos biométricos, cuando se están robando condiciones directas de tu propia identidad.

 

 

Aquí hay un problema, porque hay una falta de regulación o actualización de las leyes en materia de violencia para incluir estas nuevas formas. La IA es relativamente nueva. 

La falta de regulación tiene que empezar desde el concepto político de lo que significa la violencia digital creada por las víctimas de violencia digital. No pueden poner los conceptos las empresas digitales porque evaden sus responsabilidades, no puede poner concepto solo el Estado cuando no copartícipe directo de la afectación que se vive, sino nosotras. Desde desde “Ley Olimpia” como movimiento en América Latina proponemos que a partir de la experiencia de las víctimas se construya este concepto de violencia digital. Así es como se construyó este concepto de violencia digital.

A partir de ahí tener sanciones estrictas tanto para quienes la ejercen eh como personas eh eh propiamente identificadas, así como personas no identificadas, pero también para el algoritmo. ¿Qué se requiere? Se requiere medidas estrictas regionalizadas en nuestros países. 

¿A qué me refiero con esto? No están obligadas las empresas digitales en nuestros países a tener, por ejemplo, oficinas jurídicas para el emplazamiento. Aunque tú denuncies y aunque tengamos la Ley Olimpia en toda América Latina, por ejemplo, si tú no conoces a tu agresor, si no fue tu novio, un amigo, una persona cercana, un exnovio, una expareja, quien hizo esa imagen y tenga las pruebas, las pruebas las necesitamos de parte de la empresa digital y punto número uno, las empresas digitales no están obligadas para coadyuvar con las investigaciones de nuestros países.

No hay oficinas regionales jurídicas. Hay oficinas mercantiles, hay oficinas de ventas, hay oficinas de atención, hay oficinas de suposición, incluso hay bancos de datos dentro de nuestros países, pero no hay oficinas regionales donde puedan tener una identidad jurídica para ser emplazados. Y eso es muy importante porque si sus servidores se encuentran en espacios donde se domina la tecnología, principalmente Estados Unidos, Rusia, China, etcétera, no puedes desde América Latina emplazarlos hacia allá y sin contar con las condiciones geopolíticas de desigualdad que implica una mujer en América Latina ante el imperio digital, ante las “big tech”.

Entonces, es importante para nosotras reconocer y que se reconozca que existe un algoritmo patriarcal, concepto que nosotras proponemos como defensoras digitales, que es como esta esta serie de programación en donde intervienen mecanismos de algoritmos de aprendizaje sistematizado que reproducen esquemas de violencia en donde las mujeres son el núcleo para la afectación de este desarrollo tecnológico. 

Hablemos de lo que vive una víctima de violencia digital. ¿Qué le sucede a una mujer cuando ve su cara en un contenido pornográfico creado por por una máquina, por la inteligencia artificial, ¿cómo se sana una herida provocada por algo que técnicamente no existió? 

Voy a contestar en dos vertientes, una como sobreviviente de violencia digital y la otra como activista y defensora de derechos humanos en los espacios digitales.

Como sobreviviente violencia digital, te puedo responder que no existe una reparación. Yo todavía no puedo conocer una reparación del daño porque esta violencia traspasa ámbitos de validez, de afectación. A diferencia, por ejemplo, de un acoso callejero que no es menor, pero un acoso callejero tiene una situación de lugar, de modo. Si pasó en esa calle, a lo mejor dejas de caminar en esa calle, a lo mejor evitas eso, tienes medidas de protección. Pero ante la máxima publicidad, así te vayas a otro país, a lo mejor logres que en tu país se baje el video, logras que ya no la difundan, pero como hay una serie de coparticipaciones, tienes que aprender a vivir con esto, tienes que aprender a vivir como si fueras un objeto, eres presa de de la violación masiva de tu cuerpo.

Lo peor es que no te viola quien la sube nada más. Te viola quien construye toda esta sistematización de violencia, quien la comparte, quien la distribuye, quien la guarda, quien la almacena, quien la reproduce. Entonces, son los sentimientos parecidos a una violación. Yo siempre he dicho que la violencia sexual digital es como si te violaran sin penetrarte físicamente.

Violan tu cuerpo con un clic, violan tu cuerpo con un like, violan tu cuerpo con una inteligencia artificial, violan tu cuerpo con una “deep fake”; y no solo te viola el origen de quien la fabricó, te violan quienes reproducen esta violación y no puedes defenderte ante una violación que parece que no es real porque no es física. Entonces, las reacciones son psicológicas, son físicas, pueden ser incluso psiquiátricas y te pueden llevar incluso hasta la muerte porque te sientes atrapada. 

A lo mejor podrías bajar el contenido, a lo mejor podrías evitar que en tu país se subiera, a lo mejor puedas tener medidas de protección ante la empresa digital, pero cómo controlas la difusión de esa imagen para siempre.

Por eso es que hoy en día no puedo decirte que exista una reparación total del daño ante las víctimas hasta que no cambiemos el código y hasta que no se cambie el algoritmo patriarcal. 

Y como defensora digital, esa es mi respuesta, cambiar el código, cambiar el algoritmo, reprogramar la tecnología, tener medidas estrictas para evitar a toda costa que se siga normalizando socialmente y técnicamente el hecho de violar masivamente los cuerpos de las mujeres.

Llegas mucho a la audiencia a jóvenes, particularmente que hoy son el blanco de la violencia digital potenciada por la IA. ¿Cómo evitar que el miedo a esa violencia digital las expulse de internet o las devuelva al silencio? 

Bueno, primero un mensaje para las que pueden ser víctimas de esta violencia, pero también quiero dar un mensaje a los que podrían ser potenciales agresores. Para las posibles víctimas decirles que no es su culpa en primera instancia, te hacen te hacen sentir culpable, te hacen creer que tú eres culpable por ser mujer, te hacen creer que tú eres culpable por tener redes sociales, te hacen creer que tú eres culpable porque subiste una foto; te hacen creer que tú eres culpable porque no tuviste seguridad digital, te hacen creer que eres culpable por simplemente hecho de que hoy vivimos en un sistema desigual que culpa a las víctimas y no a los agresores, pero no es cierto, es mentira.

Tenemos que levantarnos, que tenemos que revolucionar, que tenemos que hacer incluso o rehacer incluso el código, rehacer incluso la internet, rehacer incluso el algoritmo y si es necesario levantarnos entre todas y entrarle a ser creadoras, a ser programadoras de un nuevo mundo digital en donde aspiremos a lo que nos pasó a nosotras, no le pase a otras mujeres… Tenemos que revelarnos, revelarnos desde el amor, revelarnos desde la organización política y revelarnos desde el no creer la mentira de que somos culpables y que una víctima de violencia digital nunca jamás en la vida va a poder dejar de ser víctima. Tenemos que aspirar a dejar de ser víctimas para ser sobrevivientes. 

Para las víctimas que están sufriendo este tipo de violencia y a lo mejor están pensando en denunciar, desde tu experiencia cuáles son las recomendaciones para documentar una agresión con inteligencia artificial antes de que desaparezca de la red.

Punto número uno, documentar absolutamente todo. No basta con las screenshots  o las capturas de pantalla, tenemos que documentar también los URL, los códigos que salen en las publicaciones. Tenemos que tomar absolutamente toda la documentación que puedas. Yo sé que entramos en pánico, pero tenemos que documentarlo para tener las pruebas necesarias para poder hacerlo.

Dos, tomar los testimonios de otras personas que lo hayan vivido, poder identificar plenamente cuál fue el modus operandi o cuál fue la plataforma por donde tú te enteraste o por donde tú sabes o donde tú fuiste publicada. Es muy importante identificarlas porque hay decenas de ellas y hay que identificarlas, hay que mapearlas.

Tercera, mantener la calma, buscar información. Hoy tenemos una inteligencia artificial que se llama Ley OlimpIA, ahí pueden encontrar pues un protocolo de atención que va desde atención psicológica, atención jurídica, atención digital, técnica. 

Y en los países donde está aprobada Ley Olimpia, pues entender que hay una ley que te protege y en los países donde no está aprobada también entender que hoy también lanzamos una ley modelo interamericana para la violencia digital inspirada en la Ley Olimpia que abona a todos los países de América Latina y que estás protegida, que sí que sí hay soluciones y que aunque el camino es tedioso, sí tenemos que entender que es necesario alzar la voz.