
Hace apenas pocos años la incapacidad de la IA para crear representaciones anatómicamente correctas de los cuerpos humanos era motivo de escarnio en internet. Sin embargo, en el contexto actual, las aberraciones humanoides con decenas de dientes extra y falanges inconexas quedaron muy atrás. Ahora, con sólo ingresar una fotografía y algunas instrucciones, diversas aplicaciones de inteligencia artificial generativa tienen la capacidad de replicar la imagen y semejanza de cualquier persona.
En los primeros días del 2026, el debate en torno a las posibles implicaciones éticas de esta tecnología adquirió un sentido de urgencia para muchas personas, a raíz de la detección de una tendencia en X. Muchos usuarios utilizaron al chatbot de inteligencia artificial, Grok, para crear miles de imágenes hipersexualizadas de mujeres por hora.
Las imágenes involucraron, de manera predominante, mujeres que no consintieron a que las fotografías que publican en sus perfiles de redes sociales fueran modificadas. Con instrucciones como “cámbiale la ropa por un microbikini en el que sus senos se derramen”, “cúbrela de aceite para bebé” o “ponla de rodillas y agrega líquido blanco a su rostro”, los solicitantes, casi en su totalidad hombres, saturaron X de estas imágenes.
Es importante señalar que, al principio, la plataforma no implementó estrategias para evitar que Grok cumpliera con los cientos de miles de solicitudes. No fue hasta que gobiernos como el de Reino Unido amenazaron con vetar a la red social de sus países, que X llevó a cabo una débil y controversial medida: convertir la generación de imágenes de su IA en una característica premium. El hombre más rico del mundo y dueño de X, Elon Musk, quien en los días previos compartió posts que tomaban la tendencia a broma, acusó a los críticos de Grok de “buscar cualquier excusa para la censura”.
Un cuchillo también es una herramienta
La manipulación digital no consentida de fotografías de mujeres existe desde hace años. Mucho antes del lanzamiento de Grok ya era posible encontrar, en ciertos nichos del internet, software especializado para crear lo que se conoce como “deep fake”, es decir, simulaciones digitales hiperrealistas con fines pornográficos. Las primeras víctimas fueron mujeres famosas, en particular actrices, modelos, activistas y políticas, cuyas fotos eran editadas para representar situaciones desde desnudos parciales y posiciones sexuales hasta orgías y violaciones en grupo.
Según un estudio de la compañía Deep Trace, ya en el año 2019, 96 % de estas manipulaciones digitales eran pornografía no consensuada por las mujeres que aparecían en ellas. Para contrastar, las falsificaciones sin contenido sexual explícito tenían como objetivo primordial a hombres, en especial políticos. Hace poco, Henry Ajder declaró para Business Insider que, aunque el porcentaje ha cambiado en el tiempo transcurrido, con la popularización de herramientas de IA como Midjourney, Dall-e y Stable Diffusion, el volumen de deep fakes de mujeres hipersexualizadas sin consentimiento ha crecido de manera exponencial.
Como indican Laura Márquez y Alejandro Pisanty, a comparación de otras formas de manipulación de la imagen, los méritos de la IA son: mayor escala, mayor velocidad, mayor dificultad de rastreo y mayor verosimilitud del contenido que genera. El caso de Grok demostró que todo aquel que tenga acceso a internet puede utilizar alguna de las múltiples apps de inteligencia artificial que lo permiten y se benefician de ello.
Imágenes falsificadas, abusos reales
Si se trata de simulaciones, si esos no son cuerpos “reales”, y tanto víctimas como agresores lo saben, ¿por qué tantas personas, en especial mujeres, reportan sentirse agredidas, avergonzadas y hasta humilladas por ellas?
Aunque la discusión en torno a esta forma de violencia digital es reciente, cada vez más investigadores, activistas y víctimas conceptualizan la práctica dentro del abuso sexual basado en imágenes. Dicha clasificación se construye alrededor de tres tipos de comportamiento que adquieren la condición de abuso al no ser consentidos: crear fotos sexualizadas, ya sea tomando fotos con una cámara o falsificándolas; compartir dichas imágenes; y amenazar con divulgarlas.
Las reacciones de las víctimas de este tipo de violencia varían. Sin embargo, por sí solo, crear y compartir imágenes íntimas de una persona sin su consentimiento, representa un atentado intrínseco a sus derechos fundamentales, a la dignidad, privacidad, libertad de expresión sexual y autonomía. Los estudios sobre el tema sugieren que las víctimas de deep fakes pornográficos pueden experimentar estragos psicológicos y sensaciones similares a los de quienes han vivido experiencias no consentidas con imágenes íntimas auténticas.
Sin importar el grado de desnudez o lo explícito de los actos sexuales, estas imágenes manipuladas tienen la capacidad de evocar sensaciones de transgresión de la autonomía corporal en las víctimas dado que aparecer en ellas no es una decisión tomada libremente, si no que es determinada por la voluntad de otro(s).
Cuando una víctima es violentada por la creación y diseminación de estas imágenes, aunque sean falsificadas, el terror y la humillación se siente reales porque hay una manipulación forzada de la identidad.
El daño potencial del abuso basado en falsificaciones digitales íntimas tiene implicaciones psicológicas, pero también se manifiesta en el ámbito social. Distintas víctimas reportan haber sufrido consecuencias negativas en sus relaciones interpersonales, así como dificultades para conseguir empleo después de que estas imágenes sexualizadas fueron compartidas en el internet. Como indican las investigaciones, el sector poblacional que padece las consecuencias sociales de los deep fakes con más frecuencia son las mujeres. Estragos que se potencializan cuando las víctimas son, a su vez, miembros de otros sectores vulnerables como la comunidad LGBT y las minorías raciales y étnicas.
Lo que hace posible que la violencia sexual basada en imágenes transtorne la relación de las mujeres con su entorno no es, de ninguna manera, que la desnudez o el sexo sean negativos o humillantes por derecho propio. El problema tampoco es, como manifestaron algunos usuarios de “X”, que las mujeres compartan sus fotografías en redes sociales.
Aunque las herramientas para llevar a cabo el abuso son nuevas, al centro de este problema se encuentran dinámicas analizadas desde hace décadas, como la condena social sobre la sexualidad femenina y su simultánea hipersexualización. En este sentido, esta forma de abuso tiene como principal objetivo a las mujeres porque es parte de un universo de violencias sexuales interrelacionadas (también llamado “cultura de la violación”) que surgen a raíz de, y al mismo tiempo sostienen, las estructuras sociales que permiten sistematizar la opresión con base en el género.
Los partidarios de la tecnocracia han querido vender al desarrollo tecnológico como la solución a todos nuestros problemas. Pero si el contexto digital actual es indicativo de algo, es que mientras nuestra sociedad siga sin erradicar los sesgos que permiten la desigualdad, las herramientas que creamos tendrán la capacidad de perpetuarla.
Medidas a tomar en cuenta
Después de semanas de presión por parte de usuarios, figuras políticas y medios de comunicación, el 14 de enero X anunció que implementaría restricciones para prevenir la creación de imágenes íntimas no consensuadas, en particular material de abuso infantil. Sin embargo, el caso de Grok es sólo la punta del iceberg de las maneras en que el espacio digital se vuelve más hostil para las mujeres. Si conceptos como “sextorsión” “pornovenganza” y “deep fake” tienen cada vez mayor eco, estamos obligados a desafiar los estatutos de la cultura de la violación creando estrategias educativas en contra de la violencia digital.
En México, la creación y divulgación sin consentimiento de material íntimo simulado está incluido en la definición de violencia digital de la Ley General de Acceso de Las Mujeres a una Vida Libre de Violencia, como parte de las reformas legislativas (Ley Olimpia) que reconocen la violencia en los espacios digitales y buscan sancionarla.
Sin embargo, en un país señalado por su alto índice de impunidad en los casos de violencia hacia las mujeres por organizaciones como Amnistía Internacional, es necesario pensar en estrategias estatales que impliquen regular todas las herramientas y plataformas que permiten el abuso sexual basado en imágenes.
Contrario a lo que alega Musk, mientras la Inteligencia Artificial tenga la capacidad de ser un accesorio para la proliferación del abuso, regular no es censura. Es un deber de las naciones, que están obligadas por distintos mecanismos de derechos humanos y tratados internacionales a implementar estrategias para proteger a las mujeres de todas las formas que puede llegar a tomar la violencia de género.
Karla Iñiguez
Gestora y promotora cultural especialista en perspectiva de género