Cada vez más hombres emplean la Inteligencia Artificial para violentar sexualmente a las mujeres en el espacio digital
Como revela la investigación Generación expuesta: jóvenes frente a la violencia sexual digital, un 11,8% de los jóvenes ha creado alguna vez deepfakes de personas de su entorno. Las protagonistas de las imágenes sexuales falsificadas con IA son en más de un 90% mujeres, lo que advierte del claro sesgo de género en la utilización de estas tecnologías.

Madrid--Actualizado a
A mediados del pasado mes de febrero, el Ministerio de Igualdad anunciaba la renovación y ampliación del Pacto de Estado contra la Violencia de Género, un texto innovador aprobado con un apoyo mayoritario en el Congreso. Entre las novedades incluidas figura por primera vez la iclusión de la violencia digital como parte de la violencia machista, de manera que ésta aparecerá tipificada en el Código Penal. Además, el Pacto conformado por 462 medidas para atajar la violencia de género en España, recoge penas penitenciarias para aquellos que elaboren deepfakes pornográficos mediante IA sin consentimiento previo. Esta normativa es histórica, ya que nunca antes se había penalizado por difundir imágenes o vídeos simulando situaciones vejatorias y/o de contenido sexual.
Los deepfakes de índole sexual, que imitan con precisión milimétrica la apariencia física de una persona, así como otras técnicas de ciberdelincuencia, se emplean con frecuencia de cara a violentar a las mujeres en el entorno digital. El patriarcado se ha filtrado también dentro de las pantallas y ahora multitud de agresores se sirven de las herramientas de la IA para perpetuar las violencias que ya cometían en la vida real.
La investigación Generación expuesta: jóvenes frente a la violencia sexual digital, presentada en noviembre del año pasado, refleja que un 13% de los jóvenes españoles ha creado contenido de personas públicas usando inteligencia artificial. Un 11,8%, admite también haber creado deepfakes de gente conocida o de su entorno cercano. Como exhibe la publicación, “este tipo de agresiones son diversas e incluyen la violación de la privacidad (como el sexpreading, compartir y difundir imágenes sexualizadas sin consentimiento), vigilancia (stalkeo), daño a la reputación (sexhumillación), acoso (envío o recepción no solicitada de materiales sexualmente explícitos) y amenazas directas (sextorsión)”. Para ello, pueden llegar a intervenir apps, software espía, trackers, realidad virtual, chatbots sociales, webcams y cámaras o balizas y dispositivos de geolocalización.
Las mujeres son las protagonistas de la mayoría de las fotografías y vídeos que sexualizan: Un informe del Parlamento Europeo revela que alrededor del 90% de estas imágenes están protagonizadas por mujeres, al tiempo que el estudio advierte del claro sesgo de género que presentan estas creaciones falsas.
Los bots de telegram consiguen transformar fotografías normales en otras idénticas con la persona desnuda en cuestión de escasos minutos. La plataforma Sensity AI encontró hace dos años un chatbot (es decir, un chat en el que un programa informático simula el comportamiento humano) que había desnudado al menos a 100.000 mujeres. La celeridad con la que circulan estas imágenes impulsó que algunas plataformas como X o la web pornográfica Pornhub acabaran prohibiendo los deepfakes. Sin embargo, varios verificadores comprobaron que en ambas plataformas se siguen subiendo todos los días videos que hiper sexualizan a través de IA.
“Está aumentando de manera abismal el número de aplicaciones, plataformas, videos, repositorios online, códigos de software, de acceso libre que te enseñan o te facilitan el proceso de desnudar una imagen de, en este caso, una mujer. Si lo pruebas con imágenes de hombre o no funciona o no tiene el mismo resultado, que es otra diferencia de género bastante relevante”, infiere a Público Jacinto Gutiérrez, sociólogo e investigador en el proyecto Divisar. En él, Gutiérrez se dedica a estudiar, junto con otras expertas como Elisa García Mingo y Aida Gallego, las prácticas de violencia sexual digital que tienen lugar en España. “Me interesaba el proceso en el que hay comunidades digitales que están sustrayendo y compartiendo imágenes reales de mujeres sin su consentimiento. Esas comunidades están transformándose a medida que ha habido un mayor desarrollo de la tecnología y han pasado de compartir imágenes reales a producir fotos falsas”, alega.
A través de este tipo de violencia digital facilitada por la IA, la investigadora Núria Bigas señala en un artículo reciente que el agresor “manipula y destruye la reputación de la afectada y, aunque las imágenes no sean reales, el impacto y la repercusión en las víctimas es muy alto”. Además, sostiene en el escrito, “este fenómeno vulnera dos grandes derechos: la protección de datos o privacidad, y también la intimidad, honor y propia imagen”. Quizás uno de los grupos de mujeres que más vulnerabilidad sufre al ser víctima de estos ataques contra su imagen son las adolescentes. Los especialistas en IA recalcan que ya se han dado casos, en institutos de todo el país, donde los alumnos han comenzado a utilizar aplicaciones que permiten desnudar a una persona, normalmente compañeras de su misma clase.
Esas fotografías han acabado compartiéndose en foros y redes sociales. La pervivencia de una cultura patriarcal que reduce a las mujeres a meros objetos sexuales se junta aquí con la ausencia de una educación sexual efectiva. No obstante, el propósito último de la fabricación de imágenes falsas no es siempre humillar o producir vergüenza a las víctimas. En otros contextos, también se aplica para amedrentar a líderes de partidos políticos y a mujeres activistas en todo el mundo. “Cuando te cosifican, te reducen, te quitan la humanidad y es mucho más fácil después ejercer esa violencia porque ya cuentan con tu miedo”, esgrime a este medio Carolina Moreno, abogada especializada en justicia social y codirectora de la Fundación Karisma. Esta organización colombiana lucha activamente por la preservación de los derechos humanos en el entorno de las tecnologías digitales.
Los síntomas psicológicos tras sufrir ciberviolencia son muy similares a los experimentados cuando se difunden imágenes o videos reales de desnudos femeninos: se han reportado múltiples casos de depresiones, transtornos de ansiedad y de la conducta alimentaria (TCA) como resultado de estas violencias digitales. Estas patologías provienen a su vez de problemas de autopercepción en un sistema que sigue extremando la presión estética sobre los cuerpos de las mujeres. A más largo plazo, la difamación, acoso sexual, intimidación y extorsión online repercuten directamente en la sensación de seguridad de las víctimas. También en su grado de participación en la vida sociocomunitaria y en la noción que poseen sobre su propia identidad.
Desde Karisma denuncian de igual modo que las imágenes alteradas afectan de forma nociva a la reputación de las víctimas cuando son difundidas dentro de su entorno laboral. Por esta razón, una forma de amenazar a las mujeres y silenciarlas es precisamente utilizar fotografías falsificadas como arma de ataque machista. “En México se registró la circulación de un video en donde una mujer bailaba en ropa interior con la canción del movimiento naranja de fondo, el vídeo sirvió para una campaña de desprestigio contra una candidata a presidenta municipal en el estado de Sonora”, recuerda Moreno.
Doxing: cuando la IA cae en manos de maltratadores
Moreno subraya que, actualmente, “muchos agresores disponen de herramientas para ejercer esa violencia de forma distinta a como lo hacían antes. La sextorsión o el ciberacoso tienen un carácter casi siempre ejemplarizante, se utiliza en contra de esas mujeres que se salen de esos roles sociales de género establecidos. La mujer pública, aquella que disfruta libremente de su sexualidad, que se salen de la regla social, son castigadas con violencia digital”, apunta la letrada. El impacto de esta violencia suele ser doble o colectivo, configura un mensaje claro hacia el resto de mujeres sobre a cómo deben comportarse si no quieren ser humilladas.
Por su parte, Josep Curto, experto en Inteligencia de negocio, análisis de big data y docente de Estudios de Informática, Multimedia y Telecomunicación en la Universitat Oberta de Catalunya (UOC), pone el acento en la accesibilidad de estas herramientas. Muchas organizaciones, explica, buscan crear inteligencia de fuentes abiertas a partir de Open Source Intelligence (OSINT) para hacer estudios de mercado, “lo que ocurre es que también pueden usarse estas fuentes y mecanismos para recabar información de forma ilegítima”. Aquí entra en escena, además de la suplantación de la identidad online y la automatización del acoso sexual, el llamado doxing (todavía no existe una traducción de este término en castellano): consiste en recabar información personal de uno o varios individuos de forma exhaustiva para luego divulgarla públicamente sin consentimiento.
Esta práctica, según las expertas, se dirige mayoritariamente contra las mujeres maltratadas: “Hay herramientas que cualquiera puede usar con una mínima cantidad de conocimientos, que pueden extraer información de redes sociales, de foros y hacer público por ejemplo tu teléfono, email, datos de tu biografía, localización etc”, sostiene el experto. Muchos agresores llevan a cabo el también llamado doxeo para hostigar y perseguir de forma coordinada a sus parejas o exparejas usando algoritmos. Hoy, humillar, manipular, extorsionar y dañar la reputación de las mujeres está al alcance de cualquier internauta, fruto de la desregulación tecnológica dentro de las plataformas.
Fembots que alimentan la hipersexualización femenina
La IA al servicio de la cosificación y sexualización de las mujeres en los últimos años también ha tenido máxima materialización en las llamadas fembots. Estos avatares que imitan cuerpos de mujeres estereotipadas hasta el extremo nacen a partir de “imágenes falsas y utilizarlas para crear parejas o novias virtuales”, afirma Gutiérrez. El perfil habitual de usuario de estos avatares personalizables, destaca el sociólogo, es el de hombres de entre 40 y 60 años solteros “que creen tener una suerte de derecho natural a tener relaciones sexuales con mujeres y como no lo están teniendo recurren a las mujeres robots para tener el tipo de relación que les gustaría tener fuera de la aplicación”.
Uno de los problemas de estas “novias virtuales” es que sus usuarios reproducen con ellas prácticas de dominación masculina y control activo sobre el cuerpo de las mujeres. “En ese proceso de convertir esa imagen falsa en la novia robot confluye el hecho de que tú te sientes legitimado a hacerte con el control del cuerpo y la sexualidad de la otra persona sin su consentimiento”, explica. Además, se trata de personajes estereotipados en cánones estéticos normativos y hegemónicos, despojados de toda agencia, voluntad o autonomía para decidir sobre sí mismos. Se perpetúa así la idea de mujer como simple receptáculo al servicio del deseo masculino, una forma de violencia simbólica tan deshumanizante como peligrosa en el largo plazo.
Gobernanza tecnológica global y educación feminista
Con todo, tal y como destaca en un artículo Carme Colomina, investigadora CIDOB, la inteligencia artificial en su reproducción de sesgos sociales preexistentes puede acabar teniendo “un efecto legitimador y amplificador”. Urge, pues, una gobernanza sobre estas tecnologías para evitar que sigan violentando los cuerpos de las mujeres en todo el mundo. A finales de 2023, la Comisión Europea aprobó la primera Ley de Inteligencia Artificial para limitar los riesgos en el uso de la IA, medida que fue ratificada al año siguiente y cuya implementación se desarrolla gradualmente. A través de esta ley, los usuarios digitales que se encuentren dentro de las fronteras de la UE podrían ser reprendidos con multas y todo un arsenal de sanciones en caso de cometer delitos como los señalados en este artículo.
A pesar de que se trata de una iniciativa legal pionera -ha sido la primera en regular el uso de la IA en todo el mundo-, presenta serias limitaciones. Por un lado, no impide que actores extracomunitarios puedan ejercer violencia digital desde países como los Estados Unidos, donde ocurren muchas de estas agresiones. Otro de sus fallos es que no centra la mirada en el esencial componente educacional o socializante en torno a los usos de la IA, sino que se ancla en medidas punitivistas. “Hay siempre un uso social y cultural de la tecnología, por eso es necesario trabajar en esas dimensiones acerca de cómo la usamos, porque puede ser una tecnología que, dependiendo de cómo la uses, puede ser beneficiosa o mala”, alega Gutiérrez sobre la incuestionable intersección entre IA y machismo estructural. Los movimientos feministas llevan años reivindicando una educación pública cimentada en la igualdad, que prevenga las conductas machistas desde las primeras etapas de aprendizaje. También políticas públicas encaradas a erradicar todas las formas de violencia contra las mujeres, inclusive en el entorno cibernético y a través de las tecnologías de la IA.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.