Crac
  • Home
  • Sobre CRAC
  • Blog
  • Contacto

VIOLENCIA DE GÉNERO FACILITADA POR LA TECNOLOGÍA: EL IMPACTO DE LA IA

VIOLENCIA DE GÉNERO FACILITADA POR LA TECNOLOGÍA: EL IMPACTO DE LA IA

Hay una conversación que se repite cada vez que hablamos de inteligencia artificial: la del progreso, la eficiencia, el futuro. Lo que se menciona mucho menos es lo que ya está pasando ahora mismo: la IA está siendo usada sistemáticamente para agredir, silenciar y controlar a mujeres y niñas en todo el mundo.

No es una posibilidad futura. Es un problema presente. Y tiene datos.


EL TAMAÑO DEL PROBLEMA

La violencia digital contra las mujeres no es un fenómeno marginal. Según datos de ONU Mujeres y el Everyday Sexism Project, entre el 16% y el 58% de las mujeres a nivel global ha experimentado alguna forma de violencia facilitada por tecnología. La variación en ese rango refleja tanto las diferencias de acceso como la falta de estandarización en cómo se mide y reporta.

Pero hay una cifra que dice más que cualquier otra: el 85% de las mujeres ha sido testigo de violencia digital contra otras mujeres. Eso no es solo una estadística de victimización directa. Es la medida de un clima. Cuando la mayoría observa agresiones sistemáticas hacia otras, el efecto es el silenciamiento preventivo: muchas dejan de participar en espacios digitales por miedo a ser las próximas.

En regiones como África Occidental y Central, ese porcentaje escala al 92%. La tecnología, en contextos sin marcos regulatorios y con desigualdades de género preexistentes, no libera. Controla.


DEEPFAKES: EL FRENTE MÁS GRAVE

La IA generativa tiene muchas aplicaciones. Una de las más extendidas —y menos discutidas en los espacios mainstream— es la producción de contenido sexual no consentido.

Los números son contundentes: el 98% de los videos deepfake en internet son pornográficos. El 99% de las personas afectadas son mujeres. Y entre 2019 y 2023, el volumen de ese contenido creció un 550%.

Esto no es tecnología usada con fines creativos ni educativos. Es tecnología usada para agredir, humillar y silenciar. Y la escala a la que opera —automatizada, distribuida, difícil de rastrear y aún más difícil de eliminar— hace que el daño sea cualitativamente distinto al de cualquier forma de violencia analógica.

A esto se suma el doxing asistido por IA: la correlación automatizada de datos para eliminar el anonimato de una víctima —su identidad, ubicación, historial— y exponerla. Se estima que hasta un 24% de las mujeres que sufren violencia digital han enfrentado intentos de hackeo o suplantación de identidad. En perfiles de alta visibilidad —periodistas, activistas, defensoras de derechos— esa cifra puede duplicarse. La tecnología usada como arma de silenciamiento profesional.


EL SESGO NO ES UN BUG. ES EL DISEÑO.

Uno de los argumentos más frecuentes cuando se habla de IA y desigualdad es que la tecnología es neutral. No lo es.

Los sistemas de IA son el reflejo de los datos con los que fueron entrenados y de las personas que los diseñaron. Cuando esos datos provienen de un mundo desigual —y casi siempre provienen de eso— los sistemas reproducen y amplifican esa desigualdad.

Un ejemplo concreto: los algoritmos de reconocimiento facial tienen un margen de error de menos del 1% para hombres de piel clara. Para mujeres de piel oscura, ese margen sube al 34,7%. Eso significa que los sistemas de seguridad y moderación automatizada identifican mal —o directamente no identifican— a las personas que ya enfrentan más barreras en el mundo físico.

¿De dónde viene ese sesgo? En buena parte, de quién diseña estas herramientas. Las mujeres representan apenas el 29% del empleo en áreas STEM y el 30% de los roles especializados en IA. Un campo mayoritariamente masculino produce herramientas que ignoran, sistemáticamente, las experiencias y los riesgos específicos de las mujeres. No por malicia necesariamente. Por ausencia.

Esto es exactamente lo que trabajamos desde Átoma: no es neutral. Es conservadora. Reproduce el pasado.


LO QUE SE ESTÁ HACIENDO —Y LO QUE FALTA

Hay respuestas en construcción. El Departamento Nacional de Planeación de Colombia desarrolló en 2025 guías de buenas prácticas para detectar y corregir sesgos en el ciclo de vida de los modelos de IA. El Índice Latinoamericano de Inteligencia Artificial evalúa la madurez ética y la gobernanza en 19 países de la región. UNESCO, OCDE y el BID trabajan en marcos para que la automatización no degrade las condiciones laborales y sociales de las mujeres.

Son pasos. Pero la velocidad a la que avanzan los marcos regulatorios no se compara con la velocidad a la que avanza el abuso.

Lo que queda claro es que las soluciones técnicas solas no alcanzan. La perspectiva de género tiene que estar en la fase de diseño de los algoritmos, no como corrección posterior. La representación femenina en la industria no es solo una cuestión de equidad laboral: es una condición para que las herramientas que se construyen no dañen a la mitad de la humanidad. Y los marcos legales tienen que ser transnacionales, porque la violencia digital no respeta fronteras.


LA TECNOLOGÍA NO ES NEUTRAL. NUNCA LO FUE.

La IA puede ser una herramienta extraordinaria. También puede —y ya está siendo— una herramienta de opresión a escala. La diferencia entre uno y otro escenario no está en el código: está en quién lo diseña, con qué datos, con qué preguntas y con qué personas en la sala cuando se toman las decisiones.

Hablar de inteligencia artificial con perspectiva de género no es agregar un módulo opcional al debate tecnológico. Es la condición para que ese debate tenga sentido.


Este es el tipo de conversación que buscamos abrir desde Somos_átomo, el proyecto de IA con perspectiva de género que desarrollamos junto a Cynthia Moisso. Seguinos y escribinos.


REFERENCIAS Y FUENTES

  • UN Women & Everyday Sexism Project (2025). How AI is Exacerbating Technology-Facilitated Violence against Women and Girls. unwomen.org
  • ONU Mujeres (2024). La inteligencia artificial (IA) y la igualdad de género. unwomen.org
  • Departamento Nacional de Planeación — DNP Colombia (2025). Inteligencia Artificial con perspectiva de género: Guía de buenas prácticas. dnp.gov.co
  • Soto, Á., Durán, R., et al. (2025). Índice Latinoamericano de Inteligencia Artificial (ILIA) 2025. CEPAL / CENIA. cepal.org
  • PNUD (2025). Inteligencia artificial con sesgos reales: nuevos retos para la igualdad de género en América Latina y el Caribe. undp.org
  • UNESCO / OCDE / BID (2022). The Effects of AI on the Working Lives of Women. oecd.org
  • OCDE.AI (2023). Towards Real Diversity and Gender Equality in Artificial Intelligence: Advancement Report. oecd.ai
Artículo anterior¿PARA QUÉ SIRVE LA IA EN LA COMUNICACIÓN PÚBLICA? TRES CASOS URUGUAYOS Y UNA PREGUNTA INCÓMODAArtículo siguiente Encuentro Gestión Cultural + IA = Inteligencia Amplificada

Entradas recientes

Ecosistema emprendedor 2026mayo 12, 2026
IA, Fe y el riesgo de vaciar lo humanoabril 16, 2026
Encuentro Gestión Cultural + IA = Inteligencia Amplificadaabril 16, 2026

Entradas recientes

Ecosistema emprendedor 2026mayo 12, 2026
IA, Fe y el riesgo de vaciar lo humanoabril 16, 2026
Encuentro Gestión Cultural + IA = Inteligencia Amplificadaabril 16, 2026

cuándo elegirnos?

Si estás en etapa de ordenar, relanzar o hacer crecer tu proyecto, escribime y vemos qué formato te conviene más.

Información de contacto

099 4969 59
comunicacioncrac@gmail.com
Este sitio fue creado por Crac! comunicación creativa