Crac
  • Home
  • Blog
  • Contacto

VIOLENCIA DE GÉNERO FACILITADA POR LA TECNOLOGÍA: EL IMPACTO DE LA IA

VIOLENCIA DE GÉNERO FACILITADA POR LA TECNOLOGÍA: EL IMPACTO DE LA IA

Hay una conversación que se repite cada vez que hablamos de inteligencia artificial: la del progreso, la eficiencia, el futuro. Lo que se menciona mucho menos es lo que ya está pasando ahora mismo: la IA está siendo usada sistemáticamente para agredir, silenciar y controlar a mujeres y niñas en todo el mundo.

No es una posibilidad futura. Es un problema presente. Y tiene datos.


EL TAMAÑO DEL PROBLEMA

La violencia digital contra las mujeres no es un fenómeno marginal. Según datos de ONU Mujeres y el Everyday Sexism Project, entre el 16% y el 58% de las mujeres a nivel global ha experimentado alguna forma de violencia facilitada por tecnología. La variación en ese rango refleja tanto las diferencias de acceso como la falta de estandarización en cómo se mide y reporta.

Pero hay una cifra que dice más que cualquier otra: el 85% de las mujeres ha sido testigo de violencia digital contra otras mujeres. Eso no es solo una estadística de victimización directa. Es la medida de un clima. Cuando la mayoría observa agresiones sistemáticas hacia otras, el efecto es el silenciamiento preventivo: muchas dejan de participar en espacios digitales por miedo a ser las próximas.

En regiones como África Occidental y Central, ese porcentaje escala al 92%. La tecnología, en contextos sin marcos regulatorios y con desigualdades de género preexistentes, no libera. Controla.


DEEPFAKES: EL FRENTE MÁS GRAVE

La IA generativa tiene muchas aplicaciones. Una de las más extendidas —y menos discutidas en los espacios mainstream— es la producción de contenido sexual no consentido.

Los números son contundentes: el 98% de los videos deepfake en internet son pornográficos. El 99% de las personas afectadas son mujeres. Y entre 2019 y 2023, el volumen de ese contenido creció un 550%.

Esto no es tecnología usada con fines creativos ni educativos. Es tecnología usada para agredir, humillar y silenciar. Y la escala a la que opera —automatizada, distribuida, difícil de rastrear y aún más difícil de eliminar— hace que el daño sea cualitativamente distinto al de cualquier forma de violencia analógica.

A esto se suma el doxing asistido por IA: la correlación automatizada de datos para eliminar el anonimato de una víctima —su identidad, ubicación, historial— y exponerla. Se estima que hasta un 24% de las mujeres que sufren violencia digital han enfrentado intentos de hackeo o suplantación de identidad. En perfiles de alta visibilidad —periodistas, activistas, defensoras de derechos— esa cifra puede duplicarse. La tecnología usada como arma de silenciamiento profesional.


EL SESGO NO ES UN BUG. ES EL DISEÑO.

Uno de los argumentos más frecuentes cuando se habla de IA y desigualdad es que la tecnología es neutral. No lo es.

Los sistemas de IA son el reflejo de los datos con los que fueron entrenados y de las personas que los diseñaron. Cuando esos datos provienen de un mundo desigual —y casi siempre provienen de eso— los sistemas reproducen y amplifican esa desigualdad.

Un ejemplo concreto: los algoritmos de reconocimiento facial tienen un margen de error de menos del 1% para hombres de piel clara. Para mujeres de piel oscura, ese margen sube al 34,7%. Eso significa que los sistemas de seguridad y moderación automatizada identifican mal —o directamente no identifican— a las personas que ya enfrentan más barreras en el mundo físico.

¿De dónde viene ese sesgo? En buena parte, de quién diseña estas herramientas. Las mujeres representan apenas el 29% del empleo en áreas STEM y el 30% de los roles especializados en IA. Un campo mayoritariamente masculino produce herramientas que ignoran, sistemáticamente, las experiencias y los riesgos específicos de las mujeres. No por malicia necesariamente. Por ausencia.

Esto es exactamente lo que trabajamos desde Átoma: no es neutral. Es conservadora. Reproduce el pasado.


LO QUE SE ESTÁ HACIENDO —Y LO QUE FALTA

Hay respuestas en construcción. El Departamento Nacional de Planeación de Colombia desarrolló en 2025 guías de buenas prácticas para detectar y corregir sesgos en el ciclo de vida de los modelos de IA. El Índice Latinoamericano de Inteligencia Artificial evalúa la madurez ética y la gobernanza en 19 países de la región. UNESCO, OCDE y el BID trabajan en marcos para que la automatización no degrade las condiciones laborales y sociales de las mujeres.

Son pasos. Pero la velocidad a la que avanzan los marcos regulatorios no se compara con la velocidad a la que avanza el abuso.

Lo que queda claro es que las soluciones técnicas solas no alcanzan. La perspectiva de género tiene que estar en la fase de diseño de los algoritmos, no como corrección posterior. La representación femenina en la industria no es solo una cuestión de equidad laboral: es una condición para que las herramientas que se construyen no dañen a la mitad de la humanidad. Y los marcos legales tienen que ser transnacionales, porque la violencia digital no respeta fronteras.


LA TECNOLOGÍA NO ES NEUTRAL. NUNCA LO FUE.

La IA puede ser una herramienta extraordinaria. También puede —y ya está siendo— una herramienta de opresión a escala. La diferencia entre uno y otro escenario no está en el código: está en quién lo diseña, con qué datos, con qué preguntas y con qué personas en la sala cuando se toman las decisiones.

Hablar de inteligencia artificial con perspectiva de género no es agregar un módulo opcional al debate tecnológico. Es la condición para que ese debate tenga sentido.


Este es el tipo de conversación que buscamos abrir desde Somos_átomo, el proyecto de IA con perspectiva de género que desarrollamos junto a Cynthia Moisso. Seguinos y escribinos.


REFERENCIAS Y FUENTES

  • UN Women & Everyday Sexism Project (2025). How AI is Exacerbating Technology-Facilitated Violence against Women and Girls. unwomen.org
  • ONU Mujeres (2024). La inteligencia artificial (IA) y la igualdad de género. unwomen.org
  • Departamento Nacional de Planeación — DNP Colombia (2025). Inteligencia Artificial con perspectiva de género: Guía de buenas prácticas. dnp.gov.co
  • Soto, Á., Durán, R., et al. (2025). Índice Latinoamericano de Inteligencia Artificial (ILIA) 2025. CEPAL / CENIA. cepal.org
  • PNUD (2025). Inteligencia artificial con sesgos reales: nuevos retos para la igualdad de género en América Latina y el Caribe. undp.org
  • UNESCO / OCDE / BID (2022). The Effects of AI on the Working Lives of Women. oecd.org
  • OCDE.AI (2023). Towards Real Diversity and Gender Equality in Artificial Intelligence: Advancement Report. oecd.ai
Artículo anterior¿PARA QUÉ SIRVE LA IA EN LA COMUNICACIÓN PÚBLICA? TRES CASOS URUGUAYOS Y UNA PREGUNTA INCÓMODA

6 comentarios

Roger Black dice:
marzo 29, 2016 a las 9:13 am

Pitch series A financing innovator venture supply chain market business-to-consumer startup gamification product management success first mover advantage direct mailing return on investment. Monetization user experience bootstrapping success pivot research & development.

Responder
Mary Klein dice:
marzo 29, 2016 a las 9:16 am

Fringilla etiam maecenas ligula justo nec pretium felis nisi. Pretium eget aliquam augue commodo cras semper sem nullam. Ut semper nec id adipiscing dui lorem. Pretium dapibus eget in sem donec et. Metus etiam ipsum sit. Quis blandit ut ante pulvinar adipiscing dis vel montes amet. Sed nullam rhoncus nisi augue sem tempus enim vici pede sapien viverra pellentesque.

Responder
Daniel dice:
enero 26, 2017 a las 10:45 am

Nulla laoreet vestibulum turpis non finibus. Proin interdum a tortor sit amet mollis.

Responder
Mike Smith dice:
marzo 29, 2016 a las 9:14 am

Tellus ut aenean. Veni tellus hendrerit quam. Elit justo etiam sit. Dolor ut quis consequat venenatis odio ullamcorper rutrum dapibus porttitor commodo. Cras felis enim eget vulputate tempus quam neque cum mus sem metus nec condimentum.

Responder
Mary Klein dice:
marzo 29, 2016 a las 9:15 am

Penatibus nisi ante donec lorem quis ut amet elementum sem eu. Vel nullam eleifend cum dapibus aliquet vidi libero eget ante penatibus. Consequat et nulla condimentum. Imperdiet ipsum nascetur nisi.

Responder
Daniel dice:
enero 26, 2017 a las 10:45 am

Sed efficitur congue dolor, et rhoncus ipsum rutrum nec. Ut ac mollis risus, bibendum molestie tortor. Fusce magna dui, pharetra eget pellentesque vehicula, consequat vel nisl. Donec auctor ex a laoreet egestas.

Responder

Responder a Daniel Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

About The Blog

Nulla laoreet vestibulum turpis non finibus. Proin interdum a tortor sit amet mollis. Maecenas sollicitudin accumsan enim, ut aliquet risus.

Entradas recientes

VIOLENCIA DE GÉNERO FACILITADA POR LA TECNOLOGÍA: EL IMPACTO DE LA IAenero 29, 2018
¿PARA QUÉ SIRVE LA IA EN LA COMUNICACIÓN PÚBLICA? TRES CASOS URUGUAYOS Y UNA PREGUNTA INCÓMODAenero 29, 2018
MOLTBOOK + OPENCLAW: CUANDO LOS BOTS HABLAN ENTRE SÍLost Paradiseenero 29, 2018

Categorías

  • Blog
  • Lifestyle
  • WordPress

Meta

  • Acceder
  • Feed de entradas
  • Feed de comentarios
  • WordPress.org

Etiquetas

Agency Apollo13 Information Popular WordPress

Entradas recientes

VIOLENCIA DE GÉNERO FACILITADA POR LA TECNOLOGÍA: EL IMPACTO DE LA IAenero 29, 2018
¿PARA QUÉ SIRVE LA IA EN LA COMUNICACIÓN PÚBLICA? TRES CASOS URUGUAYOS Y UNA PREGUNTA INCÓMODAenero 29, 2018
MOLTBOOK + OPENCLAW: CUANDO LOS BOTS HABLAN ENTRE SÍLost Paradiseenero 29, 2018

cuándo elegirnos?

Si estás en etapa de ordenar, relanzar o hacer crecer tu proyecto, escribime y vemos qué formato te conviene más.

Información de contacto

099 4969 59
comunicacioncrac@gmail.com
Este sitio fue creado por Crac! comunicación creativa