Emocionalidad, estereotipos y la revolución tecnológica: reflexiones sobre el 8M desde la IA sociotécnica

Por: Gabriela Arriagada, Científica computacional y doctora en filosofía. Investigadora jovende CENIA

La inteligencia artificial (IA) se ha convertido en una de las tecnologías más influyentes del siglo XXI, transformando desde la salud hasta la seguridad, la educación y el mercado laboral. Sin embargo, bajo esta narrativa de innovación y progreso, se esconden profundas desigualdades que afectan principalmente a comunidades históricamente marginadas. La IA no es neutral; es un reflejo de las estructuras de poder que la diseñan y regulan. Desde un enfoque feminista y decolonial, es urgente cuestionar cómo el colonialismo de datos y la exclusión de la emocionalidad en los sistemas tecnológicos perpetúan estas desigualdades y qué estrategias pueden adoptarse para una IA más justa e inclusiva.

Cada 8 de marzo, el Día Internacional de la Mujer nos invita a reflexionar sobre estas estructuras que han condicionado la participación de las mujeres en distintos ámbitos sociales, económicos y políticos. Uno de los espacios donde la inequidad de género es particularmente visible es en la ciencia, la tecnología, la ingeniería y las matemáticas (STEM). La baja representación de mujeres en estos campos no es el resultado de una falta de interés o capacidad, sino de barreras estructurales que han reforzado estereotipos de género, limitando su acceso a la educación especializada, su reconocimiento en la historia de la ciencia y su inclusión en equipos de desarrollo tecnológico.

Esta exclusión ha tenido consecuencias directas en el diseño de tecnologías que reflejan sesgos de género. Al haber sido desarrolladas mayoritariamente desde perspectivas homogéneas, muchas soluciones tecnológicas no consideran la diversidad de experiencias humanas ni las necesidades específicas de distintos grupos sociales. Un claro ejemplo de esto es el sesgo de género en los algoritmos de reconocimiento facial, que presentan mayores tasas de error al identificar rostros de mujeres y personas racializadas.

En este sentido, la revolución tecnológica impulsada por la IA se encuentra en un punto de inflexión. La consolidación de un enfoque sociotécnico está permitiendo repensar el papel de la subjetividad, la diversidad de perspectivas y la contextualización en el diseño tecnológico. Integrar estos elementos es fundamental para desafiar las estructuras que han invisibilizado el aporte femenino en STEM y para construir tecnologías que reconozcan la pluralidad de experiencias humanas (Kudina & van de Poel, 2024). Solo a través de una transformación estructural podremos avanzar hacia una IA verdaderamente inclusiva, que no reproduzca desigualdades, sino que contribuya activamente a la justicia social y de género.

Causas estructurales: La exclusión histórica

A lo largo de la historia, la ciencia y la tecnología han sido campos dominados por hombres, y las mujeres que han logrado ingresar en ellos han enfrentado barreras sistémicas. Desde la exclusión formal en instituciones educativas hasta la subestimación de sus aportes, el acceso de las mujeres a estos espacios ha sido obstaculizado por la persistencia de estereotipos de género. Un factor clave en esta exclusión ha sido la asociación entre la racionalidad y la masculinidad, y entre la emocionalidad y la feminidad. Esta dicotomía, construida culturalmente, ha servido para legitimar la ausencia de mujeres en espacios de poder dentro de STEM y, en consecuencia, en la toma de decisiones sobre el desarrollo tecnológico. (Simó Soler, 2024)

El feminismo ha señalado cómo las tecnologías de IA refuerzan las brechas de género al ser diseñadas y programadas dentro de estructuras patriarcales. La exclusión de mujeres en STEM y la escasa presencia de epistemologías feministas en el desarrollo de IA han dado lugar a tecnologías que replican y amplifican estereotipos de género. Desde asistentes virtuales que refuerzan roles de género tradicionales hasta sistemas de contratación que penalizan a las mujeres, la IA se convierte en un vehículo de reproducción de desigualdades. (Arriagada-Bruneau & Larrondo, Forthcoming).

En América Latina, esta situación es aún más alarmante. La representación femenina en la investigación en IA es mínima, con cifras que oscilan entre un 8% y un 26%, dependiendo del país. A pesar de iniciativas para promover la inclusión, como los programas de género en ciencia y tecnología, la brecha sigue siendo profunda. La falta de diversidad en los equipos de desarrollo conlleva consecuencias graves: los sistemas de IA no solo ignoran la realidad de las mujeres y las disidencias, sino que también perpetúan narrativas que las posicionan en roles subordinados.

Otro eje central de la crítica feminista a la IA es la exclusión de la emocionalidad y corporalidad asociada a los sistemas algorítmicos y los datos que le entrenan (D’Ignazio & Klein, 2020). La IA ha sido diseñada desde una racionalidad occidental, que privilegia la lógica y la objetividad por sobre las emociones y la subjetividad (Broussard, 2018). Sin embargo, esta visión ignora que el conocimiento no es puramente racional, sino que está atravesado por experiencias, afectos y relaciones.

Las epistemologías feministas han propuesto incorporar la emocionalidad en la ética de la IA para reconocer que las decisiones tecnológicas afectan de manera diferencial a las personas según su contexto social y sus experiencias vividas (Arriagada-Bruneau & Arias, 2025; Draude et al., 2019). La IA debería integrar una perspectiva de cuidado y responsabilidad que priorice el bienestar de las comunidades afectadas, en lugar de centrarse exclusivamente en la eficiencia y la optimización. Este enfoque desafía la idea de que la ética en IA puede reducirse a un conjunto de principios abstractos, abogando por una ética situada que reconozca la complejidad de las interacciones humanas con la tecnología.

Efectos: Representaciones de lo femenino en la revolución tecnológica

Como se ha mencionado, las representaciones de lo femenino en estos sistemas tienden a reforzar la asociación de la mujer con roles de servicio y asistencia. Pero más allá de la representación simbólica, el sesgo en IA tiene consecuencias concretas en la vida de las mujeres. Sistemas de selección de personal basados en IA han mostrado una tendencia a favorecer candidatos masculinos debido a que sus datos de entrenamiento provienen de industrias con predominancia masculina. (Zowghi & Bano, 2024)

Este fenómeno no es casual ni anecdótico, sino un efecto de las estructuras que han determinado quién tiene acceso a la tecnología y quién define sus valores. La falta de representación de las mujeres en IA no solo es un problema de equidad, sino también una limitación epistemológica: la ausencia de diversidad en la creación de tecnologías restringe la capacidad de estas para capturar la complejidad del mundo social. (Floridi, 2023)

Colonialismo de datos: Explotación digital y desigualdades sistémicas

El colonialismo de datos describe cómo la extracción, acumulación y explotación de datos perpetúa las dinámicas de poder del colonialismo histórico. Los países del Norte Global dominan la infraestructura tecnológica, los estándares de regulación y el acceso a datos, mientras que el Sur Global se convierte en una fuente inagotable de información sin control sobre su uso. Esta relación asimétrica refuerza desigualdades preexistentes, ya que las decisiones algorítmicas están influenciadas por datos que, al ser sesgados y excluyentes, reproducen patrones de discriminación estructural.

Un ejemplo evidente de este fenómeno es la baja representación de mujeres y minorías en los conjuntos de datos utilizados para entrenar modelos de IA. Las herramientas de reconocimiento facial han demostrado tener tasas de error significativamente más altas en personas racializadas y en mujeres en comparación con hombres blancos. Estos sesgos no son simples errores técnicos; son la manifestación digital de las jerarquías coloniales que estructuran la producción y circulación de conocimiento en la era digital.

Un giro necesario: La IA sociotécnica y la importancia del contexto

Frente a este panorama, la emergencia de un enfoque sociotécnico en IA representa una oportunidad para transformar las estructuras que han limitado la inclusión de mujeres en la tecnología. La IA sociotécnica reconoce que los sistemas de inteligencia artificial no son neutrales, sino que están profundamente influenciados por los valores, contextos y perspectivas de quienes los diseñan. (Mohamed et al., 2020)

Este giro implica reconocer que la objetividad científica no es absoluta, sino que está atravesada por el punto de vista y la subjetividad. La inclusión de perspectivas diversas en la creación de IA permite desafiar las narrativas dominantes y construir tecnologías que reflejen una mayor pluralidad. En la práctica, esto significa adoptar metodologías de diseño participativo, donde los grupos históricamente excluidos, incluidas las mujeres, tengan un rol activo en la definición de los valores y principios de la IA. (Costanza-Chock, 2020)

Además, la IA sociotécnica enfatiza la importancia del contexto en el funcionamiento de los sistemas inteligentes. En lugar de asumir que los modelos algorítmicos pueden operar de manera universal, este enfoque propone que la tecnología debe adaptarse a las condiciones específicas en las que se implementa y nos puede, incluso, permitir a entender los sesgos detrás de manera más profunda. (Arriagada-Bruneau et al., 2024) Esto es particularmente relevante en la construcción de una IA que sea inclusiva y que no perpetúe desigualdades de género.

Conclusiones: De la exclusión histórica a la revolución tecnológica inclusiva

El 8M no solo es un día de conmemoración, sino un recordatorio de las desigualdades estructurales que han condicionado el acceso de las mujeres y disidencias a la ciencia y la tecnología. La falta de representación femenina en STEM no es un fenómeno aislado, sino el resultado de siglos de exclusión sistemática, donde la racionalidad patriarcal ha dictado quiénes son considerados sujetos legítimos del conocimiento y quiénes han sido relegados al margen.

Las consecuencias de esta exclusión son evidentes en la inteligencia artificial: tecnologías diseñadas desde perspectivas homogéneas que reproducen los mismos sesgos e inequidades que han perpetuado históricamente las estructuras de opresión. Los sistemas algorítmicos no son entidades neutras; son el reflejo de relaciones de poder que deciden qué cuerpos, voces y experiencias son visibles y cuáles son silenciadas. Desde asistentes virtuales que refuerzan roles de género hasta sistemas de contratación que penalizan a las mujeres, la IA se ha convertido en un nuevo escenario donde se inscriben las jerarquías del pasado con una fachada de modernidad y progreso.

Pero el futuro de la tecnología no está escrito. La emergencia de un enfoque sociotécnico en IA abre la posibilidad de transformar radicalmente las lógicas de exclusión en el desarrollo tecnológico. No se trata solo de incluir más mujeres en STEM, sino de cuestionar profundamente los valores, supuestos y estructuras que han definido históricamente qué conocimientos importan y quiénes tienen derecho a producirlos. La IA debe dejar de ser un reflejo de un mundo desigual para convertirse en una herramienta de transformación social.

En la era de la revolución tecnológica, la pregunta no es solo quién diseña la IA, sino para quién está diseñada y a quién sirve. Seguir replicando modelos que perpetúan desigualdades no es una opción. Es urgente adoptar una perspectiva crítica que reconozca que la tecnología es siempre política (Crawford et al., 2014) y que su desarrollo debe ser guiado por principios de justicia, equidad y pluralidad. Solo así la IA podrá ser no solo un instrumento de avance técnico, sino una herramienta de inclusión y respeto, reivindicando la exclusión histórica hacia mujeres y otras minorías.

Referencias

Arriagada-Bruneau, G. (2024). Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva. La Pollera Ediciones.

Arriagada-Bruneau, G., & Arias, J. (2025). ¿Cómo integrar la ética de la inteligencia artificial en el currículo? Análisis y recomendaciones desde el feminismo de la ciencia y de datos. Revista de Filosofía, 81, 137–160. https://doi.org/10.5354/0718-4360.2024.74905

Arriagada-Bruneau, G., López, C., & Davidoff, A. (2024). A Bias Network Approach (BNA) to Encourage Ethical Reflection Among AI Developers. Science and Engineering Ethics, 31(1), 1. https://doi.org/10.1007/s11948-024-00526-9

Arriagada-Bruneau, G. & Larrondo, N. (Forthcoming, 2025). Gender in the Machine: Examining Gender Dynamics in Sex Robots, Chatbots, and AI Assistants. In Ingrid Bachmann, Dustin Harp & Jamie Loke (eds.), Handbook on Gender and Digital Media, Edward Elgar Publishing. forthcoming.

Broussard, M. (2018). Artificial Unintelligence: How Computers Misunderstand the World. MIT Press.

Costanza-Chock, S. (2020). Design Justice: Community-Led Practices to Build the Worlds We Need. MIT Press.

Crawford, K., Gray, M. L., & Miltner, K. (2014). Big Data| Critiquing Big Data: Politics, Ethics, Epistemology | Special Section Introduction. International Journal of Communication, 8(0), Article 0.

D’Ignazio, C., & Klein, L. F. (2020). Data Feminism. MIT Press.

Draude, C., Klumbyte, G., Lücking, P., & Treusch, P. (2019). Situated algorithms: A sociotechnical systemic approach to bias. Online Information Review, 44(2), 325–342. https://doi.org/10.1108/OIR-10-2018-0332

Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford University Press.

Kudina, O., & van de Poel, I. (2024). A sociotechnical system perspective on AI. Minds and Machines, 34(3), 21. https://doi.org/10.1007/s11023-024-09680-2

Mohamed, S., Png, M.-T., & Isaac, W. (2020). Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence. Philosophy & Technology, 33(4), 659–684. https://doi.org/10.1007/s13347-020-00405-8

Simó Soler, E. (2024). Hacia una Inteligencia Artificial Interseccional. Investigaciones Feministas, 15(1), 127–134. https://doi.org/10.5209/infe.81954

Zowghi, D., & Bano, M. (2024). AI for all: Diversity and Inclusion in AI. AI and Ethics, 4(4), 873–876. https://doi.org/10.1007/s43681-024-00485-8

Noticias

Noticias Recientes