<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Opinión archivos - CENIA</title>
	<atom:link href="https://cenia.cl/tags/opinion/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>Centro Nacional de Inteligencia Artificial &#124; CHILE</description>
	<lastBuildDate>Sun, 09 Mar 2025 17:40:18 +0000</lastBuildDate>
	<language>es-CL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://cenia.cl/wp-content/uploads/2023/08/favicon.png</url>
	<title>Opinión archivos - CENIA</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Emocionalidad, estereotipos y la revolución tecnológica: reflexiones sobre el 8M desde la IA sociotécnica</title>
		<link>https://cenia.cl/2025/03/09/emocionalidad-estereotipos-y-la-revolucion-tecnologica-reflexiones-sobre-el-8m-desde-la-ia-sociotecnica/</link>
		
		<dc:creator><![CDATA[manadmin]]></dc:creator>
		<pubDate>Sun, 09 Mar 2025 17:38:07 +0000</pubDate>
				<category><![CDATA[Noticias]]></category>
		<category><![CDATA[8M]]></category>
		<category><![CDATA[Opinión]]></category>
		<guid isPermaLink="false">https://cenia.cl/?p=4212</guid>

					<description><![CDATA[<p>Por: Gabriela Arriagada, Científica computacional y doctora en filosofía. Investigadora jovende CENIA La inteligencia artificial (IA) se ha convertido en una de las tecnologías más influyentes del siglo XXI, transformando desde la salud hasta la seguridad, la educación y el mercado laboral. Sin embargo, bajo esta narrativa de innovación y progreso, se esconden profundas desigualdades [&#8230;]</p>
<p>The post <a href="https://cenia.cl/2025/03/09/emocionalidad-estereotipos-y-la-revolucion-tecnologica-reflexiones-sobre-el-8m-desde-la-ia-sociotecnica/">Emocionalidad, estereotipos y la revolución tecnológica: reflexiones sobre el 8M desde la IA sociotécnica</a> appeared first on <a href="https://cenia.cl">CENIA</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image aligncenter size-large is-resized"><img fetchpriority="high" decoding="async" width="1024" height="780" src="https://cenia.cl/wp-content/uploads/2025/03/Gaby-8M-1024x780.png" alt="" class="wp-image-4213" style="width:1024px;height:auto" srcset="https://cenia.cl/wp-content/uploads/2025/03/Gaby-8M-1024x780.png 1024w, https://cenia.cl/wp-content/uploads/2025/03/Gaby-8M-300x229.png 300w, https://cenia.cl/wp-content/uploads/2025/03/Gaby-8M-768x585.png 768w, https://cenia.cl/wp-content/uploads/2025/03/Gaby-8M.png 1050w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p><em>Por: Gabriela Arriagada, Científica computacional y doctora en filosofía. Investigadora jovende CENIA</em></p>



<p>La inteligencia artificial (IA) se ha convertido en una de las tecnologías más influyentes del siglo XXI, transformando desde la salud hasta la seguridad, la educación y el mercado laboral. Sin embargo, bajo esta narrativa de innovación y progreso, se esconden profundas desigualdades que afectan principalmente a comunidades históricamente marginadas. La IA no es neutral; es un reflejo de las estructuras de poder que la diseñan y regulan. Desde un enfoque feminista y decolonial, es urgente cuestionar cómo el colonialismo de datos y la exclusión de la emocionalidad en los sistemas tecnológicos perpetúan estas desigualdades y qué estrategias pueden adoptarse para una IA más justa e inclusiva.</p>



<p>Cada 8 de marzo, el Día Internacional de la Mujer nos invita a reflexionar sobre estas estructuras que han condicionado la participación de las mujeres en distintos ámbitos sociales, económicos y políticos. Uno de los espacios donde la inequidad de género es particularmente visible es en la ciencia, la tecnología, la ingeniería y las matemáticas (STEM). La baja representación de mujeres en estos campos no es el resultado de una falta de interés o capacidad, sino de barreras estructurales que han reforzado estereotipos de género, limitando su acceso a la educación especializada, su reconocimiento en la historia de la ciencia y su inclusión en equipos de desarrollo tecnológico.</p>



<p>Esta exclusión ha tenido consecuencias directas en el diseño de tecnologías que reflejan sesgos de género. Al haber sido desarrolladas mayoritariamente desde perspectivas homogéneas, muchas soluciones tecnológicas no consideran la diversidad de experiencias humanas ni las necesidades específicas de distintos grupos sociales. Un claro ejemplo de esto es el sesgo de género en los algoritmos de reconocimiento facial, que presentan mayores tasas de error al identificar rostros de mujeres y personas racializadas.</p>



<p>En este sentido, la revolución tecnológica impulsada por la IA se encuentra en un punto de inflexión. La consolidación de un enfoque sociotécnico está permitiendo repensar el papel de la subjetividad, la diversidad de perspectivas y la contextualización en el diseño tecnológico. Integrar estos elementos es fundamental para desafiar las estructuras que han invisibilizado el aporte femenino en STEM y para construir tecnologías que reconozcan la pluralidad de experiencias humanas (Kudina &amp; van de Poel, 2024). Solo a través de una transformación estructural podremos avanzar hacia una IA verdaderamente inclusiva, que no reproduzca desigualdades, sino que contribuya activamente a la justicia social y de género.</p>



<p><strong>Causas estructurales: La exclusión histórica</strong></p>



<p>A lo largo de la historia, la ciencia y la tecnología han sido campos dominados por hombres, y las mujeres que han logrado ingresar en ellos han enfrentado barreras sistémicas. Desde la exclusión formal en instituciones educativas hasta la subestimación de sus aportes, el acceso de las mujeres a estos espacios ha sido obstaculizado por la persistencia de estereotipos de género. Un factor clave en esta exclusión ha sido la asociación entre la racionalidad y la masculinidad, y entre la emocionalidad y la feminidad. Esta dicotomía, construida culturalmente, ha servido para legitimar la ausencia de mujeres en espacios de poder dentro de STEM y, en consecuencia, en la toma de decisiones sobre el desarrollo tecnológico. (Simó Soler, 2024)</p>



<p>El feminismo ha señalado cómo las tecnologías de IA refuerzan las brechas de género al ser diseñadas y programadas dentro de estructuras patriarcales. La exclusión de mujeres en STEM y la escasa presencia de epistemologías feministas en el desarrollo de IA han dado lugar a tecnologías que replican y amplifican estereotipos de género. Desde asistentes virtuales que refuerzan roles de género tradicionales hasta sistemas de contratación que penalizan a las mujeres, la IA se convierte en un vehículo de reproducción de desigualdades. (Arriagada-Bruneau &amp; Larrondo, Forthcoming).</p>



<p>En América Latina, esta situación es aún más alarmante. La representación femenina en la investigación en IA es mínima, con cifras que oscilan entre un 8% y un 26%, dependiendo del país. A pesar de iniciativas para promover la inclusión, como los programas de género en ciencia y tecnología, la brecha sigue siendo profunda. La falta de diversidad en los equipos de desarrollo conlleva consecuencias graves: los sistemas de IA no solo ignoran la realidad de las mujeres y las disidencias, sino que también perpetúan narrativas que las posicionan en roles subordinados.</p>



<p>Otro eje central de la crítica feminista a la IA es la exclusión de la emocionalidad y corporalidad asociada a los sistemas algorítmicos y los datos que le entrenan (D’Ignazio &amp; Klein, 2020). La IA ha sido diseñada desde una racionalidad occidental, que privilegia la lógica y la objetividad por sobre las emociones y la subjetividad (Broussard, 2018). Sin embargo, esta visión ignora que el conocimiento no es puramente racional, sino que está atravesado por experiencias, afectos y relaciones.</p>



<p>Las epistemologías feministas han propuesto incorporar la emocionalidad en la ética de la IA para reconocer que las decisiones tecnológicas afectan de manera diferencial a las personas según su contexto social y sus experiencias vividas (Arriagada-Bruneau &amp; Arias, 2025; Draude et al., 2019). La IA debería integrar una perspectiva de cuidado y responsabilidad que priorice el bienestar de las comunidades afectadas, en lugar de centrarse exclusivamente en la eficiencia y la optimización. Este enfoque desafía la idea de que la ética en IA puede reducirse a un conjunto de principios abstractos, abogando por una ética situada que reconozca la complejidad de las interacciones humanas con la tecnología.</p>



<p><strong>Efectos: Representaciones de lo femenino en la revolución tecnológica</strong></p>



<p>Como se ha mencionado, las representaciones de lo femenino en estos sistemas tienden a reforzar la asociación de la mujer con roles de servicio y asistencia. Pero más allá de la representación simbólica, el sesgo en IA tiene consecuencias concretas en la vida de las mujeres. Sistemas de selección de personal basados en IA han mostrado una tendencia a favorecer candidatos masculinos debido a que sus datos de entrenamiento provienen de industrias con predominancia masculina. (Zowghi &amp; Bano, 2024)</p>



<p>Este fenómeno no es casual ni anecdótico, sino un efecto de las estructuras que han determinado quién tiene acceso a la tecnología y quién define sus valores. La falta de representación de las mujeres en IA no solo es un problema de equidad, sino también una limitación epistemológica: la ausencia de diversidad en la creación de tecnologías restringe la capacidad de estas para capturar la complejidad del mundo social. (Floridi, 2023)</p>



<p><strong>Colonialismo de datos: Explotación digital y desigualdades sistémicas</strong></p>



<p>El colonialismo de datos describe cómo la extracción, acumulación y explotación de datos perpetúa las dinámicas de poder del colonialismo histórico. Los países del Norte Global dominan la infraestructura tecnológica, los estándares de regulación y el acceso a datos, mientras que el Sur Global se convierte en una fuente inagotable de información sin control sobre su uso. Esta relación asimétrica refuerza desigualdades preexistentes, ya que las decisiones algorítmicas están influenciadas por datos que, al ser sesgados y excluyentes, reproducen patrones de discriminación estructural.</p>



<p>Un ejemplo evidente de este fenómeno es la baja representación de mujeres y minorías en los conjuntos de datos utilizados para entrenar modelos de IA. Las herramientas de reconocimiento facial han demostrado tener tasas de error significativamente más altas en personas racializadas y en mujeres en comparación con hombres blancos. Estos sesgos no son simples errores técnicos; son la manifestación digital de las jerarquías coloniales que estructuran la producción y circulación de conocimiento en la era digital.</p>



<p><strong>Un giro necesario: La IA sociotécnica y la importancia del contexto</strong></p>



<p>Frente a este panorama, la emergencia de un enfoque sociotécnico en IA representa una oportunidad para transformar las estructuras que han limitado la inclusión de mujeres en la tecnología. La IA sociotécnica reconoce que los sistemas de inteligencia artificial no son neutrales, sino que están profundamente influenciados por los valores, contextos y perspectivas de quienes los diseñan. (Mohamed et al., 2020)</p>



<p>Este giro implica reconocer que la objetividad científica no es absoluta, sino que está atravesada por el punto de vista y la subjetividad. La inclusión de perspectivas diversas en la creación de IA permite desafiar las narrativas dominantes y construir tecnologías que reflejen una mayor pluralidad. En la práctica, esto significa adoptar metodologías de diseño participativo, donde los grupos históricamente excluidos, incluidas las mujeres, tengan un rol activo en la definición de los valores y principios de la IA. (Costanza-Chock, 2020)</p>



<p>Además, la IA sociotécnica enfatiza la importancia del contexto en el funcionamiento de los sistemas inteligentes. En lugar de asumir que los modelos algorítmicos pueden operar de manera universal, este enfoque propone que la tecnología debe adaptarse a las condiciones específicas en las que se implementa y nos puede, incluso, permitir a entender los sesgos detrás de manera más profunda. (Arriagada-Bruneau et al., 2024) Esto es particularmente relevante en la construcción de una IA que sea inclusiva y que no perpetúe desigualdades de género.</p>



<p><strong>Conclusiones: De la exclusión histórica a la revolución tecnológica inclusiva</strong></p>



<p>El 8M no solo es un día de conmemoración, sino un recordatorio de las desigualdades estructurales que han condicionado el acceso de las mujeres y disidencias a la ciencia y la tecnología. La falta de representación femenina en STEM no es un fenómeno aislado, sino el resultado de siglos de exclusión sistemática, donde la racionalidad patriarcal ha dictado quiénes son considerados sujetos legítimos del conocimiento y quiénes han sido relegados al margen.</p>



<p>Las consecuencias de esta exclusión son evidentes en la inteligencia artificial: tecnologías diseñadas desde perspectivas homogéneas que reproducen los mismos sesgos e inequidades que han perpetuado históricamente las estructuras de opresión. Los sistemas algorítmicos no son entidades neutras; son el reflejo de relaciones de poder que deciden qué cuerpos, voces y experiencias son visibles y cuáles son silenciadas. Desde asistentes virtuales que refuerzan roles de género hasta sistemas de contratación que penalizan a las mujeres, la IA se ha convertido en un nuevo escenario donde se inscriben las jerarquías del pasado con una fachada de modernidad y progreso.</p>



<p>Pero el futuro de la tecnología no está escrito. La emergencia de un enfoque sociotécnico en IA abre la posibilidad de transformar radicalmente las lógicas de exclusión en el desarrollo tecnológico. No se trata solo de incluir más mujeres en STEM, sino de cuestionar profundamente los valores, supuestos y estructuras que han definido históricamente qué conocimientos importan y quiénes tienen derecho a producirlos. La IA debe dejar de ser un reflejo de un mundo desigual para convertirse en una herramienta de transformación social.</p>



<p>En la era de la revolución tecnológica, la pregunta no es solo quién diseña la IA, sino para quién está diseñada y a quién sirve. Seguir replicando modelos que perpetúan desigualdades no es una opción. Es urgente adoptar una perspectiva crítica que reconozca que la tecnología es siempre política (Crawford et al., 2014) y que su desarrollo debe ser guiado por principios de justicia, equidad y pluralidad. Solo así la IA podrá ser no solo un instrumento de avance técnico, sino una herramienta de inclusión y respeto, reivindicando la exclusión histórica hacia mujeres y otras minorías.</p>



<p><strong>Referencias</strong></p>



<p style="line-height:1">Arriagada-Bruneau, G. (2024). <em>Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva</em>. La Pollera Ediciones.</p>



<p style="line-height:1">Arriagada-Bruneau, G., &amp; Arias, J. (2025). ¿Cómo integrar la ética de la inteligencia artificial en el currículo? Análisis y recomendaciones desde el feminismo de la ciencia y de datos. <em>Revista de Filosofía</em>, <em>81</em>, 137–160. https://doi.org/10.5354/0718-4360.2024.74905</p>



<p style="line-height:1">Arriagada-Bruneau, G., López, C., &amp; Davidoff, A. (2024). A Bias Network Approach (BNA) to Encourage Ethical Reflection Among AI Developers. <em>Science and Engineering Ethics</em>, <em>31</em>(1), 1. https://doi.org/10.1007/s11948-024-00526-9</p>



<p style="line-height:1">Arriagada-Bruneau, G. &amp; Larrondo, N. (Forthcoming, 2025). Gender in the Machine: Examining Gender Dynamics in Sex Robots, Chatbots, and AI Assistants. In Ingrid Bachmann, Dustin Harp &amp; Jamie Loke (eds.),&nbsp;<em>Handbook on Gender and Digital Media</em>, Edward Elgar Publishing. forthcoming.</p>



<p style="line-height:1">Broussard, M. (2018). <em>Artificial Unintelligence: How Computers Misunderstand the World</em>. MIT Press.</p>



<p style="line-height:1">Costanza-Chock, S. (2020). <em>Design Justice: Community-Led Practices to Build the Worlds We Need</em>. MIT Press.</p>



<p style="line-height:1">Crawford, K., Gray, M. L., &amp; Miltner, K. (2014). Big Data| Critiquing Big Data: Politics, Ethics, Epistemology | Special Section Introduction. <em>International Journal of Communication</em>, <em>8</em>(0), Article 0.</p>



<p style="line-height:1">D’Ignazio, C., &amp; Klein, L. F. (2020). <em>Data Feminism</em>. MIT Press.</p>



<p style="line-height:1">Draude, C., Klumbyte, G., Lücking, P., &amp; Treusch, P. (2019). Situated algorithms: A sociotechnical systemic approach to bias. <em>Online Information Review</em>, <em>44</em>(2), 325–342. https://doi.org/10.1108/OIR-10-2018-0332</p>



<p style="line-height:1">Floridi, L. (2023). <em>The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities</em>. Oxford University Press.</p>



<p style="line-height:1">Kudina, O., &amp; van de Poel, I. (2024). A sociotechnical system perspective on AI. <em>Minds and Machines</em>, <em>34</em>(3), 21. https://doi.org/10.1007/s11023-024-09680-2</p>



<p style="line-height:1">Mohamed, S., Png, M.-T., &amp; Isaac, W. (2020). Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence. <em>Philosophy &amp; Technology</em>, <em>33</em>(4), 659–684. https://doi.org/10.1007/s13347-020-00405-8</p>



<p style="line-height:1">Simó Soler, E. (2024). Hacia una Inteligencia Artificial Interseccional. <em>Investigaciones Feministas</em>, <em>15</em>(1), 127–134. https://doi.org/10.5209/infe.81954</p>



<p style="line-height:1">Zowghi, D., &amp; Bano, M. (2024). AI for all: Diversity and Inclusion in AI. <em>AI and Ethics</em>, <em>4</em>(4), 873–876. https://doi.org/10.1007/s43681-024-00485-8</p>



<p></p>
<p>The post <a href="https://cenia.cl/2025/03/09/emocionalidad-estereotipos-y-la-revolucion-tecnologica-reflexiones-sobre-el-8m-desde-la-ia-sociotecnica/">Emocionalidad, estereotipos y la revolución tecnológica: reflexiones sobre el 8M desde la IA sociotécnica</a> appeared first on <a href="https://cenia.cl">CENIA</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La violencia de género facilitada por IA no es un caso aislado y requiere regulaciones</title>
		<link>https://cenia.cl/2024/05/27/la-violencia-de-genero-facilitada-por-ia-no-es-un-caso-aislado-y-requiere-regulaciones/</link>
		
		<dc:creator><![CDATA[manadmin]]></dc:creator>
		<pubDate>Mon, 27 May 2024 19:57:01 +0000</pubDate>
				<category><![CDATA[Noticias]]></category>
		<category><![CDATA[Opinión]]></category>
		<category><![CDATA[ViolenciaDeGénero]]></category>
		<guid isPermaLink="false">https://cenia.cl/?p=2677</guid>

					<description><![CDATA[<p>Por: Claudia López Moncada, investigadora principal de Cenia y académica de la Universidad Técnica Federico Santa María; Alexandra Davidoff, socióloga, estudiante de Máster en Sociología de la Infancia y Derechos del Niño, Social Research Institute, University College London (UCL); Dusan Cotoras, sociólogo e investigador del Núcleo Milenio Futuros de la Inteligencia Artificial (FAIR). No es [&#8230;]</p>
<p>The post <a href="https://cenia.cl/2024/05/27/la-violencia-de-genero-facilitada-por-ia-no-es-un-caso-aislado-y-requiere-regulaciones/">La violencia de género facilitada por IA no es un caso aislado y requiere regulaciones</a> appeared first on <a href="https://cenia.cl">CENIA</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-image aligncenter size-large"><img decoding="async" width="1024" height="780" src="https://cenia.cl/wp-content/uploads/2024/05/Plantilla-imagenes-noticias-y-ofertas-laborales-practicas-concursos-etc.-1-1-1024x780.png" alt="" class="wp-image-2678" srcset="https://cenia.cl/wp-content/uploads/2024/05/Plantilla-imagenes-noticias-y-ofertas-laborales-practicas-concursos-etc.-1-1-1024x780.png 1024w, https://cenia.cl/wp-content/uploads/2024/05/Plantilla-imagenes-noticias-y-ofertas-laborales-practicas-concursos-etc.-1-1-300x229.png 300w, https://cenia.cl/wp-content/uploads/2024/05/Plantilla-imagenes-noticias-y-ofertas-laborales-practicas-concursos-etc.-1-1-768x585.png 768w, https://cenia.cl/wp-content/uploads/2024/05/Plantilla-imagenes-noticias-y-ofertas-laborales-practicas-concursos-etc.-1-1.png 1050w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p class="has-purple-color has-text-color has-link-color wp-elements-be6dfd24379cd8cf5266594ace6d694d"><em>Por: Claudia López Moncada, investigadora principal de Cenia y académica de la Universidad Técnica Federico Santa María; Alexandra Davidoff, socióloga, estudiante de Máster en Sociología de la Infancia y Derechos del Niño, Social Research Institute, University College London (UCL); Dusan Cotoras, sociólogo e investigador del Núcleo Milenio Futuros de la Inteligencia Artificial (FAIR).</em></p>



<p>No es la primera vez que ocurre una situación similar a la del colegio Saint George, donde seis alumnos crearon, con sistemas de inteligencia artificial (IA), fotos falsas de sus compañeras desnudas, las cuales luego difundieron. Lo mismo ocurrió en un colegio del mismo nombre en Chorrillos, Perú, y en Almendralejo, España. La problemática es preocupantemente familiar. La generación de imágenes pornográficas por medio de IA, o “<em>deepfake porn</em>” (en inglés), es de tal magnitud que el Reino Unido y EE.UU ya están legislando para criminalizar este tipo de actividades.</p>



<p>Y es que estas acciones no pueden reducirse, como parece haberse hecho en este caso, a una simple infracción escolar. Es, a todas luces, una forma de agresión sexual, que atenta contra los derechos fundamentales de las niñas y adolescentes involucradas y puede llegar a tener un impacto de por vida debido al daño provocado y, además, la dificultad de eliminar datos del mundo digital. En este sentido, la generación y difusión de una imagen pornográfica falsa y sin consentimiento, no puede, ni debe, equipararse a una simple conducta inapropiada. </p>



<p>Precisamente porque no es la primera vez, es importante que no se aborde como un caso aislado. Después de todo, los estudiantes que cometieron estos actos también son menores de edad que han aprendido estas conductas desde la sociedad en que han crecido. Si bien esto no los exculpa de responsabilidades, debería hacernos reflexionar acerca de nuestra cultura que, en la práctica, permite y reproduce la violencia de género.</p>



<p>Mucho se habla de cómo los niños internalizan la violencia desde su contexto, pero no de las distintas formas que esto puede tomar. En este caso, la existencia y fácil acceso a sistemas de IA específicamente diseñados para el acoso sexual, que solo sirven para desnudar falsamente cuerpos de personas que en las fotografías originales llevan vestuario. Que estos sistemas puedan existir es evidencia clara de un contexto que permite, reproduce y facilita las lógicas de la violencia de género, esta vez, en el mundo digital. Más aún: que esto no haya motivado inmediatamente su regulación por parte de las instituciones correspondientes evidencia que la permisividad a la agresión sexual hoy se extiende a la vida virtual.&nbsp;</p>



<p>Es preocupante que los establecimientos e instituciones ignoren la gravedad de la violencia de género que se da en lo virtual, restándole importancia a la victimización y re-victimización real que causa en las estudiantes mujeres. Aunque la generación de imágenes falsas, pero creíbles, a través de IA sea nueva, es también parte de una larga serie de acoso y abusos hacia niñas y adolescentes por parte de sus pares. En cada ocasión, el foco de la discusión ha representado a los victimarios como excepciones a la regla o personas que cometen errores puntuales, en vez de como reproductores de un patrón cultural, que debe abordarse también más allá de los casos particulares.</p>



<p>Si la discusión se limita exclusivamente a este caso puntual, éste muy probablemente no será el último. Estos sistemas son de fácil acceso para personas de todas las edades. Su uso puede convertir en víctimarios y víctimas de actos de una gravedad previamente impensable incluso a niños y niñas mucho más jóvenes, quienes hoy nacen inmersos en un entorno digital donde se normaliza la agresión sexual y se les expone constantemente a contenidos adultos de forma automatizada. Tal vulneración puede comenzar desde las edades más tempranas e incluso en espacios considerados seguros, como lo han demostrado controversias como la del algoritmo de YouTube Kids, en el que se identificó la difusión de videos violentos, perturbadores e inapropiados generados por IA y protagonizados por personajes infantiles como Elsa y Peppa Pig. Si bien no hay estadísticas exhaustivas sobre el tema en Chile, investigaciones en el Reino Unido evidencian cómo, más tarde en su desarrollo, muchos preadolescentes se ven expuestos a contenido digital pornográfico por primera vez de forma accidental, lo que a su vez conduce fácilmente al consumo de representaciones sexualizadas de extrema agresión hacia la mujer.</p>



<p>Este contexto no sólo facilita que se cometan actos de violencia, sino que resulta por sí mismo, una forma de violencia y una vulneración de los derechos de niñas, niños y adolescentes. Hay que recordar, además, que estos no tienen total autonomía ante la ley, y hay adultos responsables, que dan acceso a las tecnologías para hacer uso de ellas. Si bien vigilar las conductas de los hijos en el medio digital resulta un desafío, tampoco puede eximirse de la responsabilidad a los adultos que rodean a estos menores de edad y forman parte del contexto que permite este tipo de acciones.&nbsp;</p>



<p>Sin duda, la generación de imágenes pornográficas debe tipificarse como un delito, siguiendo la tendencia internacional y los principios de la actualizada Política de IA de nuestro país. Es urgente priorizar y atender a todas las niñas y adolescentes que han sido víctimas así como a sus familias. Sin embargo, es también necesario ampliar nuestra mirada. Ni la tecnología ni las conductas aprendidas de violencia de género existen fuera de nuestra sociedad. Quizás un aspecto más profundo de nuestra cultura se refleja en la reticencia a regular el medio digital y a prevenir proactivamente la violencia de género y hacia la niñez.&nbsp;</p>



<p>Si queremos que estas situaciones no se repitan, debemos responder a ellas. Pero debemos dejar de responder como si cada caso fuera la primera vez.</p>



<p></p>



<p></p>



<p></p>
<p>The post <a href="https://cenia.cl/2024/05/27/la-violencia-de-genero-facilitada-por-ia-no-es-un-caso-aislado-y-requiere-regulaciones/">La violencia de género facilitada por IA no es un caso aislado y requiere regulaciones</a> appeared first on <a href="https://cenia.cl">CENIA</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
