Investigadores CENIA crean “gemelo digital” de las conversaciones en redes sociales para estudiar discursos de odio y desinformación

  • Un equipo de investigadores de nuestro centro y de la Pontificia Universidad Católica de Chile  construyó un sistema capaz de simular discusiones en redes sociales, recreando miles de usuarios virtuales que interactúan entre sí en un entorno controlado.
  • Este trabajo es clave para entender cómo se propaga la desinformación y los discursos de odio en redes sociales.

Los autores del estudio son Min Soo Jeon, Marcelo Mendoza, Miguel Fernández, Eliana Providel, Felipe Rodríguez, Nicolás Espina, Andrés Carvallo y Andrés Abeliuk concluyeron un trabajo titulado “Simulating conversations on social media with generative agent-based models”, el que fue publicado en la revista EPJ Data Science. 

El objetivo trazado fue construir un simulador que les permitió a los investigadores estudiar fenómenos como la desinformación o cómo se forman las “burbujas de opinión” de forma segura y controlada, ayudando a entender qué hace que una noticia se vuelva viral o cause conflicto.

Para ello, crearon un mundo virtual en un ambiente de pruebas, una especie de juego de simulación para recrear una red social ficticia en la que miles de usuarios interactúan según reglas programadas, lo que recibe el nombre de Modelado Basado en Agentes (ABM). 

A cada perfil creado, le otorgaron personalidad, temperamento y opiniones para que pudieran conversar y opinar frente a un tema particular y, así, recrear sus discusiones, identificar respuestas, evaluar cambios de tono en la conversación y pesquisar conflictos. Para poder “conversar” los investigadores usaron Chat GPT-4o, de tal manera de poder escribir el texto real de cada mensaje.

Principales hallazgos

Entre los resultados de las interacciones en este mundo virtual de prueba se identificó que al comparar las conversaciones simuladas con conversaciones reales, las primeras fueron difíciles de diferenciar de las segundas, siendo los hallazgos más importantes los siguientes: 

  • La IA escribe “demasiado bien”: es más ordenada, más correcta y menos caótica que las personas reales.
  • Las personas somos más impredecibles: nuestro lenguaje cambia más, se desvía del tema y es menos uniforme.
  • La IA es más “correcta” y escribe bien: Los textos generados por la IA tienen mejor gramática, son más coherentes y se apegan más al tema original que las conversaciones humanas. Esto se debe a que la IA evita el lenguaje inapropiado.
  • Las personas son impredecibles: La gran diferencia que delata a la IA es que sus textos son más predecibles. El lenguaje humano, en cambio, es inherentemente más complejo y tiene una variabilidad que los modelos actuales no logran replicar del todo.
  • La desinformación genera más negatividad. En un estudio de caso, los investigadores demostraron que las conversaciones simuladas sobre contenido falso tienden a volverse más negativas que las discusiones sobre contenido verdadero.

En resumen, con este trabajo, los investigadores crearon un “gemelo digital” de las conversaciones en redes sociales, un entorno virtual donde miles de usuarios ficticios, impulsados por Inteligencia Artificial, discutieron entre sí de forma muy parecida a como lo hacen las personas, lo que no sólo demostró que la IA ya es capaz de generar discusiones sociales creíbles, sino que permitió estudiar – en un entorno controlado, de manera ética y reproducible- cómo reaccionan las personas y bots frente a un tema particular y cómo existe el peligro de generar desinformación y discursos de odio cuando se comparten noticias falsas en una red. 

El estudio impulsado por los investigadores podría abrir la puerta para anticipar comportamientos sociales complejos y, de paso, diseñar mejores estrategias de prevención y respuesta en materia de seguridad digital, antes de que estos fenómenos ocurran en el mundo real.

Puedes acceder al artículo completo aquí: https://link.springer.com/article/10.1140/epjds/s13688-025-00593-3

Noticias

Noticias Recientes