Investigadores de CENIA revelan por qué los modelos de lenguaje pueden ser “cegados” por la similitud

Uno de los trabajos más recientes elaborados por investigadores del Centro Nacional de Inteligencia Artificial – CENIA ha sido aceptado en NeurIPS 2025, una de las conferencias sobre Inteligencia Artificial más prestigiosas del mundo. La investigación profundiza en una característica fundamental de los modelos de lenguaje y revela una dualidad que explica por qué a veces fallan de maneras inesperadas.

Los modelos de lenguaje como ChatGPT o Gemini son increíblemente buenos reconociendo patrones. Si les muestras una secuencia lógica, aprenderán a continuarla. Una de sus habilidades más importantes es la continuidad, que es la capacidad de ser robustos frente a pequeños errores o “ruidos”.

Imaginemos que un modelo está analizando un texto con una larga serie de datos correctos y, de pronto, se encuentra con un dato erróneo. Un buen modelo debería ser capaz de identificarlo como una anomalía, ignorarlo y continuar el análisis correctamente. Esta habilidad es crucial y demuestra su inteligencia.

Sin embargo, nuestros investigadores descubrieron que esta fortaleza es también una debilidad. ¿Qué sucede cuando el modelo se enfrenta a un patrón que es muy complejo y sutil, pero que se parece estadísticamente a un patrón simple con errores? El estudio demuestra que la continuidad puede “cegar” al modelo. En lugar de identificar la nueva estructura compleja, el modelo la interpreta erróneamente como un “ruido” dentro de un patrón simple que ya conoce, fallando en comprender la verdadera lógica de la información.

Este fenómeno obliga al modelo a enfrentarse a un “trade-off” inevitable, un intercambio del que no puede escapar:

  1. El dilema: El modelo no puede ser experto en dos patrones que se parecen demasiado. Durante su entrenamiento, se ve forzado a “elegir” uno, generalmente el más simple o dominante. Al hacerlo, pierde la sensibilidad para reconocer las variaciones más complejas, aunque estas contengan información crítica.
  2. La duda: Si el modelo no logra decidirse por un patrón, su nivel de confianza en sus propias predicciones se desploma. Entra en un estado de incertidumbre que puede llevarlo a generar respuestas contradictorias, poco fiables o incluso alucinaciones.

Esta investigación, titulada “Continuity and Isolation Lead to Doubts or Dilemmas in Large Language Models”, tiene implicaciones profundas para la confiabilidad de la IA. En el mundo real, la diferencia entre el éxito y el fracaso puede depender de un detalle minúsculo: un error de un solo carácter en un código de programación, una sutil anomalía en una transacción financiera o un marcador casi imperceptible en una imagen médica.

Al identificar y definir matemáticamente esta limitación, CENIA no solo contribuye a la ciencia fundamental de la IA, sino que también sienta las bases para desarrollar futuras generaciones de modelos que sean capaces de superar estos dilemas, creando una tecnología más segura, precisa y con capacidades de inteligencia mayor.

El estudio fue realizado por los investigadores Héctor Pastén (Pontificia Universidad Católica de Chile), Felipe Urrutia (Universidad de Chile y CENIA), Héctor Jiménez (Universidad de Chile y CENIA), Cristian Buc Calderon (CENIA), Cristóbal Rojas (Pontificia Universidad Católica de Chile y CENIA) y Alexander Kozachinskiy (CENIA). 

El artículo completo está disponible en el repositorio científico arXiv: https://arxiv.org/abs/2505.10606

NeurIPS: principal conferencia sobre IA y aprendizaje automático

La Conferencia y Taller sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025) es una de las tres principales conferencias sobre investigación de la Inteligencia Artificial y aprendizaje automático.  Se celebra cada diciembre desde 1987 e incluye charlas, demostraciones, simposios y presentaciones, además de una exposición centrada en el aprendizaje automático, diferentes tutoriales y talleres temáticos que se configuran como una instancia fundamental para el desarrollo e intercambio de ideas. 

Es organizada por la Fundación NeurIPS y, por primera vez, en 2025 se celebrará en dos sedes físicas: San Diego (Estados Unidos) y Ciudad de México (México). La primera se llevará a cabo del 2 al 7 de diciembre; y la segunda entre el 30 de noviembre y el 5 de diciembre. 

Noticias

Noticias Recientes