CENIA presenta dos estudios en importantes conferencias de Inteligencia Artificial

  • El Centro Nacional de Inteligencia Artificial (CENIA), presentó dos estudios realizados equipos de investigadores del centro en importantes conferencias internacionales de Inteligencia Artificial.

¿Qué tan bien comprenden las imágenes los modelos de Inteligencia Artificial actuales? Ese fue el eje de los dos estudios que el director del Centro Nacional de Inteligencia Artificial (CENIA), Álvaro Soto, presentó en la Conference on Computer Vision and Pattern Recognition (CVPR) 2025, el principal encuentro internacional sobre visión por computador, realizado entre el 11 y el 15 de junio en Nashville, Estados Unidos.

Álvaro Soto, también académico del Departamento de Ciencia de la Computación de la Universidad Católica, presentó las investigaciones realizadas por un equipo de investigadores del CENIA , el que explora los límites y desafíos de los llamados asistentes multimodales, es decir, de sistemas capaces de interpretar imágenes y generar respuestas en lenguaje natural. Cabe mencionar que su aplicación es cada vez más común en áreas como salud, educación y ciencia, pero persisten dudas sobre cuán bien estos modelos comprenden realmente lo que están “viendo”.

El primer estudio, Data Distributional Properties as Inductive Bias for Systematic Generalization se enfoca en otro aspecto importante: cómo la organización de los datos de entrenamiento influye en la capacidad del modelo para generalizar, es decir, para resolver bien tareas nuevas, no vistas antes. El equipo descubrió que ciertas variaciones en los datos —como mayor diversidad o pequeñas modificaciones— pueden mejorar considerablemente la precisión, llegando hasta un 89% en algunos casos. Estos resultados refuerzan la idea de que no solo importa el diseño del modelo, sino también la calidad y estructura del set de datos.

El estudio fue seleccionado para presentarse en CVPR 2025, en una competencia altamente exigente. La presencia del director del CENIA en este escenario internacional destaca el nivel de la investigación del centro en materia de IA y cómo éste está ofreciendo herramientas concretas para avanzar hacia modelos más precisos, confiables y útiles para la sociedad.

El segundo, titulado Tracr-Injection: Distilling Algorithms into Pre-trained Language Models presenta tracr-injection, un método para incorporar directamente algoritmos simbólicos escritos en el lenguaje RASP dentro de modelos de lenguaje preentrenados basados en transformers. Al inyectar estos algoritmos, el método genera una subestructura interpretable en el modelo y mejora su desempeño en tareas fuera del dominio de entrenamiento, evidenciando un mecanismo simbólico interno que supera las limitaciones del aprendizaje no supervisado tradicional.

Tracr-Injection fue presentado en la 63ª Reunión Anual de la Asociación de Lingüística Computacional (ACL 2025) se lleva a cabo en Viena, Austria, entre el 27 de julio al 1 de agosto de 2025.

Puedes revisar los estudios aquí: 

Tracr-Injection: Distilling Algorithms into Pre-trained Language Models

Tomás Vergara-Browne, Álvaro Soto

https://arxiv.org/abs/2505.10719

Data Distributional Properties As Inductive Bias for Systematic Generalization

Felipe del Río, Alain Raymond-Sáez, Daniel Florea, Rodrigo Toro Icarte, Julio Hurtado, Cristián Buc Calderón, Álvaro Soto.

https://arxiv.org/abs/2502.20499

Noticias

Noticias Recientes