CENIA logra cuatro aceptaciones en el ICML 2026, la “Premier League” del Machine Learning mundial

Entre el 6 y el 11 de julio, en Corea del Sur, CENIA participará en la International Conference on Machine Learning (ICML) 2026 con cuatro investigaciones aceptadas, dos de las cuales están dentro del selecto grupo de las spotlight, es decir, las investigaciones más recomendadas por el comité del programa. 

Cabe mencionar que este 2026 fueron 23.918 las publicaciones recibidas y aceptadas en la ICML, siendo solo 536 -el 2,2%- las que fueron designadas como spotlight, es decir, entre las investigaciones más recomendadas por el comité del programa. 

Dentro de los papers reconocidos como spotlight, están el Language Generation in the Limit: Complexity Barriers and Implications for Learning, liderado por el investigador principal de CENIA, Pablo Barceló, y realizado en coautoría con Marcelo Arenas, Luis Cofré y Alexander Kozachinskiy. El segundo, titulado como Recurrent Equivariant Constraint Modulation: Learning Per-Layer Symmetry Relaxation from Data, fue realizado por el investigador de CENIA, Mircea Petrache, junto a Stefanos Pertigkiozoglou, Shubhendu Trivedi y Kostas Daniilidis.

Para Barceló, estar en una de las tres conferencias de Machine Learning más relevantes del mundo -además de NeurIPS y la ICLR- quiere decir que CENIA está jugando en la primera división, la Premier League del Machine Learning. “Que nos hayan aceptado cuatro papers en una conferencia como la ICLM, nos posiciona además como uno de los poquísimos grupos latinoamericanos que está accediendo a publicar y a incidir en el debate sobre la investigación en Machine Learning”, comentó Barceló.

Estos espacios concentran tanto la investigación teórica como práctica del área y reciben tanto los publicaciones como trabajos de las principales empresas tecnológicas como Meta, OpenAI, Google y NVIDIA como de las universidades más destacadas del mundo, entre las que se cuentan MIT, Stanford, la Universidad de Toronto y Carnegie Mellon University, considerada la institución más fuerte en Machine Learning a nivel global. 

Talento CENIA en las grandes ligas

Uno de los papers distinguidos como spotlight: “Language Generation: Complexity Barriers and Implications for Learning”, aborda la investigación fundamental sobre cómo funcionan las arquitecturas modernas de Inteligencia Artificial. “Estamos yendo a las raíces de entender cómo las arquitecturas modernas de Machine Learning logran aprender. A partir de entender mejor cómo pueden aprender, también entendemos sus limitaciones y podemos darle más capacidades”, indica Barceló

Ya se sabía que si se le muestran suficientes ejemplos a una IA, en teoría puede generar texto indistinguible del lenguaje original. Lo que este paper demuestra es que esa posibilidad teórica no se traduce necesariamente en algo viable, ya que la cantidad de ejemplos necesarios puede volverse inmanejable incluso para los lenguajes más simples. Los investigadores CENIA establecen una brecha entre lo que es posible en teoría y lo que es alcanzable en la práctica, con implicaciones directas para entender los límites reales de los chatbots. 

El segundo trabajo en esta categoría, “Recurrent Equivariant Constraint Modulation: Learning Per-Layer Symmetry Relaxation from Data”, del investigador CENIA Mircea Petrache, Stefanos Pertigkiozoglou, Shubhendu Trivedi y Kostas Daniilidis, investiga las redes neuronales pueden diseñarse para respetar simetrías: si rotas la imagen de un gato, sigue siendo un gato; si rotas una molécula, sigue siendo la misma molécula. Incorporar esta lógica mejora el aprendizaje, pero aplicarla de forma demasiado rígida puede ser contraproducente. Cuando los investigadores querían dar más flexibilidad al modelo, debían ajustar manualmente capa por capa cuánta libertad otorgarle, un proceso costoso y difícil de calibrar para cada tarea.

Este paper propone RECM, un mecanismo que funciona como un regulador automático que aprende directamente desde los datos cuánta simetría aplicar en cada capa de la red, sin intervención humana. Si los datos son perfectamente simétricos, el modelo mantiene las reglas estrictamente; si presentan irregularidades, se vuelve más flexible por sí solo. Los autores demuestran matemáticamente que este proceso converge de forma estable y lo validan en tareas diversas, incluyendo la predicción de estructuras moleculares de fármacos, uno de los problemas más exigentes en el área.

En la misma conferencia, también fue aceptado “Seeing to Generalize: How Visual Data Corrects Binding Shortcuts“, de Nicolas Buzeta, Felipe del Rio, Cristian Hinostroza, Denis Parra, Hans Lobel y Rodrigo Toro, descubrió que los modelos de IA que combinan texto e imágenes pueden superar a los que trabajan solo con texto, incluso en tareas sin imágenes. Los experimentos muestran que los modelos entrenados solo con texto tienden a fijarse en la posición de las palabras en lugar de su significado. El entrenamiento con imágenes corrige ese comportamiento y el modelo mantiene esa mejora incluso cuando vuelve a trabajar solo con texto.

Ante el tipo de trabajo realizado por los investigadores CENIA, el investigador principal del centro comentó: “Hay mucho de fundamento en nuestro equipo, así que nosotros tratamos siempre de entender cuáles son las componentes básicas principales que orientan el diseño de estas arquitecturas”.

Completando la participación de investigaciones lideradas por CENIA, se encuentra “Message Passing on the Edge: Towards Scalable and Expressive GNNs” elaborado por Pablo Barceló, Fabian Jogl, Alexander Kozachinskiy, Matthias Lanzinger, Stefan Neumann y Cristóbal Rojas, desarrolla una arquitectura de red neuronal de grafos que busca ser potente y eficiente al mismo tiempo. “Lo que buscamos con eso es poner al servicio de la comunidad científica una arquitectura que pueda detectar muchas cosas en grafos y al mismo tiempo no gaste tantos recursos como las arquitecturas actuales”, explica Barceló.

Se trata de una investigación sobre redes neuronales diseñadas para analizar grafos, es decir, estructuras que representan relaciones entre elementos como usuarios en una red social. El enfoque habitual transmite información entre los puntos del grafo, pero este trabajo propone hacerlo a través de las conexiones entre ellos. Los autores demuestran que este método detecta patrones más complejos que los enfoques tradicionales y lo hace sin requerir más tiempo ni memoria computacional.


La tasa de aceptación general de ICML 2026 fue de 26,6%, con 6.352 trabajos aceptados del total de presentaciones que entraron en revisión. Los investigadores cuyos trabajos fueron aceptados como spotlight papers tendrán la posibilidad de presentar oralmente su investigación, además de la presentación en póster que corresponde a todos los trabajos aceptados.

CENIA planifica la presentación de al menos dos trabajos por grupo de investigación en las tres conferencias principales del área. En las últimas ediciones de estos eventos, el centro ha mantenido un promedio de cuatro papers aceptados, posicionándose como uno de los pocos grupos latinoamericanos con presencia regular en los espacios donde se define el estado del arte de la inteligencia artificial a nivel mundial.

Noticias

Noticias Recientes