
El académico de la U. de Tarapacá e investigador asociado de CENIA, Guillermo Puebla, evaluó cómo distintos modelos de Inteligencia Artificial resuelven tareas visuales similares a las que se usan en experimentos con personas y animales, revelando que la IA aún presenta dificultades para entender lo que observa.
¿Pueden las máquinas razonar de forma similar a los seres humanos? Ésta es la pregunta que guía el nuevo estudio del doctor en Psicología chileno, Guillermo Puebla, académico de la Universidad de Tarapacá e investigador asociado del Centro Nacional de Inteligencia Artificial (CENIA), quien realizó recientemente esta publicación en la revista Neural Networks, (https://doi.org/10.1016/j.neunet.2025.107582), posicionada dentro del 25% de las revistas científicas más prestigiosas e influyentes en su área de especialización.
Para responder a esta interrogante, Puebla unió fuerzas con Jeffrey S. Bower, investigador de la Escuela de Ciencias Psicológicas de la Universidad de Bristol, Inglaterra y así enfocarse en entender mejor cómo “piensa” la Inteligencia Artificial. Para ello compararon cómo los distintos tipos de redes neuronales artificiales (la base de la IA) reaccionan a imágenes exhibidas, de forma similar a como se hacen experimentos visuales con personas o animales.
Una de las pruebas más simples, pero reveladoras, consistió en mostrarle a la IA dos objetos y pedirle concluir si eran iguales o no. Aunque ésta es una tarea sencilla para un humano, para la IA representa un desafío cuando se usan imágenes que no ha visto durante su entrenamiento. La pregunta a priori fue si entendería la lógica de igual o diferente o si respondería bien solo cuando viera imágenes conocidas.
Dichas preguntas, como explica Puebla, eran cruciales por dos razones. “Primero, porque algunos científicos han propuesto que el sistema visual humano funciona de forma similar a ciertas redes neuronales artificiales, por lo que de ser cierto, estas redes deberían ser capaces de mostrar habilidades similares. El segundo aspecto relevante, es que necesitamos saber qué tan ‘inteligentes’ son las respuestas de estos modelos de IA y en qué contextos podemos confiar en ellas”, afirma el investigador.
¿Qué descubrieron?
El estudio mostró que algunas redes neuronales avanzadas, en particular, las llamadas “centradas en objetos” -que analizan una escena dividiéndola en partes— lograron un mejor desempeño. Al enfocarse por separado en cada objeto, dichas redes se acercaron más a una forma de razonamiento visual similar a la humana.
Sin embargo, el equipo liderado por Puebla se encontró con límites importantes. Aunque algunas redes pudieron resolver de forma correcta las tareas simples, fallaron cuando las pruebas se volvieron más complejas o cuando se usaron objetos completamente nuevos. En esos casos, muchas no lograron generalizar lo aprendido, es decir, aplicar lo que habían aprendido en un contexto nuevo o con datos distintos a los que vieron durante su entrenamiento.
Tal como señala el investigador, esto es clave en el desarrollo de la Inteligencia Artificial: no basta con que un modelo aprenda a reconocer formas repetidas en los datos con los cuales se le entrena o enseña. Lo realmente importante es que sea capaz de entender la lógica que hay detrás de una tarea y aplicar ese conocimiento en situaciones nuevas. “Solo así podremos avanzar hacia una IA más flexible y útil en contextos diversos“, explica. “En el fondo, el desafío no es solo ver, sino entender. Para que la IA pueda razonar como nosotros, debe aprender a identificar objetos, descomponerlos en partes y combinar esa información de manera lógica y coherente. Aún estamos lejos de eso”, afirma.
El estudio contó con el apoyo del proyecto basal CENIA (ANID FB210017) y del Consejo Europeo de Investigación (ERC).