2 de junio de 2022 · 2 Min. de lectura

Papers de Yamisleydi Salgueiro son publicados en dos reconocidas revistas científicas

Dos artículos científicos de la investigadora Cenia, Yamisleydi Salgueiro, fueron publicados por destacadas revistas internacionales sobre inteligencia artificial: IEEE Transactions on Cybernetics y Neural Computing and Applications. Yamisleydi Salgueiro es experta en ciencias de la computación e inteligencia artificial, siendo sus principales áreas de especialización la optimización multiobjetivo, aprendizaje profundo y microrredes eléctricas inteligentes. Actualmente, es académica de la Facultad de Ingeniería de la Universidad de Talca y en Cenia participa en la línea de investigación “Aprendizaje Profundo para Visión y Lenguaje” (RL1).
El paper titulado Long Short-term Cognitive Networks, realizado por la investigadora junto a Gonzalo Nápoles, Isel Grau y Agnieszka Jastrzebska, fue publicado en la revista Neural Computing and Applications. Esta revista se dedica a recoger investigaciones originales en el campo de las aplicaciones prácticas de la computación neuronal y técnicas afines como los algoritmos genéticos, lógica difusa y sistemas difusos.
 
El segundo paper, titulado Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern Classification, fue realizado en colaboración a Gonzalo Nápoles, Isel Grau y Maikel León Espinosa, y seleccionado para ser publicado por la prestigiosa revista IEEE Transactions on Cybernetics, la que se se encuentra en el top 10 de los journals de la Web of Science en la categoría de Inteligencia Artificial: “Los artículos que ahí se publican tienen un amplio alcance entre la comunidad académica, lo que permite incrementar tanto la visibilidad de nuestra investigación, así como su impacto” señala la investigadora.
 
Salgueiro opina que estos proyectos son relevantes principalmente por dos razones. Por una parte, en ambos papers se presentan sistemas neuronales donde se articulan arquitecturas y algoritmos de aprendizaje novedosos, y por otra, abordan mecanismos que permiten la interpretabilidad, hasta cierto punto, de los modelos que se generan. Esto último es importante, ya que se relaciona con los valores de transparencia y fiabilidad que actualmente se esperan en el desarrollo de tecnologías de inteligencia artificial.
 
Revisa las publicaciones originales aquí:
 
Neural Computing and Applications
 
IEEE Transactions on Cybernetics


48 visualizaciones