
Investigadores de CENIA y de Medicina de la Pontificia Universidad Católica de Chile presentaron un sistema capaz de analizar imágenes de rayos X, detectar anomalías, marcarlas en la imagen y redactar borradores de informes clínicos automáticamente, reduciendo la carga laboral de los especialistas.
¿Puede una máquina escribir un reporte médico? En el sistema de salud actual, el volumen de exámenes digitales crece más rápido que la cantidad de especialistas disponibles. Ante este escenario, un equipo multidisciplinario liderado por Denis Parra (Ingeniería UC, Cenia, iHEALTH) y la Dra. Cecilia Besa (Medicina UC, iHEALTH) desarrolló un conjunto de herramientas de IA que no solo es capaz de “ver” una radiografía y hacer un reporte con palabras técnicas, sino que incluso indicar en la imagen el lugar donde está el problema.
“A diferencia de otras IA, este sistema es multimodal: procesa la imagen y el lenguaje al mismo tiempo para generar un reporte narrativo que sirve como borrador para el médico”, explica el investigador de CENIA.
El proyecto, financiado por el Fondecyt 1231724 y que acaba de concluir, además de entregar nuevos modelos de IA para la práctica médica, también aborda la histórica falta de información clínica en español para entrenar estos modelos.
Hitos de la investigación
1.Soberanía de Datos: El proyecto creó una base de datos (dataset) de 50.000 imágenes de rayos X de tórax de pacientes chilenos. Estos archivos incluyen reportes médicos anonimizados, es decir, con resguardo total de la identidad de las personas, y un subconjunto de 5.000 imágenes torácicas que tienen marcada la ubicación de los hallazgos identificados por médicos visualmente y que permiten entrenar a la IA.
2. IA que audita los datos de texto (CXR-FE): Este modelo de IA convierte informes radiológicos de texto en datos estructurados de alta precisión. A diferencia de una IA común, CXR-Fact-Encoder (CXR-FE) identifica hechos clínicos reales permitiendo “abordar tareas como clasificación de texto y evaluación de cualquier IA que genere reportes radiológicos”.
3.. IA para hallazgos médicos (CURE): El modelo CURE es el sistema de IA que puede llegar a la clínica. A partir de imágenes de rayos-X, genera el reporte radiológico y, además, la identificación visual en la imagen de los hallazgos descritos. Para lograrlo, el equipo entrenó al modelo para procesar las imágenes como si fueran texto: dividió la radiografía en pequeñas partes y las asoció directamente con palabras específicas. “Gracias a esta alineación, el modelo no solo entrega un informe escrito, sino que señala en la imagen exactamente dónde detectó el problema, permitiendo una validación inmediata por parte del radiólogo”.
Ciencia abierta y colaboración
El éxito de esta investigación es fruto de la colaboración entre la investigación en IA de Cenia e Ingeniería UC, la práctica clínica de Medicina UC y la investigación del Instituto Milenio iHEALTH.
Fiel a su compromiso, el equipo liberará el código y las herramientas de forma abierta (Open Source) para que la salud pública y privada pueda beneficiarse de esta tecnología. “La liberación de esta base de datos permitirá probar si los modelos de IA más avanzados del mundo funcionan en pacientes locales. Al incluir información de Chile y en español, los científicos podrán entrenar sistemas que reconozcan las enfermedades específicas que afectan a Latinoamérica, las cuales suelen ser distintas a las de regiones como Norteamérica, Europa o Asia”, explica Denis Parra.
Los modelos de IA (CXR-FE y CURE) estarán disponibles a finales de marzo 2026, mientras que la base de datos, dentro del primer semestre de este año. “Es posible que podamos ver al menos un piloto de nivel de investigación de esta tecnología para enfermedades frecuentes. Aún falta más desarrollo y validación para nivel clínico”, sostiene Parra.
RECUADRO
Otros hallazgos
- Como un trabajo extra a la investigación, el proyecto también logró avances en el análisis de Resonancia Magnética de próstata. Mediante técnicas de autosupervisión, la IA pudo aprender de grandes volúmenes de datos sin necesidad de que cada imagen sea etiquetada manualmente por un humano. “Esto mejora drásticamente el entrenamiento de los modelos y mejora la precisión en la detección y segmentación de posibles tumores”.
- Otro subproyecto desarrollado fue el estudio de la calidad de modelos existentes de IA generativa para imágenes sintéticas de rayos X, como RoentGen, publicado recientemente por la Universidad de Stanford. “Nuestra evaluación con médicos concluyó que imágenes con algunas enfermedades pueden ser generadas con suficiente calidad (como atelectasia y derrame pleural), pero otros hallazgos requieren aún mucho trabajo (como las opacidades pulmonares) para que sean lo suficientemente realistas y así alimentar el entrenamiento de modelos de IA futuros”.
Puedes encontrar más antecedentes sobre esta investigación en el siguiente enlace: https://docs.google.com/presentation/d/1tEj9C2eRNpbNKaap-4ZTcUnVIDajSXln/edit?slide=id.p1#slide=id.p1
Equipo Investigador: Denis Parra (CENIA, Ingeniería UC, HEALTH), Cecilia Besa (Medicina UC, iHEALTH ), Pablo Messina (UC), Oscar Loch (UC), Alonso Tamayo (UC), Diego Lobos, Francisco Madariaga, Diego Campanini (HEALTH) y Felipe Flores (Medicina UC). Con contribuciones de Jorge Pérez (UC), Gregory Schuit (UC), Alvaro Soto (CENIA-UC) y colaboradores internacionales: René Vidal (UPenn), Yuyan Ge (UPenn), Bernard Ghanem (KAUST), Andrés Villa (KAUST).
Estudiantes:
- Base de datos: Óscar Loch (doctorado UC), Alonso Tamayo (pregrado UC) y Felipe Flores (oregrado Medicina UC).
- CXR FE: Pablo Messina (doctorado UC), co-supervisor director de CENIA Álvaro Soto y colaboración con Universidad de Pennsylvania, profesor René Vidal y alumna de doctorado Yuyan Ge.
- CURE: Pablo Messina (doctorado UC), co-supervisor Álvaro Soto y colaboración con KAUST, Bernard Ghanem y Andrés Villa.
- Resonancia próstata: Jorge Pérez (Magíster UC) e ingeniero iHealth, Diego Campanini.
- Calidad de modelos IA: Gregory Schuit (magister UC).



