Con inteligencia artificial logran crear informes médicos

Haciendo uso de la inteligencia artificial, un egresado de la UNC logró implementar un modelo neuronal capaz de describir textualmente imágenes médicas

Las imágenes médicas, como radiografías y ecografías, son una herramienta muy utilizada que permite diagnosticar muchas enfermedades. Como todo, es necesario que algún especialista realice su interpretación. La tarea de escribir los resultados, que corresponde a especialistas en radiología o patología, se estima que demanda entre cinco y diez minutos aproximadamente, lo que ocupa la mayor parte de su jornada laboral.

Para optimizarlo, Lucas Garay, egresado de la Licenciatura en Ciencias de la Computación de la Facultad de Matemática, Astronomía, Física y Computación (Famaf) de la Universidad Nacional de Córdoba, diseñó un modelo basado en redes neuronales (inteligencia artificial) que permite obtener una descripción textual de una imagen.

Para ello, utilizó una arquitectura provista para la descripción de imágenes genéricas y la aplicó al dominio médico. “Un texto generado automáticamente puede reducir el trabajo que lleva a cabo el personal médico, que en lugar de redactar el informe completo se enfocará en revisar y modificar uno generado automáticamente”, explica el joven, quien actualmente se dedica a identificar imágenes médicas de los huesos de la pelvis en el Nanjing Technology Research Institute, en China.

Garay utilizó una base de datos abierta compuesta de 3.851 radiografías de la Universidad de Indiana (Estados Unidos) para “entrenar” a la red neuronal. “Primero le di a la red como entrada una radiografía asociada a un reporte, con tags o etiquetas que, a grandes rasgos, la describen. La clave es la cantidad de datos para que el modelo ‘aprenda’, de manera que pueda aprender los patrones de la imagen y, en base a eso, devolver un reporte”, describe.

La principal dificultad que debió resolver Garay fue la escasez de datos, porque si bien se generan grandes volúmenes de imágenes y reportes, estos no siempre se encuentran disponibles libremente para su uso.

“Para alimentar el sistema son necesarias imágenes con y sin patologías. Por ejemplo, radiografías de pulmones sanos y enfermos. A partir de esta necesidad surgió un problema denominado desbalanceo de clases: mi dataset tenía muchos más datos de pulmones sanos. Entonces muchas veces el reporte que devolvía la computadora estaba equivocado, decía que los pulmones estaban bien, pero en realidad la imagen tenía problemas”, manifiesta Lucas Garay.

Para solucionar este inconveniente, se balancearon las clases, es decir, se introdujeron la misma cantidad de datos de imágenes buenas y de imágenes con patologías a través de dos técnicas: suprasampling y subsampling. La primera permite multiplicar las imágenes introduciendo algún cambio como rotación o filtros. Se trata de la misma imagen, con la misma semántica, aplicada a la clase con menos ejemplos. La segunda se aplicó a la clase mayoritaria y consiste en extraer un subconjunto de los datos con el objetivo de nivelar la cantidad de ejemplos con respecto a la otra clase.

El desafío futuro es realizar transferencia de conocimiento o transfer learning entrenando el modelo con un conjunto de datos en español, ya que por disponibilidad de datos, este modelo fue realizado en inglés. “La buena noticia es que hace tres meses se publicó un gran conjunto de datos en castellano de radiografías asociadas a informes textuales. Creemos que con eso vamos a poder entrenar sistemas que hagan esta tarea automáticamente en nuestro idioma con mayor confiabilidad", comentó Laura Alonso Alemany, docente e investigadora de la Famaf y directora de este trabajo de tesis.

Fuente: UNCiencia

 

 
© 1997 - 2019 Todos los derechos reservados. Diseñado y desarrollado por HoyDia.com.ar