Download PDF
Transcript
Segmentación de Imágenes Médicas utilizando espacio de color Juan Pablo Gasparri Directores: Dr. Juan Ignacio Pastore y Dra. Agustina Bouchet Carrera: Ingeniería Electrónica Año: 2011 Resumen: La retinopatía diabética es la causa más frecuente de ceguera entre la población activa en los países desarrollados. Una pronta exploración oftalmológica seguida de un correcto tratamiento puede prevenir cegueras. El propósito de este trabajo es el desarrollo de un método automático para la segmentación del árbol vascular en imágenes de retinografías con el fin de asistir al experto en el seguimiento de un tratamiento específico o en el diagnóstico de posibles patologías. Se propone combinar técnicas de Morfología Matemática y técnicas generales del Procesamiento Digital de Imágenes en el espacio color CIELAB con el propósito de realzar dichas ramificaciones. 1. Introducción La retinopatía diabética (RD) es la causa más frecuente de ceguera entre la población activa en los países desarrollados. Una pronta exploración oftalmológica seguida de un correcto tratamiento puede prevenir hasta el 95% de las cegueras [1-3]. El estudio en profundidad de las características de los vasos sanguíneos de la retina, como ancho y patrón de ramificación, proporciona una información crucial al oftalmólogo. Debido al poco contraste que existe entre el fondo ocular y los vasos sanguíneos en las imágenes de retinografía, la segmentación de estos últimos no es una tarea sencilla. Segmentar una imagen es un proceso que consiste en descomponerla en regiones de interés, es decir, particionarla según sus componentes estructurales más importantes siguiendo algún criterio. Dicho criterio dependerá del resultado que se desee obtener sobre la imagen [4]. Los métodos para llevar a cabo una segmentación varían ampliamente dependiendo de la aplicación específica, tipo de imagen y otros factores. El ruido, los volúmenes parciales y los movimientos en la imagen, también pueden tener consecuencias significativas en el desempeño de los algoritmos de segmentación. Actualmente no existe un método de segmentación que alcance resultados aceptables para todo tipo de imagen médica. No existen métodos que sean generales y que puedan ser aplicados a cualquier variedad de datos. Las imágenes que se obtienen en una retinografía son imágenes color. En la actualidad, el uso de imágenes en color para su procesamiento y análisis es cada vez mayor, frente a las imágenes en niveles de gris, debido a la información adicional que éstas presentan [5-6]. Tradicionalmente, la utilización de imágenes en color para diagnóstico no se encontraba ampliamente difundida en las distintas disciplinas debido a las limitaciones en las capacidades de los equipos de captura y procesamiento, además de los costos y tiempos de procesamiento que eran prohibitivos. Sin embargo, en la actualidad, el crecimiento en el poder de cálculo, las capacidades de almacenamiento y la modernización de sistemas de bajo costo de captura e impresión de imágenes han impulsado un interés creciente en la utilización de imágenes en color en el desarrollo de muchas aplicaciones. Debido al poco contraste que existe entre el fondo ocular y los vasos sanguíneos en las imágenes bajo estudio, la segmentación de estos últimos no es una tarea sencilla. En este trabajo se propone combinar técnicas de Morfología Matemática y técnicas generales del Procesamiento Digital de Imágenes en el espacio color CIELAB con el propósito de realzar dichas ramificaciones para mejorar su visualización y así asistir a los expertos en sus diagnósticos. a) b) 2. Materiales y Métodos 2.1 Modelo CIELAB El modelo CIE L*a*b* (CIELAB) es el modelo cromático usado normalmente para describir todos los colores que puede percibir el ojo humano. Fue desarrollado específicamente con este propósito por la Commission Internationale d'Eclairage (Comisión Internacional de la Iluminación), razón por la cual se abrevia CIE. Los asteriscos (*) que siguen a cada letra forman parte del nombre, ya que representan L*, a* y b*, de L, a y b. Dichos parámetros representan la luminosidad de color (L*, L* = 0 rendimientos negro y L* = 100 indica blanca), su posición entre magenta y verde (a*, valores negativos indican verde mientras valores positivos indican magenta) y su posición entre amarillo y azul (b*, valores negativos indican azul y valores positivos indican amarillo) (ver Figura 1). Figura 1: Representación gráfica del espacio CIELAB. Este espacio posee un subespacio que representa los cambios de luminosidad, permitiendo constrastar los vasos sanguíneos del fondo ocular de manera más eficiente que en otros espacios existentes. En la Figura 2 se muestra una descomposición de la imagen en este espacio [7]. c) d) Figura 2: a) Imagen original. b) Subespacio L del espacio color CIE LAB. c) Subespacio A del espacio color CIE LAB. d) Subespacio B del espacio color CIE LAB. 2.2 Método propuesto Una vez elegido el espacio color se procedió al procesamiento de la imagen de retinografía. El procesamiento de la imagen se descompone en cuatro pasos fundamentales: 1. Modificación del contraste. 2. Binarización. 3. Filtrado de ruido. 4. Realce de la imagen. Paso 1: Modificación del contraste Este paso se realiza con el fin de contrastar el objeto deseado, es decir el árbol vascular, sobre el fondo no uniforme para su posterior segmentación. Para realizar esta tarea se combinan una serie de procesamientos. En primer lugar se efectúa un Top-Hat por cierre. Esta transformada permite resaltar objetos oscuros sobre fondos no uniformes. Para finalizar este pre-procesamiento se contrasta la imagen realizando un estiramiento de contraste “contrast stretching”. En este proceso el usuario tiene la posibilidad de modificar los valores de las pendientes del gráfico con una simple asignación de valores. Mediante esta función se logra mejorar el contraste de la imagen. El proceso consiste en estirar la distancia del segmento deseados y comprimir la distancia entre los segmentos fuera de este intervalo (ver Figura 3). De esta manera se aplica un contraste selectivo al segmento deseado en tonos de grises. Valores de gris de salida binaria todas las componentes conectadas de área menor a un determinado valor umbral (ver Figura 6). Valores de gises de entrada Figura 3: Curva entrada-salida de la función contrast stretching. A modo de ejemplo, en la Figura 4, se muestra la imagen original y la misma procesada por el contrast streching. a) b) c) Figura 4: a) Imagen entrada al contrast stretching. b) Curva del contrast streching. c) Imagen salida del contrast streching. Paso 2: Binarización La imagen obtenida en el paso anterior es una imagen en niveles de gris. Para la creación de la máscara que se utilizará en el realce de la imagen es necesario binarizarla. En este paso se lleva la imagen a valores binarios, para una correcta segmentación se debe tener especial cuidado en la elección del valor de umbral. La elección de este valor es fundamental para un correcto realce. Valores por debajo del óptimo incorporan demasiado ruido el cual no es fácil de filtrar posteriormente sin perder los vasos sanguíneos más pequeños. Valores superiores al óptimo eliminan las componentes más pequeñas del objeto a segmentar, los cuales no pueden ser recuperados posteriormente (ver Figura 5). a) b) Figura 5: a) Imagen en niveles de gris. b) Imagen binarizada. Paso 3: Filtrado del ruido Este proceso se realiza con el fin de filtrar el ruido que no se ha podido eliminar en la binarización. El filtrado se realiza mediante la utilización del operador morfológico “arearopen” el cual elimina de una imagen a) b) Figura 6: a) Imagen binaria. b) Imagen binaria filtrada por el operador morfológico areaopen. Paso 4: Realce de la imagen Para lograr el realce de la imagen original con el fin de asistir al profesional se altera el tono de los vasos sanguíneos sin alterar el resto de la imagen logrando así el realce buscado. Para tal fin se utiliza la máscara resultante de los tres pasos anteriores. La cual se multiplica por la imagen correspondiente al subespacio L (luminosidad) del espacio color CIE LAB de la imagen original. Este producto da como resultado un cambio de tono en los vasos sanguíneos de la imagen color final, sin afectar el resto de la imagen la cual conserva el valor original (ver Figura 7). (a) (b) (c) Figura 7: a) Imagen Original. b) Mascara binaria. c) Imagen realzada. 3. Resultados En la Figura 8 se muestra una serie de imágenes que se corresponden a los distintos pasos del método propuesto en esta tesis. A continuación, en las Figuras 9, 10 y 11, se muestran algunos resultados obtenidos a partir del método propuesto. En las Tablas 1, 2 y 3 se muestran los respectivos errores obtenidos a partir de la imagen gold standar utilizando la matriz confusión como método de validación [8]. En la Tabla 4 se pueden observar los errores porcentuales correspondientes a la validación de las 40 imágenes pertenecientes a la base de datos DRIVE de libre descarga [9]. a) (a) (b) (c) b) (d) (e) c) (f) Figura 8: a) Imagen original. b) Imagen correspondiente al subespacio L del espacio CIE LAB. c) Imagen realzada mediante el proceso de del contrast streching. d) Imagen binarizada. e) Imagen filtrada de ruido mediente el operador morfológico areaopen. f) Imagen realzada con la segmentacion propuesta. d) e) Figura 10: a) Imagen original. b) Imagen segmentada.c) Realce a partir de la imagen segmentada. d) Imagen gold standar. e) Realce a partir del gold standar. Tabla 2: Porcentaje promedio de píxeles para la imagen de la Figura 10. % de píxeles que deben % de píxeles que deben ser clasificados como ser clasificados como vasos sanguíneos fondo ocular % de píxeles que fueron clasificados como vasos 97.1891 6.98577 sanguíneos % de píxeles que fueron clasificados como fondo 2.81087 93.0142 ocular a) a) b) c) b) c) d) e) Figura 9: a) Imagen original. b) Imagen segmentada. c) Realce a partir de la imagen segmentada. d) Imagen gold standar. e) Realce a partir del gold standar. Tabla 1: Porcentaje promedio de píxeles para la imagen de la Figura 9. % de píxeles que deben % de píxeles que deben ser clasificados como ser clasificados como vasos sanguíneos fondo ocular % de píxeles que fueron clasificados como vasos 93.7348 3.98311 sanguíneos % de píxeles que fueron clasificados como fondo 6.26523 96.0169 ocular d) e) Figura 11: a) Imagen original. b) Imagen segmentada. c) Realce a partir de la imagen segmentada. d) Imagen gold standar. e) Realce a partir del gold standar. Tabla 3: Porcentaje promedio de píxeles para la imagen de la Figura 11. % de píxeles que deben % de píxeles que deben ser clasificados como ser clasificados como vasos sanguíneos fondo ocular % de píxeles que fueron clasificados como vasos 96.7926 7.64507 sanguíneos % de píxeles que fueron clasificados como fondo 3.20736 92.3549 ocular Tabla 4: Errores porcentuales correspondiente a las 40 imágenes de la base de datos DRIVE. objeto deben fondo deben objeto deben fondo deben ser objeto ser objeto ser fondo ser fondo Imagen 1 95,28376888 4,71623111 4,185340198 95,8146598 Imagen 2 98,2729249 1,72707510 8,281624289 91,71837571 Imagen 3 91,28608543 8,71391457 5,914570556 94,08542944 Imagen 4 96,4311427 3,56885729 7,374591263 92,62540874 Imagen 5 98,22200767 1,77799232 9,535538618 90,46446138 Imagen 6 98,15500988 1,84499012 8,967346878 91,03265312 Imagen 7 96,50738365 3,49261634 8,522302517 91,47769748 Imagen 8 97,57384341 2,42615658 9,733655082 90,26634492 Imagen 9 98,12263587 1,87736412 8,93133912 91,06866088 Imagen 10 97,97632131 2,02367868 7,56896286 92,43103714 Imagen 11 96,95180073 3,04819927 7,469680055 92,53031994 Imagen 12 95,83858574 4,16141425 6,71252245 93,28747755 Imagen 13 97,0709047 2,92909530 7,90426985 92,09573015 Imagen 14 95,93671413 4,06328586 5,452167328 94,54783267 Imagen 15 96,48153419 3,51846581 5,489863526 94,51013647 Imagen 16 97,65592235 2,34407765 6,887177507 93,11282249 Imagen 17 96,43342271 3,56657728 7,23278783 92,76721217 Imagen 18 96,90819386 3,09180614 6,058742957 93,94125704 Imagen 19 97,24328945 2,75671054 4,187349449 95,81265055 Imagen 20 97,87266493 2,12733507 6,172011271 93,82798873 Imagen 21 96,38666335 3,61333665 4,770172855 95,22982715 Imagen 22 98,73209828 1,26790172 9,492405773 90,50759423 Imagen 23 96,05953321 3,94046679 8,333670751 91,66632925 Imagen 24 98,62593728 1,37406271 12,02358151 87,97641849 Imagen 25 98,3612505 1,63874950 11,53341973 88,46658027 Imagen 26 94,9604243 5,0395757 7,257260282 92,74273972 Imagen 27 98,08306709 1,91693290 8,372394345 91,62760566 Imagen 28 96,29198741 3,70801258 6,687827235 93,31217277 Imagen 29 97,35783255 2,64216744 7,762157851 92,23784215 Imagen 30 93,83460289 6,16539710 5,850923175 94,14907682 Imagen 31 91,90727801 8,09272198 4,66207145 95,33792855 Imagen 32 97,68066752 2,31933248 6,769617798 93,2303822 imagen 34 97,00088034 2,99911966 5,750149339 94,24985066 Imagen 33 95,10231397 4,89768603 11,7497513 88,2502487 Imagen 35 96,58802014 3,41197986 6,104211539 93,89578846 Imagen 36 94,74842291 5,25157709 7,454536274 92,54546373 Imagen 37 91,37613754 8,62386246 4,767693652 95,23230635 Imagen 38 95,47806035 4,52193965 5,448783403 94,5512166 Imagen 39 97,22467757 2,77532243 6,474688188 93,52531181 Imagen 40 97,21746363 2,78253636 5,152907349 94,84709265 Promedio 96,48103688 3,51896311 7,225001685 92,77499831 Se puede observar que los porcentajes obtenidos en la clasificación de los vasos sanguíneos y del fondo ocular son muy elevados. Esto muestra una correcta segmentación de los mismos por parte del algoritmo propuesto. También se desprende de los resultados, que el mayor grado de confusión se presenta en los píxeles correspondientes al fondo ocular que son clasificados como árbol vascular. De la Tabla anterior se desprende que los promedios de los porcentajes para los vasos sanguíneos y el fondo ocular son 96,48% y 92,77%, respectivamente. 4. Conclusiones En este trabajo se propuso un método para el realce del árbol vascular en imágenes de retinografías con el objetivo de asistir a los expertos en la formulación de diagnósticos o en el seguimiento de un tratamiento específico. Se desarrolló un entorno gráfico ágil y de simple aplicación en el que de forma interactiva y en solo tres pasos se realiza la segmentación de los vasos sanguíneos presentes en dichas imágenes. La aplicación de los filtros en la etapa de preprocesamiento resultó esencial para evitar una sobre-segmentación de la imagen. Una vez definido el método de segmentación y el espacio color a utilizar, se emplearon imágenes simuladas e imágenes reales procedentes de una base de datos que incluye la segmentación gold standar, instrumento necesario para llevar a cabo la validación de cualquier método de segmentación. Los experimentos realizados con estas imágenes permitieron concluir que el método resulta robusto frente al ruido y al bajo contraste existente entre los vasos sanguíneos y el fondo de la imagen. Siendo las operaciones involucradas relativamente sencillas, los tiempos de cálculo resultaron bajos, lo que hace al método ser altamente adecuado para estudios en los que deben segmentarse una gran cantidad de imágenes. Se concluye que el método propuesto permite lograr una segmentación con un índice promedio de errores a inferir del orden del 6%. Es decir, un 94% de exactitud. Luego de realizar las pruebas necesarias y recibir las opiniones de los especialistas, se diseño una Interfaz Gráfica de Usuario para facilitar la tarea de los expertos. Como líneas de trabajo futuras, se continuará trabajando en la mejora de la técnica propuesta para mejorar aún más los resultados obtenidos con el algoritmo propuesto. [5] [6] [7] 5. Bibliografía [1] [2] [3] [4] Wilson C, Horton M, Cavallerano J and Aiello LM 2005 Addition of primary care-based retinal imaging technology to an existing eye care professional referral program increased the rate of surveillance and treatment of diabetic retinopathy Diabetes Care 28 318-322. Jiménez S, Alemany P, Fondón I, Foncubierta A, Ancha B and Serrano C 2010 Detección automática de vasos en retinografías Archivos de la Sociedad Española de Oftalmología (Elsevier) 85 103-109. Fong DS, Aiello L, Gardner TW, King GL, Blankenship G, Cavallerano JD, Ferris FL and Klein R 2003 Diabetic retinopathy Diabetes Care 26 226-229. Facon J, Morfología 1996 Matemática. Teoría e ejemplos. Editora Universitária Champagnat da Pontífica Universidade Católica do Paraná. [8] [9] Ledley, S., Buas, M., Golab, T. (1990). Fundamentals of true-color image processing. Proceedings of 10th International conference on Pattern Recognition, Atlantic City. pp 791-795. 1990. Plataniotis, K., Venetsanopoulos, A. (2000). Color Image Processing and Applications. SpringerVerlag. Plataniotis. Ortiz, F., Torres, F., Puentes, S., Candelas, F., Gil, P., (2000). Use of the Hue/Saturation/Intensity Colour Spaces to the Morphological Processing of Colour Images. Proceedings of First International Conference in Graphics and Image Processing. Saint-Etienne, France. Pp 219-224. F. Provost and T. Fawcett 1997 Analysis and Visualization of Classifier Performance: Comparison Ander Imprecise Class and Cost Distributions Proc. Third International Conference on Knowledge Discovery and Data Mining 43–48. Staal JJ, Abramoff MD, Niemeijer M, Viergever MA and Van Ginneken B 2004 Ridge based vessel segmentation in color images of the retina IEEE Transactions on Medical Imaging 23 501-509. http://www.isi.uu.nl/Research/Databases/DRIVE/.