Download Decanato Investigación - UNET - Resumen Publico
Transcript
Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO Desarrollo de una técnica de realce de imágenes cardíacas basada en conectores difusos Jhosmary Cuadros Castro Responsable Antonio José Bravo Valero Coresponsable 1 Para uso exclusivo del Decanato Coordinación: Unidad: Número de páginas: 18 Número de corresponsables: 1 Responsable: Jhosmary Cuadros Castro jcuadros@unet.edu.ve Teléfono: 0276 Proyecto generado el: 11/07/2017 11:17 am Recibido por: Nombres y Apellidos: Firma: San Cristóbal, ____/____/20_____ Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 Código CODEIN 01-001-2015 Título Desarrollo de una técnica de realce de imágenes cardíacas basada en conectores difusos Fecha de Inicio - Fecha de Finalización 12/02/2015 - 12/02/2017 Descripción Se propone el desarrollo de una técnica computacional basada en conectores difusos para el realce de la información contenida en imágenes cardíacas obtenidas de procesos de emisión de fotones. Investigadores Agregados al Proyecto Responsable Cedula 9986938 X Nombres Rol Antonio José Bravo Valero Creador 14100897 Jhosmary Cuadros Castro Integrante Actividades Asociadas al Proyecto Fecha Inicio Fecha Fin Responsables Descripción 12/02/2015 12/05/2015 Jhosmary Cuadros Castro . Seleccionar los filtros para el suavizamiento de las imágenes. 12/02/2015 12/05/2015 Antonio José Bravo Valero. Seleccionar los filtros para el realce de los contornos de las imágenes. 12/05/2015 12/08/2015 Antonio José Bravo Valero, Jhosmary Cuadros Castro . Codificar los filtros de suavizamiento y realce de contornos seleccionados 11/07/2017 11:17 am Página: 2/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET Responsables PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 Fecha Inicio Fecha Fin Descripción 12/09/2015 12/12/2015 Antonio José Bravo Valero, Jhosmary Cuadros Castro . Analizar los diferentes conectivos difusos reportados en [26] y [27]. 12/02/2016 12/04/2016 Antonio José Bravo Valero, Jhosmary Cuadros Castro . Seleccionar diferentes estrategias de realce propuestas en la literatura útiles para comparar la téc 12/04/2016 12/07/2016 Antonio José Bravo Valero, Jhosmary Cuadros Castro . Comparar la técnica propuesta con las estrategias seleccionadas de la literatura. 12/07/2016 12/10/2016 Antonio José Bravo Valero, Jhosmary Cuadros Castro . Proponer un esquema de validación de la robustez de la técnica con datos reales y sintéticos. 12/10/2016 12/02/2017 Antonio José Bravo Valero, Jhosmary Cuadros Castro . Validar la técnica usando datos reales y sintéticos. Resumen Esta investigación se focaliza en el desarrollo de una técnica computacional útil para realzar la información asociada a las cámaras del corazón obtenidas de procesos de imagenología basados en emisión de fotones. El realce es una tarea preliminar requerida en procesamiento de imágenes para disminuir el impacto del ruido y los artefactos. Con esta idea se propone una técnica de realce la cual combina una versión suavizada de la imagen original con una imagen procesada usando filtros de realce de contornos. La combinación es realizada considerando un conjunto de conectores difusos basados en normas T, co-normas T, funciones de promediación y operadores de compensación generalizada. El resultado de la combinación es una imagen con bordes mejorados y regiones uniformes suavizadas. La robustez de la técnica de realce se evalúa considerando datos sintéticos (phantoms numéricos) y datos médicos reales inter e intra-sujetos. Finalmente, se propone comparar el enfoque de mejora propuesto con respecto a otras estrategias de mejora reportadas en la literatura. Planteamiento del problema 11/07/2017 11:17 am Página: 3/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 El ruido en una imagen puede ser definido como la variación aleatoria de una señal que contamina la información presente en una imagen [1]. La calidad de una imagen digital se ve afectada por el ruido que se introduce en ella mediante diversos procesos, los cuales normalmente dependen tanto de la arquitectura del equipo de adquisición como del protocolo de obtención de tal imagen [2]. Particularmente, en las imágenes que se obtienen mediante la emisión de fotones, como por ejemplo rayos X, el ruido se manifiesta mediante la aparición de intensidades aleatorias, de aspecto granuloso, que se producen por efectos inherentes a la naturaleza del fenómeno de emisión de fotones y al equipo usado durante la adquisición [3]. Adicionalmente, es importante señalar que: El ruido producido por la emisión de fotones es conocido como ruido cuántico y debido a que su generación sigue una ley de función de distribución de probabilidad (pdf) de Poisson, habitualmente, se le denomina ruido Poisson o Poissoniano [3]. La pdf de Poisson viene dada por la ecuación 1. P (n) = λn/n! exp(−λ ) (1) siendo P(n) la probabilidad de n ocurrencias de un evento, λ el valor esperado de la pdf. El ruido Poisson es de naturaleza no aditiva y se caracteriza por ser dependiente de la intensidad que posee cada vóxel en la imagen. Así los vóxeles de mayor intensidad están en riesgo de ser más afectados por el ruido, es decir, tales vóxeles tienen mayor probabilidad estadística de ser corrompidos por el ruido Poissoniano [4]. Considerando el equipo con el cual se adquieren las imágenes, es probable también que aparezca en ellas otras manifestaciones de ruido como, por ejemplo, el ruido blanco Gaussiano aditivo. Este tipo de ruido reviste poca importancia debido a que en imágenes de rayos X se manifiesta en niveles muy inferiores a aquellos propios del ruido Poisson [4]. De acuerdo con [2] y [3], diversos algoritmos de reducción de ruido han sido considerados a fin de disminuir el impacto del ruido Poisson en imágenes digitales. Algunos de esos algoritmos consideran la aplicación de: 11/07/2017 11:17 am Página: 4/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 1. Enfoques convencionales y/o adaptativos basados en suavizado isotrópico (filtros paso–bajo) y filtraje anisotrópico (filtros paso–alto) [2]. 2. Técnicas basadas en el método de regularización de variación total, extendido para la atenuación del ruido Poisson [3]. 3. Transformadas Anscombe y wavelet secundadas por procesos de umbralización y la correspondiente reconstrucción derivada de las transformadas inversas [2]. El análisis cualitativo de imágenes obtenidas a partir de procesos de emisión de fotones permite afirmar que la calidad de la información contenida en ellas puede ser influenciada negativamente por la presencia de artefactos. En este tipo de imágenes, el término artefacto es atribuido, teóricamente, a una discrepancia sistemática entre los valores Hounsfield pertenecientes a las imágenes obtenidas luego de la reconstrucción tomográfica y los verdaderos valores para los coeficientes de atenuación de los objetos presentes en la imagen real [5]. Por ejemplo, en imágenes médicas cardiacas sincronizadas con la onda R del electrocardiograma (ECG) la aparición de artefactos es fuertemente sensitiva a cambios del latido cardiaco. En este sentido, debido a fallos en tal sincronización se pueden producir tanto la superposición de capas como artefactos debidos al movimiento del corazón. También, la adquisición de imágenes en fases inconsistentes del ciclo cardiaco puede generar artefactos que pueden ser visualizados en vistas axiales de tales imágenes [6]. La literatura especializada reporta un buen número de artefactos que, dependiendo de diversos factores, pueden ser observados en estas imágenes en grados variables de importancia. Así por ejemplo, en [6] y [7] se describen diversos artefactos, se establecen las principales causas por las cuales dichos artefactos aparecen en imágenes tomográficas y se proponen estrategias, de tipo técnicas, para minimizar su efecto. La información presentada en la Tabla 1 fue recabada considerando las referencias [6] y [7]. En ella se destacan los artefactos más comunes que se manifiestan en las referidas imágenes y se visualiza, de manera sintética, tanto las posibles causas para la generación de tales artefactos como recomendaciones puntuales para disminuir el impacto, en la calidad de las imágenes tomográficas, de los artefactos considerados. Tabla 1: Síntesis de los artefactos comúnmente observados en imágenes 11/07/2017 11:17 am Página: 5/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 tomográficas. Artefacto Posibles causas Acciones técnicas para minimizar su efecto Banda oscura (Streak) - Cambio de energía de los rayos–X. - Insuficiencia de fotones. - Movimientos del paciente. - Paciente con objetos metálicos. - Pre-filtrar los rayos de baja energía. - Filtrar antes de reconstruir. - Reducir tiempo de exploración. - Usar secciones delgadas en adquisición. Sombreado (Shading) - Movimiento del paciente. - Proyecciones incompletas. - Fenómeno de volumen parcial. - Retener respiración en la adquisición. - Corregir posición del paciente. - Usar secciones delgadas en adquisición. Anillo (Ring) - Equipo con limitaciones técnicas. - Servicio correctivo del equipo. - Detectores con calibración - Re-calibrar detectores. deficiente. Escalera (Stair-step) - Manejo inadecuado de la colimación. - Errores en la reconstrucción. - Usar secciones delgadas en adquisición. - Reconstruir considerando solapamiento. Es necesario puntualizar que las acciones recomendadas en [6] y [7] son todas de tipo técnico, y de aplicación durante la adquisición y/o reconstrucción de las imágenes. Sin embargo, tales acciones no son infalibles y casi siempre las imágenes generadas luego de considerar tales acciones siguen exhibiendo parcial o totalmente uno o varios de los artefactos analizados. Así en imágenes de tomografía computarizada los artefactos que se visualizan con mayor frecuencia son el artefacto escalera (stair-step) y el artefacto raya o banda oscura (streak). Las causas por las cuales se producen tales artefactos son diversas. En particular, el artefacto streak puede generarse debido al cambio que se produce en el espectro de energía de los rayos-X, cuando pasan a través de estructuras que contienen hueso o medios de contraste [7]; mientras que el artefacto stair-step puede producirse debido a un solapamiento de las imágenes durante el proceso de reconstrucción o a una selección errónea de la fase de disparo del ECG [7]. 11/07/2017 11:17 am Página: 6/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 Cuando el artefacto stair-step está presente en las imágenes de tomografía computarizada multicapa (MSCT) puede ser visualizado debido a que produce alteraciones abruptas en la continuidad de los contornos que delimitan uno o varios objetos presentes en tales imágenes [8]. Este tipo de artefacto deteriora dramáticamente la apariencia de dichos objetos y puede afectar las dimensiones (diámetro, superficie o volumen) sobre todo de estructuras de pequeño tamaño presentes en las imágenes adquiridas bajo esta modalidad [9]. Por otra parte, el artefacto streak se manifiesta mediante una o varias rayas o bandas de tonalidad oscura que se observan, fácilmente, en las vistas coronal y sagital de las imágenes en las cuales dicho artefacto puede ser percibido visualmente. Kelm et al. [10] proponen una técnica de filtrado 2–D, basada en medias aritméticas no locales (non-local means), para mejorar el pico de la relación señal a ruido de la información presente en un phantom de tomografía computarizada (CT) en el cual se recrea el ruido Poisoniano que caracteriza a estas imágenes. El filtro non-local means considera la redundancia de la información presente en una imagen para disminuir la cantidad de ruido que afecta la calidad de la imagen sometida a estudio [11]. En [10] se afirma que la técnica propuesta eleva el PSNR (Peak Signal-to-Noise Ratio) de las imágenes consideradas en, aproximadamente, 4 decibelios. No obstante, la principal desventaja de esta técnica es el alto costo computacional que se genera cuando se desea elevar, en un nivel significativo, el PSNR de una imagen. La transformada wavelet es considerada en [12] como base de una técnica que, combinada con métodos de reconstrucción, puede reducir el ruido presente en imágenes de CT mientras preserva la información proveniente de la proyección de los datos adquiridos. Ellos parten de la suposición que los datos adquiridos pueden descomponerse en información útil (imagen de entrada uno) e información correspondiente al ruido no correlacionado temporalmente (imagen de entrada dos). El análisis de correlaciones entre las representaciones wavelet, de las imágenes de entrada identificadas, permite separar la información útil del ruido a partir de cierto nivel de la relación señal a ruido. Los coeficientes wavelet con pequeña correlación no son considerados; mientras que aquellos con altas correlaciones son preservados y utilizados para representar la información relevante. La imagen final, la cual teóricamente presenta una minimización del ruido, se reconstruye a partir del promedio ponderado de los coeficientes wavelet provenientes de las imágenes de entrada mencionadas. La evaluación de la robustez de la técnica propuesta arrojó una reducción del ruido cercana al 40%, sin pérdida significativa de la calidad de las 11/07/2017 11:17 am Página: 7/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 imágenes procesadas. Otras técnicas de remoción de ruido, usualmente desarrolladas en imágenes 2-D, han sido extendidas y aplicadas a imágenes 3-D de resonancia magnética. En este grupo de técnicas se destacan aquellas que consideran: filtros de difusión anisotrópica [13], minimización de la variación total [14] y filtrado basado en wavelet [15]. Por otro lado, con base en una detallada revisión de la literatura especializada vinculada con el análisis de imágenes de estructuras cardiacas, se puede afirmar que aunque diversos investigadores han reportado un número importante de técnicas para analizar todas las cavidades del corazón y valorar la función cardiovascular; el problema de la distorsión de la información, producida por la presencia de artefactos en las imágenes, no ha sido abordado explícitamente. Objetivo General Desarrollar una técnica de realce de imágenes cardíacas basada en conectores difusos Objetivos Específicos 1. Generar las versiones óptimas de las imágenes suavizada y con bordes realzados necesarias para la combinación difusa. 2. Producir la imagen realzada a partir de las versiones óptimas de las imágenes suavizada y con bordes realzados. 3. Establecer la robustez de la técnica de realce obtenida de la combinación de los conectores difusos. 4. Demostrar la validez de la técnica frente a otras técnicas de realce propuestas en la literatura. Metodología El presente estudio responde al enfoque hipotético deductivo y al paradigma cuantitativo, con diseño documental no experimental aplicado al realce de la información asociada a imágenes reales, y diseño de campo experimental aplicado al realce de imágenes sintéticas recreadas por el phantom numérico construido en [17]. 11/07/2017 11:17 am Página: 8/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 Es importante mencionar que el presente trabajo no se enfoca en una patología en particular, el interés se centra en realzar información para delinear el contorno con el objeto de delimitar la forma ventricular presente en las imágenes de coronografía y de tomografía computarizada multicapa. La fase inicial del trabajo consiste en el preprocesamiento de las imágenes (descritas en el protocolo a utilizar), seguida de las fases de procesamiento, análisis y posterior visualización. Protocolo a utilizar: La base de datos de imágenes a utilizar en el presente trabajo son proporcionadas por el Hospital Universitario de los Andes (Mérida) y por el Instituto de Bioingeniería y Diagnóstico (Táchira). Esta base de datos consiste en: 1. Rayos X: 48 estudios angiográficos, específicamente de coronografía izquierda monoplana. 2. Tomografía computarizada multicapa: 20 estudios 4D, cada uno tiene 20 vólumenes 3D. La adquisición de las imágenes se realiza con acoplamiento electrocardiográfico (ECG), de esta forma, existe sincronización entre el latido cardíaco del paciente y la adquisición de las imágenes, la cual puede ser prospectiva (se emite únicamente radiación durante la diástole) o retrospectiva (se emite radiación durante todo el ciclo cardíaco) [18]. Además de la base de datos mencionada anteriormente, se utilizarán 20 estudios de la población de imágenes sintéticas pertenecientes al phantom numérico construido en [17]. Hipótesis Es posible realzar efectivamente la información contenida en imágenes obtenidas mediante emisión de fotones combinando a través de conectores difusos una versión suavizada de la imagen original con una imagen procesada usando filtros de realce de contornos. Marco Teórico-Científico Los rayos X son radiaciones electromagnéticas que se generan cuando electrones con 11/07/2017 11:17 am Página: 9/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 alta energía cinética interaccionan con la materia, generalmente un blanco metálico. Estos electrones se propagan en línea recta a la velocidad de la luz en forma de paquetes de energía llamado fotones. En uno de los procedimientos para la producción de rayos X, el electrón incidente le transfiere al electrón que ocupa la capa K (la más cercana al núcleo) suficiente energía para desplazarlo de su órbita, generando una vacante que rápidamente es cubierta por un electrón de mayor energía proveniente de una órbita externa más energética. En el proceso, el electrón emite un fotón de rayos X cuya energía corresponde a la diferencia de energía entre las dos capas [19]. Los equipos de rayos X, producen imágenes radiográficas de alta densidad, alto constraste, alta definición y con mínima exposición para el paciente. Son sistemas electromecánicos que generan y controlan la producción de rayos X. Estos equipos poseen una consola desde la cual el operador controla los parámetros de exposición; el alto voltaje, la corriente de ánodo, el tiempo y la corriente de filamento. Estos valores se visualizan en instrumentos de medida colocados en el panel [20]. Cuando un haz de rayos–X pasa a través del cuerpo, el mismo es absorbido y esparcido por las estructuras localizadas en la trayectoria que sigue el haz. La cantidad de absorción depende tanto de la densidad física y de la composición anatómica de las estructuras, como de la energía del haz. En el rango de energía diagnóstica, las interacciones están constituidas principalmente por la ionización molecular generada por la cantidad de rayos-X que son dispersados sobre el tejido y por la absorción fotoeléctrica [21]. La dispersión es generalmente minimizada por medio de la colimación de los rayosX; mientras que la superposición es atenuada por la exploración a través del plano transaxial. Los rayos-X transmitidos a través del plano, son captados por detectores los cuales tienen la capacidad de registrar diferentes intensidades [22]; mientras que, la distribución de los coeficientes de atenuación es determinada por la Ley de la física de radiaciones (Ley de Lambert-Beer). Esta Ley expresa que el haz de rayos-X monoenergético (que atraviesa un objeto de densidad variable) es atenuado de acuerdo con la relación exponencial expresada por la ecuación 2 [23]. It = Io e− ∫ µdl (2) siendo Io la intensidad incidente, It la intensidad transmitida, dl el diferencial de 11/07/2017 11:17 am Página: 10/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 longitud de la trayectoria del haz a través del objeto, y µ el coeficiente de absorción lineal del objeto a lo largo de la trayectoria del haz. En el cuerpo humano, el haz de rayos-X pasa a través de materiales de distintos coeficientes de atenuación. Por ello, se puede considerar al cuerpo compuesto por un gran número de elementos de igual tamaño, de largo l, cada uno de los cuales posee un coeficiente de absorción constante, los cuales pueden denotarse mediante µ1 , µ2 , ..., µn . De esta forma, la integral que aparece en la ecuación 2 puede expresarse como lo indica la ecuación 3 . ∫ µdl = (µ1 + µ2 + ... + µn )l = ln( It /Io) (3) El denominado sinograma, se corresponde con el criterio bajo el cual son almacenados los resultados de un escaneo tomográfico. Cada conjunto de valores resultantes (perfiles de las proyecciones), para un ángulo de escaneo específico, se corresponde con una fila almacenada, construyéndose el sinograma mediante el agrupamiento de filas sucesivas en columnas, generando una tabla de valores bidimensionales dados por los perfiles de las proyecciones correspondientes a cada ángulo de escaneo. Adicionalmente, la ecuación 3, muestra que el logaritmo natural de la atenuación total, a lo largo de un rayo particular, es proporcional a la suma de los coeficientes de atenuación, de todos los elementos que el rayo atraviesa. Para determinar la atenuación de cada elemento, debe obtenerse un gran número de mediciones desde distintas direcciones. El problema es encontrar µ conocidas las integrales para un número finito de líneas que intersecten el objeto que se está explorando. Para abordar este problema, generalmente, se recurre a métodos de reconstrucción. Una vez han sido obtenidas las imágenes se hace necesario el uso de técnicas de pre–procesamiento las cuales se caracterizan por realizar tareas tales como: 1. 2. 3. 4. Atenuar distorsiones que afectan la calidad de la imagen considerada. Realzar los contornos que delimitan los objetos que se desean segmentar. Uniformar la información contenida en el interior de tales contornos. Excluir objetos o estructuras no deseadas generando regiones claramente delimitadas que contienen el objeto de interés. Además, es importante indicar que en el ámbito del procesamiento digital de 11/07/2017 11:17 am Página: 11/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 imágenes el filtrado constituye un proceso fundamental para el análisis de la información contenida en una imagen. Por lo general, el proceso de filtrado de imágenes consiste en la aplicación de algoritmos denominados, usualmente, filtros, que se caracterizan por modificar en cierto grado las características o atributos de una imagen de entrada con el propósito de minimizar las posibles imperfecciones presentes en ella [24]. Los filtros operan sobre imágenes, en los dominios frecuenciales y espaciales, con el fin de: a) realzar algún tipo de información deseada la cual puede estar vinculada, por ejemplo, con una estructura u objeto de interés; b) minimizar o suprimir la información no deseada la cual puede corresponderse con artefactos, ruido, fondo u otros objetos distintos del objeto de interés [25]. Generalmente, luego de la aplicación de un filtro, se genera una imagen de salida en la cual pueden aparecer suavizados o realzados algunos atributos presentes en la imagen de entrada. De acuerdo con ello, las técnicas de filtrado podrán clasificarse, de manera preliminar, en técnicas de filtrado para el realce de información de interés y técnicas de filtrado para la remoción de información no deseada. Los filtros de realce (conocidos también como filtros paso-alto) más usados son los basados en el reforzamiento de contornos, los cuales, por una parte, tienden a enfatizar los bordes de las estructuras presentes en la imagen de entrada y, por la otra, atenúan los valores de intensidad de las regiones casi constantes en la imagen que está siendo procesada. Adicionalmente, los filtros para remoción de información no deseada (denominados filtros paso-bajo) más comunes son los que aplican operaciones de suavizamiento orientadas, principalmente, hacia la eliminación del ruido presente en la imagen considerada. Un aspecto a considerar al momento del desarrollo de técnicas o filtros de realce es que la información a realzar o a remover tiene una alta componente de incertidumbre debido a que no es tan fácil discriminar cuál información esta asociada a la información no deseada y cuál a la deseada. Los métodos basados en teoría de conjunto difusos permiten analizar información con ciertos grados de incertidumbre. Determinados modelos de intersecciones y uniones en teoría de conjuntos difusos representados por normas T, co-normas T y funciones de promediación, pueden ser 11/07/2017 11:17 am Página: 12/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 usados como conectores difusos de información con bajos, moderados y altos grados de incertidumbre [26]. Los operadores de compensación generalizada propuestos en [27], obtenidos a partir de las funciones de promediación [26], adicionalmente pueden ser usados en el análisis de datos con grados de incertidumbre [28], [29]. A partir de normas T, co-normas T, funciones de promediación y operadores de compensación generalizada cuatros funciones F, S, M, y L definidas en [a,b]×[a,b] en [a,b] con a,b números reales con las siguientes restricciones: 1. 2. 3. 4. Para todo c,cp en [a,b], F(c,cp) ≤ min{c,cp}. Para todo c,cp en [a,b], S(c,cp) ≥ max{c,cp}. Para todo c,cp en [a,b], min{c,cp} ≤ M(c,cp) ≤ max{c,cp}. Para todo c,cp en [a,b], F(c,cp) ≤ M(c,cp) ≤ S(c,cp). Al considerar estas restricciones es necesario definir un conjunto de transformaciones lineales que permitan mantener la información densitométrica contenida en las imágenes en el rango de intensidades establecido en el intervalo [a,b]. Cuatro conectores difusos T, G, P, y C son asociados a las funciones F, S, M, y L a través de las transformaciones lineales mostradas en las relaciones 4, 5, 6 y 7. F(c,cp) = a + (b – a) T(s,sp) (4) S(c,cp) = a + (b – a) G(s,sp) (5) M(c,cp) = a + (b – a) P(s,sp) (6) L(c,cp) = a + (b – a) C(s,sp) (7) en las cuales s = (c – a)/(b – a) y sp = ( cp – a)/(b – a) representan los valores normalizados de las intensidades de las imágenes. T, G, P, y C deben ser funciones continuas no decrecientes. La Tabla 1 presentada en [26] lista un conjunto de normas T y co-normas T usadas como conectivos difusos T y G, mientras que la Tabla 9 de la misma referencia lista funciones de promediación usadas como conectivo difuso P. Por su parte, en la Tabla 1 mostrada en [27] se lista los operadores de compensación generalizada considerados en la construcción de C. 11/07/2017 11:17 am Página: 13/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 Resultados Esperados Una técnica computacional basada en conectivos difusos, útil para realzar la información asociada a las cámaras del corazón obtenidas de procesos de imagenología basados en emisión de fotones. Referencias [1] R. Kruger, X–ray Digital Cineangiocardiography, en Cardiac Imaging and Image Processing. USA: MacGraw–Hill, 1986. [2] R. Zanella, P. Boccacci, L. Zanni, y M. Bertero, “Efficient gradient projection methods for edge-preserving removal of Poisson noise,” Inverse Problems, vol. 25, no. 4, pp. 1–24, 2009. [3] A. Maiera, L. Wigstrm, H. Hofmann, J. Hornegger, L. Zhu, N. Strobel, y R. Fahrig, “Three-dimensional anisotropic adaptive filtering of projection data for noise reduction in cone beam CT,” Medical Physics, vol. 38, no. 11, pp. 5896–5909, 2011. [4] R. Chan y K. Chen, “Multilevel algorithm for a Poisson noise removal model with total-variation regularization,” International Journal of Computer Mathematics, no. 5, pp. 1–18, 2007. [5] J. Hsieh, “Image artifacts: appearances, causes, and corrections.” en SPIE Press Computed tomography: principles, design, artifacts, and recent advances, Bellingham, WA, USA, 2003, pp. 167–240. [6] L. Kroft, A. de Roos, y J. Geleijns, “Artifacts in ECG–synchronized MDCT coronary angiography,” American Journal of Roentgenology, vol. 189, no. 3, pp. 581–591, 2007. [7] J. Barrett y N. Keat, “Artifacts in CT: Recognition and avoidance 1 ,” Radiographics, vol. 24, no. 6, pp. 1679–1691, 2004. [8] G. Wang y M. Vannier, “Stair–step artifacts in three-dimensional helical CT: an experimental study”. Radiology, no. 191, pp. 79–83, 1994. 11/07/2017 11:17 am Página: 14/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 [9] G. Rubin, D. Paik, P. Johnston, y S. Napel, “Measurement of the aorta and its branches with helical CT”. Radiology, no. 206, pp. 823–829, 1998. [10] Z. Kelm, D. Blezek, B. Bartholmai, y B. Erickson, “Optimizing non-local means for denoising low dose CT,” en The IEEE International Symposium on Biomedical Imaging (ISBI), Spain, May 2009, pp. 662–665. [11] A. Buades, B. Coll, y J. Morel, “A review of image denoising algorithms with a new one,” Multiscale Modeling and Simulation, vol. 4, no. 2, pp. 490–530, 2005. [12] A. Borsdorf, R. Raupach, T. Flohr, y J. Hornegger, “Wavelet based noise reduction in CT-images using correlation analysis,” IEEE Transactions on Medical Imaging, vol. 27, no. 12, pp. 1685–1703, 2008. [13] G. Gerig, R. Kikinis, O. Kbler, y F. Jolesz, “Nonlinear anisotropic filtering of MRI data,” IEEE Transactions on Medical Imaging, vol. 11, no. 2, pp. 221–232, 1992. [14] S. Keeling, “Total variation based on convex filters for medical imaging,” Applied Mathematics Computation, vol. 139, no. 1, pp. 101–119, 2003. [15] R. Nowak, “Wavelet–based rician noise removal for magnetic resonance imaging,” IEEE Transactions on Medical Imaging, vol. 8, no. 10, pp. 1408–1419, 1999. [16] A. Frangi, D. Rueckert, y J. Duncan, “Three-dimensional cardiovascular image analysis,” IEEE Transactions on Medical Imaging, vol. 21, no. 9, pp. 1005-1010, 2002. [17] Vera M., Bravo A., Medina R. “Improving Ventricle Detection in 3–D Cardiac Multislice Computerized Tomography Images”, Communications in Computer and Information Science, Vol. 229, No. 1, pp. 170–183, 2011. [18] E. Kimura, E. Rosas, et al. “Tomografía computada multidetector de arterias coronarias: estado del arte. Parte I: Aspectos técnicos”. Arch. Cardiol. Méx., Jun 2007, vol.77, no.2, p.137-149. ISSN 1405-9940. [19] Tucci A., “Radiognástico y Radioterapia”, Universidad de los Andes, 2012. 11/07/2017 11:17 am Página: 15/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 [20] Tucci A., “Obtención de Imágenes Médicas”, Universidad de los Andes, 2012. [21] D. Boyd y D. Farmer, “Cardiac computed tomography,” en Cardiac Imaging and Image Processing, S. Collins y D. Skorton, Eds. New York, USA: McGraw Hill Book Company, 1980, pp. 57–87. [22] R. Robb y M. Morin, “Principles and instrumentation for dynamic X–ray computed tomography,” en Cardiac Imaging. A Companion to Braunwald’s Heart Disease, M. Marcus, H. Schelbert, D. Skorton, y G. Wolf, Eds. Philadelphia, USA: W.B. Saunders Company, 1991, pp. 634–668. [23] E. Seeram, Computed Tomography: Physical Principles, Clinical Applications, and Quality Control. New York: W.B. Saunders Company, 2001. [24] W. Pratt, Digital Image Processing. USA: John Wiley & Sons Inc, 2007. [25] R. González y R. Woods, Digital Image Processing. USA: Prentice Hall, 2001. [26] Mizumoto M. Pictorial Representations of fuzzy connectives, Part I: Cases of tnorms, t-conorms and averaging operators. Fuzzy Sets and Systems 31, 217–242. 1989 [27] Mizumoto M. Pictorial Representations of fuzzy connectives, Part II: Cases of Compensatory Operators and Seft-dual Operators. Fuzzy Sets and Systems 32, 45–79. 1989. [28] F. Herrera, E. Herrera-Viedma, M. Lozano, J.L. Verdegay. Fuzzy Tools to Improve Genetic Algorithms.Junio, 1994. [29] M.M. Gupta, J. Qi, Theory of T-norms and fuzzy inference methods, Fuzzy Sets and Systems, Volume 40, Issue 3, 15 April 1991, Pages 431-450, ISSN 0165-0114, http://dx.doi.org/10.1016/0165-0114(91)90171-L. Impacto en la Sociedad El desarrollo de técnicas de procesamiento de imágenes médicas tienen un alto impacto en la sociedad, ya que la optimización mediante la implantación de nuevas y 11/07/2017 11:17 am Página: 16/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 robustas técnicas contribuye a mejores diagnosticos de diferentes patologías por parte de los especialistas. Pertinencia El uso de técnicas avanzadas de procesamiento de imágenes en imagenología médica tales como las técnicas de realce de información abre nuevas posibilidades de optimización de las técnicas de análisis e interpretación rutinariamente usadas por los especialistas, especialmente en aquellos casos en los cuales los datos (imágenes) han sido altamente impactados por el ruido y los artefactos generados durante la adquisición. Impacto Ambiental No aplica. Beneficios Los productos generados permitirán avanzar en el conocimiento acerca de los técnicas computaciones útiles para realzar la información contenida en imágenes obtenidas mediante procedimientos de imagenología que involucran emisión de fotones. Presupuesto Los viáticos y pasajes (transporte) solicitados constituyen los recursos necesarios para realizar las visitas de investigación requeridas a la Universidad Simón Bolívar, Caracas, Venezuela. Descripción Monto (Bs.) Viaticos 6000 Hospedaje 0 Alimentación 0 11/07/2017 11:17 am Página: 17/18 Universidad Nacional Experimental de Táchira Vicerrectorado Académico Decanato de Investigación UNET Descripción PROYECTO DE INVESTIGACIÓN ORDINARIO DINV-35 Monto (Bs.) Transporte 6000 Materiales 0 Servicios no personales 0 Total Presupuesto: Bs.12000 11/07/2017 11:17 am Página: 18/18