Download Face Classification by Local Texture Analysis through CBIR and
Document related concepts
no text concepts found
Transcript
Face Classification by Local Texture Analysis through CBIR and SURF Points C. Benavides, J. Villegas, Member, IEEE, G. Román and C. Avilés 1 Abstract— This study presents a robust face recognition system that takes into account both, local texture and points-ofinterest analysis. This system uses the CBIR (Content Based Image Retrieval) technique considering as descriptors the mean, the standard deviation, and the homogeneity of each of the several image windows subjected to analysis; that is, each window acts as a local image region subjected to the face analysis having a face point of interest at its center. In this way, the system retrieves descriptive data of people by analyzing their own texture characteristics on the interior of each face. The system achieves to get a self-organization of the data which a similarity-based order approximation of the face images in a database (DB). With the support of the analysis provided by the points of interest technique SURF, complemented with the CBIR technique, we generated a robust map able to achieve a 100% classification conducted on DB. The results have also been highly successful when conducted under controlled lighting conditions. describir diferentes objetos que los caracterizan, tales como agua, vegetación, montañas, enfermedades o detección de fallas, ya sea en suelos o en cualquier superficie. Por ese motivo, cuando se desea detectar la presencia de un objeto éste puede identificarse por sus características de textura [3]. La recuperación de imágenes mediante su contenido propio (Content-Based Image Retrieval o CBIR), es un sistema de búsqueda y/o clasificación de imágenes, basándose en si mismas. CBIR ha demostrado tener excelentes resultados, en el análisis de escenarios naturales [4]. Esta tarea de forma tradicional se realiza en 4 etapas generales como se muestra en la Fig. 1: acondicionamiento de los datos/preprocesamiento, extracción de características, organización de características, y clasificación. Keywords— CBIR, Classification, Face Recognition, Points of Interest, SURF, Parallel Computing. I. INTRODUCCIÓN E L APRENDIZAJE automático es parte de una rama de la inteligencia artificial, y tiene como objetivo desarrollar técnicas que le permitan a las computadoras aprender sobre algún objetivo en específico [1]; i.e., se generan programas que sean capaces de generalizar un comportamiento a partir de la información provista en forma de ejemplos. Una de las aplicaciones del aprendizaje automático es el reconocimiento de rostros. Ésta es un área de investigación activa que abarca diferentes disciplinas, tales como la visión por computadora, el reconocimiento de patrones, el procesamiento digital de imágenes, y el reconocimiento de objetos. Desde 1882 se comenzaron a desarrollar los primeros sistemas de reconocimiento de rostros e.g., el Sistema Bertillon [2], el cual comenzó a utilizar fotografías de personas, junto con las características antropométricas para su identificación. En un sistema de clasificación se hace uso de las técnicas de la visión por computadora (como es el procesamiento digital de imágenes [1]) para deducir las estructuras y propiedades de una imagen. No solo se incluyen propiedades geométricas (forma, tamaño, localización de un objeto), sino también sus propiedades materiales (textura, color, etc.). La textura como forma en que se presenta la superficie como sensación táctil o visual, se ha utilizado en diversas áreas como la ingeniería, el arte y el diseño para identificar y C. Benavides, Universidad Autónoma Metropolitana, Unidad Iztapalapa, Departamento de Ingeniería Eléctrica, México DF, cesarba@xanum.uam.mx G. Román, Universidad Autónoma Metropolitana, Unidad Iztapalapa, Departamento de Ingeniería Eléctrica, México DF, grac@xanum.uam.mx J. Villegas, Universidad Autónoma Metropolitana, Unidad Azcapotzalco, Departamento de Electrónica, México DF, juanvc@ieee.org C. Avilés, Universidad Autónoma Metropolitana, Unidad Azcapotzalco, Departamento de Electrónica, México DF, caviles@azc.uam.mx Figura 1. Metodología tradicional de la técnica CBIR aplicada a escenarios naturales. Por otro lado, algunos de los métodos para la extracción de puntos de interés del rostro son, los basados en geometría, apariencia y plantillas. En los basados en geometría [5][7], las características son obtenidas a través de la información geométrica, posición, tamaño y distancias de los rasgos de la cara; en estos métodos es importante seleccionar de manera cuidadosa los umbrales de las características. Por otro lado los basados en apariencia [9][10], utilizan una técnica basada en la segmentación por color, esta técnica utiliza el color de la piel para separar la región del rostro; por lo tanto cualquier región que no tenga el color de la piel dentro del rostro puede ser aceptada como zona candidata para la ubicación de la boca o los ojos. La efectividad de esta técnica es limitada a causa de los diferentes tonos de piel de las personas. Los basados en plantillas [11][12], se generan por medio de la correspondencia, a partir de una plantilla de puntos de referencia que se realiza previamente. El costo computacional en estos métodos es muy elevado y presenta grandes dificultades cuando las características cambian de manera significativa, sobre todo cuando existen cambios bruscos en las imágenes de las personas. El problema del reconocimiento de rostros se torna difícil por la gran variabilidad que existe: en la rotación de la cabeza, su inclinación, la iluminación, el ángulo, la expresión facial, envejecimiento, etc. [12][20][24]. Una de las técnicas más utilizada para el reconocimiento de rostros mencionada en la mayor parte de la literatura, es “Eigenfaces” [23]. En ésta se toma un enfoque de proyecciones ortogonales para el reconocimiento facial, utiliza los componentes principales de una distribución de rostros, y los vectores propios de la matriz de covarianza del conjunto de imágenes del rostro, haciendo uso del análisis de componentes principales para reducir la dimensionalidad de las características [6]. Existen diferentes técnicas que atacan el problema del reconocimiento de rostros desde el uso de algoritmos genéticos como en [8] [26], redes neuronales artificiales, máquinas de soporte vectorial, etc. También se menciona la utilización de diferentes espacios de color para la captura y trabajo de las imágenes como en [27], donde se realiza un seguimiento de rostros trabajando con imágenes en color RGB. En [28] genera un framework de segmentación de las imágenes para rostros, utilizando imágenes de rostros en escala de grises. Depende la técnica utilizada para la extracción de características, se hace uso de los diferentes espacios de color para trabajar el procesamiento digital de las imágenes. Se han propuesto diversos descriptores y detectores dentro de la literatura, y se ha encontrado que el rendimiento del descriptor depende a menudo del detector de puntos de interés [19]. En [22] se ha encontrado un estudio comparativo en donde el rendimiento es superior en las características locales para el reconocimiento de rostros en ambientes sin restricciones. Los descriptores SURF (Speed Up Robust Features) [15], se han usado en combinación con una máquina de soporte vectorial (SVM), únicamente para los componentes del rostro [17]. Existen pocos análisis detallados del uso de SURF aplicado al reconocimiento facial hasta el momento. El análisis de puntos de interés ha funcionado muy bien para el reconocimiento de objetos, en el presente artículo se plantea una variante aplicada al reconocimiento de rostros. Con el fin de optimizar la técnica propuesta de reconocimiento de rostros, CBIR+SURF propuesta, (véase la Fig. 2), se hace uso del cómputo paralelo, alcanzando rapidez y precisión (en las operaciones de punto flotante), trabajando con grandes bases de datos de rostros. A diferencia de estas técnicas mencionadas, no se ha trabajado con el análisis de textura local, esta es una nueva técnica que funciona bien para escenarios naturales [4]. Ahora aplicada al reconocimiento de rostros, genera excelentes resultados cuando las condiciones de las imágenes son controladas. Esta técnica sumada con análisis de puntos de interés SURF, dentro del clasificador compuesto, generan un porcentaje de clasificación del 100% en las pruebas. La metodología propuesta en este artículo está integrada tanto por un análisis geométrico, a través de los puntos de interés SURF, como por la técnica CBIR. En nuestra propuesta las pruebas se realizaron sobre rostros en condiciones controladas de iluminación, sin oclusiones, de la misma temporalidad y de frente, con bases de datos de la literatura; logrando excelentes resultados de clasificación. En la sección II se muestra en detalle la metodología propuesta, la experimentación implementando el cómputo paralelo se muestra en las sección III, en las sección IV los resultados alcanzados son analizados y expuestos comparando las bases de datos usadas, y finalmente en la sección V mostramos las conclusiones alcanzadas. II. METODOLOGÍA PROPUESTA Figura 2. Clasificador compuesto por CBIR + SURF. Los factores principales que se deben de considerar en la detección de rostros son: (i) iluminación, (ii) orientación, (iii) tamaño y (iv) textura. En esta propuesta las imágenes de rostros con las que se trabaja, se considera el análisis de textura por medio de CBIR, y los puntos de interés SURF del rostro. La metodología consta de una entrada y una salida al sistema. En nuestra propuesta el sistema de identificación y clasificación consta de dos etapas, entrenamiento y recuperación. • Entradas al sistema: Entrenamiento del sistema CBIR y SURF propuesto con imágenes de rostros en condiciones ideales. • Salidas del sistema: Las tres o cinco imágenes más parecidas a la imagen de consulta contenidas en la base de datos. A. Recuperación de imagen por CBIR La arquitectura de entrenamiento CBIR se muestra en la Fig. 3, cada una de las fases o etapas se exponen a continuación: Figura 3. Arquitectura de entrenamiento CBIR. 1) Entrenamiento: La arquitectura de entrenamiento, consta de las siguientes etapas: • BD: Contiene las imágenes de los rostros en condiciones ideales. Lectura de imágenes: Lee las imágenes que serán procesadas, las imágenes son cargadas en formato RGB. • Acondicionamiento: Eliminar ruido en las imágenes. • Conversión de espacio de color RGB a HSI: Dado que el espacio de color HSI nos proporciona más información útil acerca de la imagen, e.g., la textura, luminosidad, saturación de color, etc. • Extracción de puntos de interés: Selección de los N puntos de interés del rostro a trabajar. • Extracción de características estadísticas: Cálculo de valores de textura sobre la ventana construida a partir de un punto de interés del rostro, se genera una ventana de (2P + 1) × (2P + 1) pixeles con el punto de interés en el centro (x,y), véase la Fig. 4. De esta ventana se extraen tres valores descriptivos estadísticamente: media, desviación estándar y homogeneidad. Para la homogeneidad se toman los valores a partir de la matriz de coocurrencia [25], a partir de los valores de la ventana en uso, como se muestra en la ecuación (1). • B. Implementación de la técnica SURF. 1) Entrenamiento: La arquitectura de entrenamiento propuesta se muestra en la Fig. 5, y consta de las siguientes partes: Figura 5. Arquitectura SURF para el reconocimiento de rostros. • • • • BD: Contiene las imágenes de los rostros en condiciones ideales. Lectura de imágenes: Lee las imágenes que serán procesadas en escala de grises. Acondicionamiento: Elimina impurezas (ruido) en las imágenes. Segmentado de la imagen en rejillas: Se realiza una segmentación de la imagen en rejillas del mismo tamaño pasando una ventana deslizante para cada imagen, ver Fig. 6. Figura 4. Ejemplo de una ventana de tamaño 3x3 para la extracción de información CBIR. N−1 N−1 M Coc (x, y) 2 x=0 y=0 1+ (x − y) H = • • (1) Construcción del patrón: Con las características obtenidas por cada imagen, se conforma un patrón Pj, de dimensión 1×(pi*9) componentes. Al final de este proceso se obtendrá una matriz M de dimensión (j*pi)×9, con j=Número de imágenes, pi=Número de puntos de interés. Aplicación de k-Medias: Se generan k grupos (clases), a partir de los valores de la base de datos de los patrones normalizados, implementando el algoritmo k –Medias. 2) Recuperación: Se presenta la imagen a recuperar, aplicándole a esta las etapas: lectura de la imagen, acondicionamiento, conversión de RGB a HSI, extracción de puntos de interés, extracción de características estadísticas, y construcción del patrón; y se procede a aplicar el algoritmo k–NN para determinar los k próximos vecinos del patrón, sobre la base de patrones separada por k–medias. Figura 6. Ejemplo del segmentado de la imagen en rejillas por medio de ventana deslizante. • Extracción de características por rejilla: A cada una de las rejillas de la imagen se le extraen los puntos de interés, y el descriptor SURF para cada uno de esos puntos. Para cada imagen se obtendrán m contenedores de puntos de interés y M patrones descriptivos. • BD Características: contiene la información de los puntos de interés y los descriptores de cada una de las BD, por lo que al final se tendrá un arreglo de puntos de interés y un arreglo de descriptores SURF: VectorKeyPoins de dimensión {m*n*Nimag}, y VectorDescriptores de dimensión {M*n*Nimag}, donde n=número de rejillas. 2) Recuperación: La arquitectura del sistema en la recuperación consta de una esquema similar al de entrenamiento, el cual se describe de la siguiente manera: Se presenta la imagen a recuperar, aplicándole a esta las etapas: lectura de la imagen, detección y recorte del rostro, acondicionamiento y normalización, segmentado la imagen en rejillas y extracción de características por rejilla; y se procede a aplicar el algoritmo k–NN para determinar los k próximos vecinos del patrón sobre la base de características a través de un radio determinado, para la comparación de cada uno de los puntos en los que se encontró una coincidencia, como se ilustra en la Fig. 7. de todas las imágenes VectorKeyPoints, de tamaño {1x(Nimag*n)}, y el otro contiene todos los descriptores VectorDescriptores, de tamaño {1x(Nimag*n)} para la parte de SURF. La complejidad del algoritmo secuencial para CBIR y SURF se expresa en las ecuaciones (2) y (3) respectivamente: O(CCBIR × Nimag × NPi × NcaracCBIR ) O(CSURF × Nimag × Nrejillas ) (2) (3) Donde: • CBIR= Constante de procesamiento de cada una de las imágenes • Nimag = Número de imágenes • NPi= Número de puntos de interés • NcaracCBIR= Número de características estadísticas CBIR {media, desviación estándar, homogeneidad} • CSURF= Constante de procesamiento de cada una de las imágenes • Nrejillas= Número de rejillas. Esta metodología se desarrolló con las BD de imágenes de rostros: ArDatabase [18], BioID [16], ExtendedYaleFaces [14], YaleFaces [13] y Muct [21]. En la Fig. 8 se muestran ejemplos de los rostros de las bases de datos respectivamente. Figura 7. Comparación entre punto de interés de consulta (KP-R) y punto de interés de entrenamiento (KP-E), dentro de la rejilla. III. EXPERIMENTACIÓN: IMPLEMENTACIÓN DE CÓMPUTO PARALELO El tiempo de construcción de la base de datos de entrenamiento depende principalmente del procesamiento de las N imágenes de una base de datos específica. Para reducir este tiempo, desarrollamos un algoritmo paralelo que utiliza las herramientas de Open MPI y OpenCV, donde el proceso de la extracción de características se paraleliza, por lo que podemos acelerar el análisis de las imágenes ya que se procesan en paralelo, en lugar de hacerlo de la forma secuencial. El algoritmo paralelo consta esencialmente de los siguientes pasos. 1) Cada proceso calcula el número de imágenes a procesar. 2) Cada proceso lee una de las imágenes a procesar tanto para CBIR como para SURF, del subconjunto de imágenes en la base de datos. 3) Se extraen las características CBIR y SURF para el subconjunto de imágenes, esa información se guarda de manera correspondiente tanto en matrices como en arreglos. 4) Al final del proceso de entrenamiento se tienen la base de datos normalizada, de las características estadísticas para CBIR, y dos arreglos: uno contiene los puntos de interés Figura 8. Ejemplo de imágenes en las BD: (a) AR, (b) bio ID, (c) Yale faces, (d) MUCT, (e) Extended Yale B. La Tabla 1 muestra la descripción de cada base de datos. TABLA I DESCRIPCIÓN DE LAS BASES DE ROSTROS UTILIZADAS BD AR Ext. Yale B Yale Bio ID MUCT No. Img 4000 1612 8 165 1521 3755 Personas Formato Resolución 126 10 Tipo Imagen Color E.Gris jpg pgm 768x576 640x480 15 23 276 E.Gris E.Gris Color gif pgm jpg 320x243 648x286 640x480 IV. RESULTADOS Se trabajó con las bases de datos mencionadas anteriormente. La programación se realizó en C, C++ y OpenCV. Para cada una de las BD, se seleccionaron las imágenes que cumplen con la descripción de condiciones ideales mencionadas anteriormente. De cada una de estas BD se seleccionaron 6 imágenes por clase (persona), se extrajeron las características CBIR y SURF para cada una de las imágenes. A partir de este análisis se obtuvieron las 3 y 5 imágenes más cercanas o parecidas a la imagen de consulta con el algoritmo k–NN, usando la métrica Euclidiana en las pruebas. Usando la matriz de confusión podemos analizar el porcentaje de clasificación para los experimentos realizados, como se muestra en los resultados que se obtuvieron de clasificación para las BD. El equipo de cómputo utilizado para este trabajo es un cluster con 10 nodos (3 con 8 cores y 7 con 4 cores) con velocidades de 3 GHz y 3.4 GHz, con un total de 52 cores, con sistema operativo Linux CentOS y diferentes características de hardware. Adicionalmente, se realizó una prueba con imágenes contaminadas con ruido gaussiano y mixto, ambos con 1 %, 3 % y 5 %. Los porcentajes de clasificación obtenidos para los clasificadores se muestran en la Fig. 9, con la base de datos AR, para las metodologías de evaluación de desempeño: quitar un elemento (LOO) y validación cruzada (CV) al 17 %, 33 % y 50 %. Figura 11. Resultado de las metodologías de evaluación de desempeño, base de datos MUCT, prueba de: (a) Resustitución, (b) Quitar un elemento (LOO), (c) Validación cruzada al 13 %, (d) Validación cruzada al 27 %, (e) Validación cruzada al 50 %. El resultado para las imágenes contaminadas con ruido se puede observar en la Fig. 12, donde se puede apreciar que la clasificación para la técnica SURF sigue siendo buena en comparación de CBIR donde no lo es. Figura 9. Porcentajes de clasificación base de datos AR para la prueba quitar una elemento (LOO) y validación cruzada (CV) al 13 %, 33 % y 50 %. Para esta misma base de datos, los porcentajes de clasificación para las imágenes contaminadas con ruido, se muestran en la Fig. 10, para k=3 y k=5, sólo para prueba de resustitución. Figura 10. Porcentajes de clasificación base de datos AR con k=[3,5] y los porcentajes de ruido, Gaussiano y Mixto correspondientes. Véase que la combinación CBIR+SURF alcanza el 100 %. El resultado para las imágenes se puede observar en la Fig. 11, donde se observa muy buena clasificación. Figura 12. Resultado de base de datos MUCT imágenes con ruido: (a) Gaussiano al 1 %, (b) Gaussiano al 3 %, (c) Gaussiano al 5 %, (d) Mixto al 1 %, (e) Mixto al 3 %, (f) Mixto al 5 %. Los resultados finales de cada una de las BD se presentan en la Fig. 13, en donde se observa que en cada una de ellas se obtienen muy buenos resultados en la clasificación de una imagen de consulta, para las BD estudiadas y mencionadas en este trabajo. Figura 13. Resultado final de cada base de datos: (a) BioID, (b) Extended Yale B, (c) AR, (d) MUCT. A. Análisis del rendimiento El desempeño de los clasificadores utilizando la técnica CBIR y SURF se puede ver reflejado en la Fig. 14 teniendo que: 1) Se observó que el tiempo de ejecución tuvo una reducción considerable mientras aumentaba el número de procesos. 2) El factor de aceleración (FA), ver ecuación (4), va aumentando linealmente. ் ܣܨൌ ೞೠೌ (4) ் ሺேሻ Siendo Tsecuencial el tiempo que tarda en ejecutarse el sistema con un solo proceso, Tp(N) el tiempo que se tarda en ejecutarse con N procesos. técnicas CBIR+SURF, es un complemento robusto ya que de manera independiente generan un buen resultado de clasificación, pero de manera conjunta el porcentaje de clasificación llega al 100 %. Se observó que la metodología CBIR, al trabajar con imágenes contaminadas con ruido, afecta directamente al desempeño de nuestro clasificador, ya que CBIR trabaja directamente con el análisis de textura para nuestra propuesta, entonces una imagen alterada de esta manera, aunque sea trabajando con el conjunto fundamental, ya no es la misma imagen contenida en la base de datos, por lo que el sistema se confunde y asigna la imagen de consulta a una clase diferente de la esperada. Otro factor importante que afecta al sistema es la captura de imágenes, ya que al no estar en las mismas condiciones tanto de iluminación, como en distancia, generan cambios drásticos en la extracción de características, las cuales aunque sea la misma persona, las condiciones de obtención de sus imágenes varían, para nuestro sistema luego entonces ya no es la misma persona. En el análisis de puntos SURF no existen los problemas encontrados en CBIR para la clasificación, por lo que es un buen complemento para nuestro sistema, ya que muestra tener excelentes resultados aún con imágenes contaminadas. El problema detectado en esta técnica es el alto costo computacional acorde a nuestra propuesta, ya que al segmentar una imagen en rejillas, la extracción de características de cada una de las rejillas tiene alto costo de procesamiento para la etapa de entrenamiento, por lo que si se busca trabajar con una cantidad mayor de imágenes, se tendrían que tomar en cuenta las técnicas de optimización en los algoritmos para mejorar el desempeño del sistema. Como trabajo futuro sería interesante reportar el desempeño de reducción de tiempo de cómputo con bases de datos mucho mayores, sobre la versión de programación paralela, y estudiar el nivel de recuperación sobre un número mucho mayor de clases e imágenes. Probar con otro tipo de arquitectura paralela como podría ser la utilización de GPUs, y generar una comparación del desempeño entre ambas técnicas de programación paralela. REFERENCIAS Figura 14. Factor de aceleración para ambas técnicas CBIR y SURF, aumentando el número de procesos. V. CONCLUSIONES Los resultados obtenidos con las BD fueron muy contundentes en la reducción del tiempo de procesamiento y en el porcentaje del clasificador conjunto, la unión de ambas [1] V. S. Nalwa. A Guided Tour of Computer Vision, volume 1 of TA1632. Addison Wesley, 1993. [2] H. T. F. Rodes, Alphonse Bertillon: Father of Scientific Detection. Abelard-Schuman, New York, 1956. [3] A Carolina Pinto L. Segmentación de imágenes por textura. Technical report, Universidad de Concepción, Septiembre 2006. [4] J. F. Serrano-Talamantes, C. Aviles-Cruz, J. Villegas-Cortez, and J. H. Sossa-Azuela, “Self organizing natural scene image retrieval,” Expert Systems with Aplications: An International Journal, vol. 40, no. 7, pp. 2398– 2409, 2012. [5] K. A. Kim. Facial feature extraction using PCA and wavelet multiresolution images. sixth IEEE International Conference on Automatic Face and Gesture Recognition, pages 17–19, Mayo 2004. [6] Y. Zaho. Part-based PCA for facial feature extraction and classification. International Workshop in Haptic Audio visual Environments and Games, pages 99–104, Noviembre 2009. [7] B. Amarapur and N. Patil. The facial textures extraction for face recognition based on geometrical approach. IEEE CCECE/CCGEI, pages 1936– 1939, Mayo 2006. [8] G. G. Yen and N. Nithianandan. Facial feature extraction using genetic algorithm. Congress on Evolutionary Computation, 2:1895–1900, Mayo 2002. [9] M. H. Mahoor and M. Abdel-Mottaleb. Facial features extraction in color images using enhanced active shape model. 7th International Conference on Automatic Face and Gesture Recognition (FGR’06), pages 10– 12, 2006. [10] T. F. Cootes. Active appearance models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 23(6):681–685, 2001. [11] Y. Yokogawa. A proposal of improved lip contour extraction method using deformable template matching and its application to dental treatment. Systems and Computers in Japan, 38(5):80–89, 2007. [12] HazmKemal Ekenel and Rainer Stiefelhagen. Why is facial occlusion a challenging problem? In Massimo Tistarelli and MarkS. Nixon, editors, Advances in Biometrics, volume 5558 of Lecture Notes in Computer Science, pages 299–308. Springer Berlin Heidelberg, 2009. [13] Peter N. Belhumeur, João P. Hespanha, and David J. Kriegman. Eigen- faces vs. fisherfaces: Recognition using class specific linear projection. IEEE Trans. Pattern Anal. Mach. Intell., 19(7):711–720, July 1997. [14] Athinodoros S. Georghiades, Peter N. Belhumeur, and David J. Krieg- man. From few to many: Illumination cone models for face recognition under variable lighting and pose. IEEE Trans. Pattern Anal. Mach. Intell., 23(6):643–660, June 2001. [15] H. Bay, A. Ess, T. Tuytelaars, and L. V-Goo. Surf: Speeded up robust features. Computer Vision and Image Understanding (CVIU), 110(3):346– 359, 2008. [16] Oliver Jesorsky, Klaus J. Kirchberg, and Robert W. Frischholz. Robust face detection using the hausdorff distance. Pages 90–95. Springer, 2001. [17] Donghoon Kim and Rozenn Dahyot. Face components detection using surf descriptors and svms. In Proceedings of the 2008 International Machine Vision and Image Processing Conference, IMVIP ’08, pages 51–56, Washington, DC, USA, 2008. IEEE Computer Society. [18] A. M. Martinez and R. Benavente. The AR face database. CVC Technical Report 24, The Ohio State University, junio 1998. [19] Krystian Mikolajczyk and Cordelia Schmid. A performance evaluation of local descriptors. IEEE Trans. Pattern Anal. Mach. Intell., 27(10):1615–1630, October 2005. [20] Aleix M. Martinez. Recognizing imprecisely localized, partially occluded, and expression variant faces from a single sample per class. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 24(6):748–763, Jun 2002. [21] S. Milborrow, J. Morkel, and F. Nicolls. The MUCT Landmarked Face Database. Pattern Recognition Association of South Africa, 2010. http://www.milbo.org/muct [22] Javier Ruiz-del Solar, Rodrigo Verschae, and Mauricio Correa. Recognition of faces in unconstrained environments: A comparative study. EURASIP J. Adv. Signal Process, 2009:1:1–1:19, January 2009. [23] Matthew Turk and Alex Pentland. Eigenfaces for recognition. J. Cognitive Neuroscience, 3(1):71–86, January 1991. [24] Lior Wolf, Tal Hassner, and Yaniv Taigman. Y.: Descriptor based methods in the wild. In In: Faces in Real-Life Images Workshop in ECCV. (2008) (b) Similarity Scores based on Background Samples. [25] Wintz González García. Digital Image Processing. Prentice Hall, 2002. [26] Duber Martínez Torres, Eduardo Caicedo Bravo, Humberto Loaiza Correa Combinación de Técnicas de Reconocimiento de Rostros con Imágenes Infrarrojas Empleando Algoritmos Genéticos. Revista IEEE América Latina. Publication Date: June 2008. Volume: 6, Issue: 2. ISSN: 1548-099. [27] Cornélia Janayna Pereira Passarinho, Evandro Ottoni Teatini Salles, Mário Sarcinelli Filho. Face Tracking in Unconstrained Color Videos with the Recovery of the Location of Lost Faces. Revista IEEE América Latina. Publication Date: Jan. 2015 Volume: 13, Issue: 1 ISSN: 15480992. [28] André Sobiecki, Gilson Antônio Giraldi, Luiz Antônio Pereira Neves, Carlos Eduardo Thomaz. An Automatic Framework for Segmentation and Digital Inpainting of 2D Frontal Face Images. Revista IEEE América Latina. Publication Date: Dec. 2012. Volume: 10, Issue: 6 ISSN: 1548-0992. Cesar Benavides Alvarez, recibió su título de Ingeniero en Electrónica en 2012 en la Universidad Autónoma Metropolitana (UAM) unidad Iztapalapa, y el grado de Maestro en Ciencias en 2015 por la UAM también, con la especialidad en Visión por Computadora y Sistemas distribuidos; actualmente estudia su Doctorado en Ciencias y Tecnologías de la Información en la UAM, y es becario del Consejo Nacional de Ciencia y Tecnología (CONACYT). Sus intereses de investigación son: Visión por Computadora, Reconocimiento de Patrones, Cómputo Evolutivo y Cómputo Paralelo y Distribuidos. Juan Villegas Cortez, es profesor titular en el Departamento de Electrónica en la UAM Azcapotzalco desde 2010. Obtuvo su grado de doctor en Ciencias de la Computación en el Centro de Investigación en Computación del Instituto Politécnico Nacional. Sus intereses actuales de investigación incluyen reconocimiento de Patrones, Visión por Computadora, Computación Evolutiva, Memorias Asociativas y el Procesamiento digital de señales. Graciela Román Alonso, es profesor titular de la Universidad Autónoma Metropolitana-Iztapalapa, en México, D. F. Ella obtuvo el grado de Doctor en Control de Sistemas por parte de L'Univeristé de Technologie de Compiégne, Francia. Así mismo, en el período 2010-2012 ella colaboró como profesor invitado en el Laboratorio de Investigación PARADISE, en The University of Ottawa, Canadá. Sus intereses de investigación incluyen la distribución dinámica de carga en sistemas paralelos y distribuidos, cómputo paralelo y distribuido, 3D streaming, sistemas P2P y VANETs. Carlos Avilés Cruz, obtuvo el título de Ingeniero en Electrónica especialidad en Sistemas Digitales en la Universidad Autónoma Metropolitana en 1991, el grado Maestro con especialidad en Procesamiento Digital de Señales, Imágenes y Voz en el Instituto Politécnico Nacional de Grenoble, Francia 1993, y el grado de Doctor del Instituto Politécnico Nacional de Grenoble, Francia 1997. Es autor y coautor de más de 40 artículos en revistas más congresos nacionales e internacionales, además de coautor de dos libros. Sus intereses son la Visión por Computadora, el Procesamiento digital de imágenes, el Procesamiento digital de señales, el Reconocimiento de patrones y la Estadística de orden superior.