Download Redes Neuronales Convolutivas
Document related concepts
no text concepts found
Transcript
Seminario DLPLN 2016, InCo REDES NEURONALES CONVOLUTIVAS CONVOLUCIÓN Convolución • Caso continuo: • Propiedades: • asociativa • conmutativa • distributiva frente a la suma • ... Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 3 Convolución Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 4 Convolución • Caso discreto: • Con t=1: Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 5 Convolución • Media móvil: sirve para calcular tendencias Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 6 Convolución • Media móvil: sirve para calcular tendencias Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 7 Convolución 1 1 1 -4 1 1 -2 -1 -1 Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 1 1 1 2 8 CONVOLUCIÓN + REDES = CNN: Reconocimiento de dígitos • 12 ejemplos de16x13 bits de cada dígito, dibujados con un ratón. Cada ejemplo se coloca en 4 posiciones horizontales: 480 casos de 16x16. • Conjunto de entrenamiento: 32 ejemplos aleatorios de cada dígito • Pruebas con 5 redes distintas, todas con entrenamiento on-line Elements of Statical Learning, Hastie et al. (01) Generalization and Network Design Strategies, Le Cun (89) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 10 Net-1 y Net-2 • Net-1: 10 16x16 0 ocultas, 2570 links • • 10 unidades sigmoides de salida • completamente conectada. • ajusta muy rápido (7-5 épocas) • 70%-80% en test • superposición ponderada de entradas 3084 links Net-2: • +12 unidades (¿sigmoides?) ocultas • completamente conectada • ajusta muy rápido (6 épocas) • 87% test • sobreparametrizada Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 16x16 130 links 12 10 12 ocultas, 3214 links 11 Net-3 640 links 170 links 416 links 4x4 8x8 10 16x16 80 ocultas, 1226 links • 2 capas ocultas, H1 de 8x8 y H2 de 4x4. • H1 y H2 con conexión local: subsampleo de la entrada • capa de salida completamente conectada • 88,5% test Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 12 Net-4 1280 links 146 pesos 816 links 816 pesos 170 links 170 pesos 8x8 d 4x4 10 16x16 8x8 144 ocultas, 2266 links, 1132 pesos • H1 de 8x8x2 y H2 de 4x4. • H1 y H2 con conexión local • En cada mapa de H1 se comparten los pesos (¡convolución!) • 94% test Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 13 Net-5 650 links 650 pesos 3264 links 264 pesos 1280 links 146 pesos 10 16x16 8x8 4x4 192 ocultas, 5194 links, 1060 pesos • H1 de 8x8x2, H2 de 4x4x4. • H1 y H2 convoluciones • 98,4% test (con picos de 100%) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 14 Resultados Redes neuronales convolutivas, Seminario DLPLN 2016, InCo links pesos performance Net-1 2570 2570 80,0% Net-2 3240 3240 87,0% Net-3 1226 1226 88,5% Net-4 2266 1132 94,0% Net-5 5194 1060 98,4% % 15 LeNet-5 Neuronas Links Pesos C1 4704 122304 156 S2 1176 5880 12 C3 1600 151600 1516 S4 400 2000 32 C5 120 48120 48120 F6 84 10164 10164 Redes neuronales convolutivas, Seminario DLPLN 2016, InCo Gradient-based learning applied to document recognition, Le Cun et al. (98) 16 LeNet-5 Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 17 Características • Grandes cantidades de neuronas pero pocas conexiones que disminuyen el sobreajuste debido a la sobreparametrización. • Distintos tipos de capas: • convolutiva (feature map): las neuronas están conectadas localmente y comparten pesos; extraen características locales y son invariantes respecto al espacio. • subsampleo/agrupación (pooling): condensan salidas de capas anteriores, aplicando subsampleo y alguna función de reducción (máximo, k-máximo, media, etc.); reducen el espacio. • completamente conectadas: al estilo clásico, normalmente son la última capa. Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 18 Características • Se puede entrenar con backpropagation con alguna pequeña modificación. • A tener en cuenta: • cantidad de capas convolución / subsampleo • tamaño de los filtros y separación entre zonas de recepción (stride) • función de agrupamiento • Hay conocimiento del dominio detrás de estas elecciones. Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 19 ¿PROFUNDO? Who put the D in Deep? ImageNet Classification with Deep Convolutional Neural Networks, Krizhevsky et al. (12) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 21 Who put the D in Deep? GoogLeNet, Szegedy et al. (14) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 22 Who put the D in Deep? Deep Residual Learning for Image Recognition, He et al. (15) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 23 ImageNet Challenge • 1,2 millones de imágenes en 1000 categorías. ImageNet Large Scale Visual Recognition Challenge, Russakovsky et al (15) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 24 ¿PLN CONVOLUCIONA? CNLP • Convolución, sí. Profunda, no. Convolutional Neural Networks for Sentence Classification, Yoon Kim (14) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 26 CNLP Convolutional Neural Networks for Sentence Classification, Yoon Kim (14) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 27 CNLP A Sensitivity Analysis of (and Practitioners’ Guide to) Convolutional Neural Networks for Sentence Classification, Zhang & Wallace (16) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 28 CNLP • ¿Existe el mejor conjunto de vectores? • ¿Tamaño de los filtros? • ¿Cantidad de mapas de características? • ¿Función de agrupamiento? • ¿Regularización? • ¿Con cuáles parámetros quedarse? A Sensitivity Analysis of (and Practitioners’ Guide to) Convolutional Neural Networks for Sentence Classification, Zhang & Wallace (16) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 29 ¿Y ? CNLP Natural Language Processing (Almost) from Scratch, Collobert et al. (11) Redes neuronales convolutivas, Seminario DLPLN 2016, InCo 31 GRACIAS (PROFUNDAS)