Últimos avances en redes neuronales artificiales
En años recientes la inteligencia artificial y específicamente el campo llamado «aprendizaje automático» han cobrado notable fuerza, principalmente debido a los numerosos éxitos logrados en diferentes pruebas a las que ha sido sometida. Específicamente, gracias a la sub área del «aprendizaje automático» denominada «aprendizaje profundo», en la actualidad, vemos al software inteligente automatizar el trabajo rutinario, comprender el lenguaje o las imágenes, realizar el diagnóstico en medicina y apoyar la investigación científica básica.
Las críticas realizadas por Minsky (1969) donde demuestra que el perceptrón simple sólo sirve para clasificar problemas linealmente separables, cosa que ya se podía hacer mediante métodos estadísticos, y de una forma mucho más eficiente, significó una muerte prematura para el perceptrón. Sin embargo, Rumelhart (1986) revivió el interés por las redes neuronales gracias a su algoritmo de «Retropropagación» (Regla delta generalizada), el cual además de agregar una capa adicional, tomaba en cuenta el error y lo transmitía a la capa anterior.
Con la existencia de un algoritmo de retropropagación, se logró implementar, según Daumé III (2014), un enfoque para hacer una cadena de colección de perceptrones para construir redes neuronales más complejas, o como comúnmente se le denomina «perceptrón multicapa» (ver figura 1.2). Al poseer varias capas de neuronas se logró ganar mayor flexibilidad en las salidas, y por ende se pudo solucionar el clásico problema de la operación XOR que no era posible por medio del perceptrón simple.
Otro avance importante, fue cambiar la función de activación binaria original, por otras funciones no lineales como sigmoide, gaussiana y tangente hiperbólica, las cuales proporcionan un umbral más suave y por ende más precisa.
Al utilizar varias capas de neuronas, se logra una mejor manera de extraer las características, debido a que cada capa va incrementando la selectividad y la invarianza en la representación de los datos, por lo que la última capa es sensible a pequeños detalles e insensible a detalles irrelevantes.
Cabe destacar que en este tipo de red, la operación de convolución y reducción de muestreo se realizan en la primera capa del nivel, con la finalidad de detectar conjunciones locales de características, la capa posterior se encarga de sumar las características similares entre sí, de modo tal que el dilema de la selección-invarianza sea solucionado correctamente (ver figura 2.1.2).
Este comportamiento, emula el de las células visuales, donde las células encargadas de recibir la luz, están entrenadas para detectar características específicas como lo son los bordes de las imágenes. Este tipo de redes ha demostrado ser especialmente eficaces en el etiquetado y procesamiento de imágenes como (ver figura 2.1.3), detección de señales de tráfico, segmentación de imágenes biológicas, detección de rostros.
Leave a Reply