Redes beuronales

Redes beuronales gy dapascuas I Aeza6pR 04, 2010 47 pagos INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES Fernando Tanco Redes Neuronales Artificiales 1. Introducción Resu ta irónico pensar que máquinas de cómputo capaces de realizar 100 millones de operaciones en coma flotante por segundo, no sean capaces de entender el significado de las formas visuales o de distinguir entre distintas clases de objetos.

Los sistemas de computación secuencial, son exitosos en la resolución de problemas matemáticos o científicos, en la creación, manipulación mantenimiento de bases de datos, en omo • comunicaclones elec PACE 1 oral gráficos y auto edició incl electrodomésticos, h éndol usar, pero definitiva interpretar el mundo. ento de textos, e control de s y fáciles de capacidad para temas de computo que trabajan bajo la filosofía de los sistemas secuenciales, desarrollados por Van Neuman, ha hecho que un gran número de investigadores centre su atención en el desarrollo de nuevos sistemas de tratamiento de la información, que permitan solucionar problemas cotldianos, tal como lo hace el cerebro humano; este órgano biológico cuenta con varias características eseables para cualquier sistema de procesamiento digital, tales : • • • • Es robusto y tolerante a fallas, diariamente mueren neuronas sin afectar su

Lo sentimos, pero las muestras de ensayos completos están disponibles solo para usuarios registrados

Elija un plan de membresía
desempeño. ?-s flexible, se ajusta a nuevos ambientes por aprendizaje, no hay qu Swlpe to vlew next page que programarlo. Puede manejar información difusa, con ruido o inconsistente. Es altamente paralelo. Es pequeño, compacto y consume poca energía. El cerebro humano constituye una computadora muy notable, es capaz de interpretar información imprecisa suministrada por los sentidos a un ritmo increíblemente veloz.

Logra discernir un susurro en una sala ruidosa, un rostro en un callejon mal iluminado y leer entre líneas un discurso; lo más impresionante de todo, es que el cerebro aprende sin instrucciones explícitas de ninguna clase, a crear las representaciones internas que hacen posibles estas habilidades.

Basados en la eficiencia de los procesos llevados a cabo por el cerebro, e inspirados en su funcionamiento, varios investigadores han desarrollado desde hace más de 30 años la teoría de las Redes Neuronales Artificiales (RNA), las cuales emulan las redes neuronales biológicas, y que e han utilizado para aprender estrategias de solución basadas en ejemplos de comportamiento típico de patrones; estos sistemas no requieren que la tarea a ejecutar se programe, sino que generalizan y aprenden de la experiencia.

La teoría de las RNA ha brindado una alternativa a la computación clásica, para aquellos problemas, en los cuales los métodos tradicionales no han entregado resultados muy convincentes, o poco convenientes.

Las aplicaciones más exitosas de las RNA son: • • • • • • • Procesamiento de imágenes y de voz Reconocimiento de patrones Planeamiento Interfaces adaptivas para sistemas ombreftnáquina Predicción Control y 2 OF hombre/máquina Predicción Control y optimización Filtrado de señales Los sistemas de computo tradicional procesan la información en forma secuencial; un computador serial consiste por lo general de un solo procesador que puede manipular instrucciones y datos que se localizan en la memoria.

El procesador lee, y ejecuta una a una las instrucciones en la memoria; este sistema serial es secuencial, todo sucede en una sola secuencia deterministica de operaciones. Las RNA no ejecutan instrucciones, responden en paralelo a las entradas que se les presenta. El resultado no e almacena en una posición de memoria, este es el estado de la red para el cual se logra equilibrio. El conocimiento de una red neuronal no se almacena en instrucciones, el poder de la red está en su topología y en los valores de las conexiones (pesos) entre neuronas. Las ventajas de las redes neuronales son: • • • • Aprendizaje adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o una experiancia inicial. Autoorganización. Una red neuronal puede crear su propia organización o representación de la información que recibe mediante una etapa de aprendizaje. Generalización. Facultad de las redes neuronales de responder apropiadamente cuando se les presentan datos o situaciones a los que no habían sido expuestas anteriormente. Tolerancia a fallos.

La destrucción parcial de una red conduce a una degradación de su estructura; sin embargo, algunas capacidades de I 3 OF parcial de una red conduce a una degradación de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo gran daño. Con respecto a los datos, las redes neuronales pueden aprender a reconocer patrones con ruido, distorsionados o incompletos. Operación en tiempo real. Los omputadores neuronales pueden ser realizados en paralelo, y se diseñan y fabrican máquinas con hardware especial para obtener esta capacidad.

Fácil inserción dentro de la tecnología existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilita la integración modular en los sistemas existentes. 2. Panorama histórico Alan Turing, en 1936, fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación; sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo,y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas.

Ellos modelaron una red neuronal simple mediante circuitos eléctricos. Otro importante libro en el inicio de las teorías de las redes neuronales fue escrito en 1949 por Donald Hebb, La organización del comportamiento, en el que establece una conexión entre psicología y fisiología. En 1957, Frank Rosenblatt comenzó el desarrollo del Perceptrón, es el modelo más antiguo de red neuronal, y se usa hoy en de varias formas para la aplicación de reconocedor de patron neuronal, y se usa hoy en día de varias formas para la aplicación de reconocedor de patrones.

Este modelo era capaz de generalizar; es decir, después de haber aprendido una serie de patrones era capaz de reconocer otros similares, aunque no se le hubieran presentado anteriormente. Sin embargo, tenía una serie de limitaciones, quizas la más conocida era la incapacidad para resolver el problema de la función OR-exclusiva y, en general, no era capaz de clasificar clases no separables linealmente. En 1959, Bernard Widrow y Marcial Hoff, de Stanford, desarrollaron el modelo ADALINE (ADAptive LI Near Elements).

Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) y se ha usado comercialmente durante varias decadas. Uno de los mayores investigadores de las redes neuronales desde los años 60 hasta nuestros días es Stephen Grossberg (Universidad de Boston). A partir de su extenso conocimiento fisiológico, ha escrito numerosos libros y desarrollado modelos de redes neuronales. Estudió los mecanismos de la percepción y la memoria.

Grossberg realizó en 1967 una red, Avalancha, que consistía en elementos discretos con actividad que varia con el iempo que satisface ecuaciones diferenciales continuas, para resolver actlvidades tales como reconocimiento continuo del habla y aprendizaje del movimiento de los brazos de un robot. En 1969 surgieron numerosas críticas que frenaron, hasta 1982, el crecimiento que estaban experimentando las investigaciones sobre OF frenaron, hasta 1982, el crecimiento que estaban experimentando las investigaciones sobre redes neuronales.

Marvin Minsky y Seymour Papert, del MIT, publicaron un libro, Perceptrons, que además de contener un análisis matemático detallado del Perceptrón, consideraba que la extensión a Perceptrones ultinivel (el Perceptrón original solo poseía una capa) era completamente estéril. Las limitaciones del Perceptrón eran importantes, sobre todo su incapacidad para resolver muchos problemas interesantes. Esta fue una de las razones por la cual la investigación en redes neuronales quedo rezagada por más de 10 años.

A pesar del libro Perceptrons, algunos investigadores continuaron con su trabajo. Tal fue el caso de James Anderson, que desarrolló un modelo lineal llamado Asociador Lineal, que consistía en elementos integradores lineales (neuronas) que sumaban sus entradas. También desarrolló una potente extensión del Asociador Lineal llamada Brain-State-in-a-Box (BSB) en 1977. En Europa y Japón, las investigaciones también continuaron. Kunihiko Fukushima desarrollo en 1980 el Neocognitrón, un modelo de red neuronal para el reconocimiento de patrones visuales.

Teuvo Kohonen, un ingeniero electrónico de la universidad de Helsinki, desarrolló un modelo similar al de Anderson pero independientemente. En 1982 comenzó a resurgir el interés por las redes neuronales gracias a dos trabajos importantes. John Hopfield presentó su trabajo (basado en la fisica estadística), en el cual describe con claridad y rigor matemático una r 6 OF rabajo (basado en la física estadística), en el cual describe con claridad y rigor matemático una red a la que ha dado su nombre, que es una variación del Asociador Lineal, pero, además, mostró cómo tales redes pueden trabajar y qué pueden hacer.

El otro trabajo pertenece a Teuvo Kohonen, con un modelo con capacidad para formar mapas de características de manera similar a como ocurre en el cerebro, este modelo tenía dos variantes denominadas LVQ (Lerning Vector Cuantization) y SOM (Self-organizing Map). En 1986, el desarrollo del algoritmo back-propagation fue dado a conocer por Rumelhart, Hinton y Williams. Ese mismo año, el libro Parallel Distributed Processing, fue publicado por Rumelhart y McClelland, siendo este libro la mayor influencia para la aplicación generalizada del algontmo back-propagation. . El modelo biológico El cerebro consta de un gran número (aproximadamente 1011) de elementos altamente interconectados (aproximadamente 104 conexiones por elemento), llamados neuronas. Estas neuronas tienen tres componentes principales, las dendritas, el cuerpo de la célula o soma, y el axón. Las dendritas, son el árbol receptor de la red, son como fibras nerviosas que cargan de señales eléctricas el cuerpo e la célula. El cuerpo de la célula, realiza la suma de esas señales de entrada.

El axón es una fibra larga que lleva la señal desde el cuerpo de la célula hacia otras neuronas. El punto de contacto entre un axón de una célula y una dendrita de otra célula es llamado sinápsis, la longitud de la sinápsis es d OF de una célula y una dendrita de otra célula es llamado sinápsis, la longitud de la sinápsls es determinada por la complejidad del proceso químico que estabiliza la función de la red neuronal. Un esquema simplificado de la interconexión de dos neuronas biológicas se observa en la siguiente figura:

Todas las neuronas conducen la información de forma similar, esta viaja a lo largo de axones en breves impulsos eléctricos, denominados potenciales de acción; los potenciales de acción que alcanzan una amplitud máxima de unos 100 mV y duran un par de ms, son resultado del desplazamiento a través de la membrana celular de iones de sodio dotados de carga positiva, que pasan desde el fluido extracelular hasta el citoplasma intracelular; seguidos de un desplazamiento de iones de 4 potasio (carga negativa) que se desplazan desde el fluido intracelular al extracelular.

En la siguiente figura se observa la ropagación del impulso eléctrico a lo largo del axón. Los potenciales de acción, son señales de baja frecuencia conducidas en forma muy lenta, estos no pueden saltar de una célula a otra, la comunicación entre neuronas viene siempre mediada por transmisores químicos que son liberados en las sinápsis, son los llamados neurotransmisores.

Existen dos tipos de sinapsis: a) las sinapsis excitadoras, cuyos neurotransmisores provocan disminuciones de potencial en la membrana de la célula postsináptica, facilitando la generación de impulsos a mayor velocidad, y b) las sinapsis inhibidoras, cuyos neurotransmisores ienden a 8 OF de impulsos a mayor velocidad, y b) las sinapsis inhibidoras, cuyos neurotransmisores tienden a estabilizar el potencial de la membrana, dificultando la emisión de impulsos. La neurona recibe las entradas procedentes de sinapsis excitadoras e inhibidoras, o sea recibe impulsos amplificados o atenuados.

La suma de éstos impulsos en el cuerpo de la célula determinará si será o no estimulada, dependiendo de que si el valor de dicha suma es superior al valor de umbral de generación del potencial de acción. 4. La neurona artificial El modelo de una neurona artificial es una imitación del proceso e una neurona biológica, puede también asemejarse a un sumador hecho con un amplificador operacional tal como se ve en la figura: Existen varias formas de nombrar una neurona artificial, es conocida como nodo, neuronodo, celda, unidad o elemento de procesamiento (PE).

En la siguiente figura se observa un PE en forma general y su similltud con una neurona biológica: De la observación detallada del proceso biológico se han hallado los siguientes análogos con el sistema artificial: • Las entradas Xi representan las señales que provienen de otras neuronas y que son capturadas por las dendritas. • Los pesos Wi son la intensidad e la sinápsis que conecta dos neuronas; tanto Xi como Wi son valores reales. ?? 9 es la función umbral que la neurona debe sobrepasar para activarse; este proceso ocurre biológicamente en el cuerpo de la célula. Las señales de entrada a una neurona artificial XI , X2,.. , Xn son variables contin de la célula. Las señales de entrada a una neurona artificial XI, X2,.. , Xn son variables continuas en lugar de pulsos discretos, como se presentan en una neurona biológica.

Cada señal de entrada pasa a través de una ganancla o peso, llamado peso sináptico o fortaleza de la conexión cuya función es análoga a la e la función sináptica de la neurona biológica. Los pesos pueden ser positivos (excitatorios), o negativos (inhibitorios), el nodo sumatorio acumula todas las señales de entradas multiplicadas por los pesos o ponderadas y las pasa a la salida a través de una funcion umbral o función de transferencia.

La entrada neta a cada unidad puede escribirse de la siguiente manera: Una idea clara de este proceso se muestra en la siguiente flgura, en donde puede obsewarse el recorrido de un conjunto de señales que entran a la red. 6 Una vez que se ha calculado la activación del nodo, el valor de alida equivale a Donde fi representa la función de activación para esa unidad, que corresponde a la función escogida para transformar la entrada netai en el valor de salida xi y que depende de las características específicas de cada red. . Funciones de transferencia Un modelo más académico que facilita el estudio de una neurona, puede visualizarse en la figura: Las entradas a la red serán ahora presentadas en el vector p, que para el caso de una sola neurona contiene solo un elemento, w sigue representando los pesos y la nueva entrada b es una ganancia que refuerza la salida del sumador n, la cual es la salida