18 septiembre 2012

Reglas de aprendizaje en redes neuronales


Algunos métodos de aprendizaje no supervisado son: (a) Aprendizaje Hebbiano. Consiste en modificar los pesos de acuerdo con algún criterio de correlación entre las actividades neuronales. (b) Aprendizaje competitivo. Neuronas diferentes se conectan con pesos negativos, inhibitorios, que fuerzan una competición para ganar la actividad neuronal. (c) Representación de características. Que concierne a la ordenación geométrica de los vectores peso de las unidades competitivas. Los datos del aprendizaje no supervisado pueden contener valores de entrada y valores de salida pero, en contraposición al aprendizaje supervisado, no hay información acerca de que salidas corresponden a cada una de las entradas de los datos.

Las reglas de aprendizaje constituyen el último recurso utilizado para definir a una red neuronal artificial. El aprendizaje es considerado como un porcentaje en el cambio de los pesos sinápticos o memoria de la red. Existen dos categorías con base en el tipo de aprendizaje en el que se basa una arquitectura de red determinada a saber: Aprendizaje supervisado y aprendizaje no supervisado. El tipo de aprendizaje que se utiliza, en la mayoría de los casos, depende del interés del investigador, en donde se considera entre otras cosas la arquitectura más adecuada para el trabajo a ejecutar. Se puede considerar como un proceso que exige a una red a entregar una respuesta dada ante una entrada específica. Además una respuesta particular puede o no ser especificada. Las reglas de aprendizaje están referidas como el conjunto de “normas” que marcan cómo se van modificando los pesos a través de los diferentes pasos del entrenamiento.

Según los profesores Ruiz y Basualdo, en el texto escrito el año 2001 titulado “Redes Neuronales: Conceptos Básicos y Aplicaciones”, los algoritmos de aprendizaje hacen referencia al conjunto de reglas para resolver el problema de aprendizaje; existen cuatro tipos básicos de reglas de aprendizaje: (1) Por corrección de error. Consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre los valores deseados y los obtenidos a la salida de la red, es decir, en función del error cometido en la salida. Un ejemplo de este tipo de algoritmos lo constituye la regla de aprendizaje del Perceptron, utilizada en el entrenamiento de la red del mismo nombre que desarrolló Rosenblatt el año 1958. Esta es una regla muy simple, para cada neurona en la capa de salida se le calcula la desviación a la salida objetivo como el error delta, el cual luego se utiliza para cambiar los pesos sobre la conexión de la neurona precedente. (2) De Boltzmann. El aprendizaje tipo Boltzman consiste básicamente en un aprendizaje estocástico, con descripción probabilística, basado en la teoría de la información y las consideraciones termodinámicas. Cuenta con una estructura recurrente con operación binaria, caracterizada por una función de energía. (3) De Hebb. Esta regla de aprendizaje es la base de muchas otras, la cual pretende medir la familiaridad o extraer características de los datos de entrada. El fundamento es una suposición bastante simple: si dos neuronas toman el mismo estado simultáneamente, ambas activas o ambas inactivas, el peso de la conexión entre ambas se incrementa. Las entradas y salidas permitidas a la neurona son: menos uno y uno o cero y uno, denominadas neuronas binarias. Esto puede explicarse porque la regla de aprendizaje de Hebb se originó a partir de la neurona biológica clásica, que solamente puede tener dos estados: activa o inactiva. (4) Aprendizaje competitivo. Es aquel en el que los elementos de procesamiento compiten entre ellos, y aquel que obtenga la respuesta más fuerte hacia una entrada dada se modifica a sí mismo para tratar de tornarse en aquella entrada. Las neuronas de la capa de la salida, aquellas conectadas a la salida, compiten entre ellas para ser la única ganadora. Una sola neurona se dispara a cada instante, es un esquema particularmente ventajoso para descubrir características importantes en el reconocimiento de patrones, agrupamientos, grupos o “clusters”. Los componentes principales de un sistema de aprendizaje competitivo son: (a) Conjunto de neuronas, misma función de activación, pero pesos diferentes distribuidos aleatoriamente. Esto produce respuestas diferentes a un conjunto de entradas. (b) Un límite en la suma de los pesos de cada neurona. (c) Un mecanismo para que cada neurona compita por responder de forma que sólo una neurona por grupo estará activa en cada iteración.

No hay comentarios:

Publicar un comentario