Las redes neuronales se diseñan a partir del propósito que se quiera obenter. Por ejemplo no será lo mismo diseñar una con fines de reconocimiento, aproximación universal de funciones, correción de datos, etc.
La red más simple es aquella que posee una neurona y una capa.
La letra p es la entrada, que puede ser un escalar o un vector, la w representa el peso de la neurona para ese impulso, la b son los llamados bias, y se le asigna una entrada de 1 generalmente, la letra n es el resultado de la sumatoria de wp+b, y finalmente la a es el resultado de aplicar una función específica para cada salida.
Un escalón más arriba encontramos la red que posee una entrada múltiple y una neurona, aunque se dijo ya que p puede ser un vector, a continuación se muestra tal red:
Aquí arriba estamos introduciéndonos a lo que es la simbología de una red, donde la neurona 1 posee R pesos para cada R entrada, es importante ya notar que el número de elemenos del vector salida, en este caso escalar, está determinado por el número de neuronas de la capa que la origina.
De esta forma par redes de muchas neuronas con muchas capas, se usa la siquiente notación, a partir del diagrama mostrado:
Se observa que los superíndices no son exponentes, si no representan a la ubicación, en esta caso la capa, dentro de la arquitectura, las funciones a = f(w,b,p), se van adicionado, en el sentido de integrarse a una expresión, hasta llegar a la función que se encuentra en el inferior de la gráfica, es la expresión de la salida para toda la red.
En algunas redes, como está llamada Recurrent Networks, existen funciones Delay que se suelen usar para corregir datos, o mejorar la permomance de esta.
La función Delay (o filtro) está definida así:
Donde la salida está definida como el output de la prograpagación anterior.
A continuación se muestra una tabla con las funciones de trasnferencia generalmente usadas y su representación en un gráfico.
De esta forma culmniamos la segunda entrega.