Multilayer perceptrons
As redes Multilayer Perceptron (MLPs) têm sido aplicadas com sucesso em uma variedade de áreas, desempenhando tarefas tais como: classificação de padrões
(reconhecimento), controle e processamento de sinais.
Uma RNA do tipo MLP é constituída por um conjunto de nós fonte, os quais formam a camada de entrada da rede (input layer), uma ou mais camadas escondidas
(hidden layers) e uma camada de saída (output layer). Com exceção da camada de entrada, todas as outras camadas são constituídas por neurônios e, portanto, apresentam capacidade computacional. O MLP é uma generalização do Perceptron.
A Equação 1 mostra a arquitetura de uma rede neural MLP com uma camada de entrada, 2 camadas escondidas e uma camada de saída.
Equação 1: Arquitetura de uma rede neural multilayer perceptron com duas camadas escondidas. Duas características de tal estrutura são imediatamente aparentes:
1. Uma rede multilayer perceptron é uma rede progressiva. Uma RNA é dita progressiva (feedforward) quando as saídas dos neurônios em qualquer particular camada se conectam unicamente às entradas dos neurônios da camada seguinte, sem a presença de laços de realimentação. Conseqüentemente, o sinal de entrada se propaga através da rede, camada a camada, em um sentido progressivo.
2. A rede pode ser completamente conectada, caso em que cada nó
(computacional ou não) em uma camada é conectado a todos os outros nós da camada adjacente. De forma alternativa, uma rede MLP pode ser parcialmente conectada, caso em que algumas sinapses poderão estar faltando. Redes localmente conectadas representam um tipo importante de redes parcialmente conectadas. O termo "local" se refere à conectividade de um neurônio em uma camada da rede com relação a somente um sub-conjunto de todas as possíveis entradas. Na prática, a falta de uma determinada sinapse em um MLP é emulada fazendo-se sua transmitância constante e igual a zero. Neste estudo, no entanto, consideraremos