Primeira Atividade ( Adaline)
CENTRO DE CIENCIAS TECNOLOGICAS
CURSO DE ENGENHARIA DA COMPUTAÇÃO
Robson Sousa Monteiro 11092040
Eryck de Araújo Oliveira 11092037
Redes Neurais Artificiais
São Luís – MA
2014
A Adaline (Adaptative Linear Neuron) foi desenvolvida por Widrow e Hoff em
1959. Foi criada anos depois do aparecimento do Perceptron e é um clássico modelo de neurônio que permite saídas tanto diretas quanto contínuas e pode ser usado para tarefas de classificação e regressão.
Para estas tarefas, o Adaline apresenta uma regra de aprendizado sofisticado, a Regra Delta, que se trata de um método de regressão linear que diminuía a cada exemplo a distância entre a saída obtida e a desejada através de adaptações graduais dos pesos do Perceptron.
A regressão consiste na busca por uma função que represente, de forma aproximada o comportamento apresentado pelo fenômeno em estudo. A forma mais conhecida de regressão é a linear, por exemplo, uma reta que minimiza o erro médio entre todos os valores considerados.
O Adaline é similar ao Perceptron, com diferença apenas pelo seu algoritmo de treinamento. Enquanto o Perceptron ajusta os pesos somente quando um padrão é classificado incorretamente, o Adaline utiliza a regra Delta para minimizar o erro médio (MSE)
após
cada
padrão
ser
apresentado,
ajustando
os
pesos
proporcionalmente ao erro.
Para isso, ela utiliza de um algoritmo de gradiente descendente, com a intenção de diminuir o valor da função de erro. Este algoritmo pode ser visto como uma "caminhada" no domínio da função do erro, em que casa passo é feito no sentido oposto ao gradiente da função no ponto atual.
Percebemos que a execução da função test_adalaine não obteve sucesso ao tentar aprender um exemplo de uma rede neural que não sejam linearmente separáveis tais como a porta XOR (Figura 1) definida por O=[0;1;1;0], onde apresentou resultado sendo: o1 = [1;1;0;0].
Figura 1 –