Redes neurais
Perceptron / Adaline
Aprendizado
Para realizar o treinamento (aprendizado) de um padrão, é necessário primeiramente passá-lo para a forma de 1 e -1. É comum encontrarmos arquivos de padrões em binários, resultantes, por exemplo, de processamento de sinais digitais. Cada 0 do padrão binário deve ser colocado na forma de -1 para que não hajam erros na execução das equações do algoritmo. Caso o padrão seja contínuo, este processamento torna-se desnecessário. A forma em que são apresentados os padrões também é de grande importância. Se há mais de um, devem ser apresentados aleatoriamente, ou de forma alternada. Nunca se deve treinar um padrão para somente depois treinar outro, isso deixaria os pesos da rede sempre tendendo a apenas um dos padrões. Outro passo é o ajuste dos parâmetros do algoritmo, que são o coeficiente de aprendizado α e o coeficiente de limiar θ. O coeficiente α determina o intervalo de ajuste dos pesos, quanto maior seu valor, maior será a diferença dos valores de uma iteração a outra. Quanto maior o valor, maior o intervalo de ajuste, e portanto maior será a rapidez de convergência. Por outro lado, se o valor de α for sempre alto, poderá ocorrer o caso do sistema nunca chegar numa convergência, entrando em laço infinito. Isto porque os valores nunca serão pequenos o suficiente para garantir uma saída confiável, bem próxima a 0 ou a 1, dependendo da saída desejada. O valor de α pode ser arbitrado (e, de certa forma, terá que ser inicialmente arbitrado) pelo projetista da aplicação, devendo ficar dentro do intervalo [0.01;1.0]. O coeciente poderá ser variável, seguindo uma função decrescente, partindo de um valor maior para um menor quando próximo da convergência. Já o coeficiente de limiar θ pode seguir um ajuste conjuntamente com os pesos ou ser definido pelo projetista. Ele é responsável pelo deslocamento, na função limiar, do ponto central de decisão da quantização da saída. Em outras palavras, um