Redes Neurais
Aplicação:
Arquitetura da Rede:
Algoritmo de Aprendizado:
Reconhecimento de dígitos de 0 a 9
Multi-Layer Perceptron
Back Propagation
Formato de Entrada:
Formato de Saída:
Vetor de 10 elementos binários:
dígito 1
dígito 2
dígito 0
1000000000
Testes a serem Executados:
1.- Variar o número de camadas escondidas e o número de processadores em cada camada escondida, verificando o seu tempo de convergência, isto é, o número de epochs ou ciclos de apresentação de todos os 10 padrões de treinamento, conforme indicado na tabela abaixo. Todos esses testes devem ser efetuados com os seguintes parâmetros: η=0.4 e tolerância =10%.
Tempo de Convergência
Redes com 1 Camada
Redes com 2 Camada
15
25
35
10x10
OBS. Para efetuar os testes com duas camadas escondidas, deve-se fazer o treinamento em etapas, parando por número de rodadas (ciclos) e armazenando os pesos para continuar o treinamento posteriormente. 2.- Variar a taxa de aprendizado (η), verificando o tempo de convergência para as seguintes configurações de redes: 1 camada com 15 processadores e 2 camadas com 10 processadores cada
(tolerância 10%). Comentar os resultados em função da definição de η. η = 0.1, 0.4, 0.7, 0.9
3.- Comparar o tempo de convergência com e sem o termo de momentum α para as configurações abaixo
(tolerância 10%). Comentar os resultados encontrados em função das definições de η e α.
η
0.1
0.7
Tempo de Convergência
1 camada (15p)
2 camadas (10x10 p) α=0 α=0.4 α=0.8 α=0 α=0.4 α=0.8
4.- Comparar o tempo de convergência das configurações de rede abaixo:
Rede I:
Rede II:
Rede III:
Rede IV:
Rede V:
Rede VI:
Rede VI:
Rede VIII
Rede IX:
1 camada com 15 processadores, η=0.7, α=0.8, tolerância 30%
1 camada com 15 processadores, η=0.7, α=0.8, tolerância 10%
1 camada com 15 processadores, η=0.7, α=0.8, tolerância 1%
1 camada com 35 processadores, η=0.7, α=0.8, tolerância 30%
1