O aprendizado por perceptrons
Alessandro de Mattos Silva Universidade Federal de Mato Grosso do Sul – Campus de Três Lagoas (UFMS-CPTL) Sistemas de Informação ufms.ale@gmail.com Abstract: Learning is the search for a solution in a multidimensional parameter space, with the weights of connections that optimize certain function. Based on this concept using preceptrons deepened, as an application of Neural Networks, for the representation of knowledge acquired. The activity exerted by preceptrons can be compared to the activity of neurons, both in its physical structure as well as in the treatment of unidirectional information carried by their connections. Resumo: A aprendizagem consiste na busca de solução em um espaço multidimensional de parâmetros, através de pesos de conexões que otimize determinada função. Baseado neste conceito aprofundamos o uso de preceptrons, como uma aplicação de Redes Neurais, para a representação do conhecimento adquirido. A atividade exercida pelos preceptrons pode ser comparada como a atividade dos neurônios, tanto em sua estrutura física como também no tratamento unidirecional da informação executado por suas conexões.
Perceptrons
O perceptron foi inventado por Rosenblatt (1962) e foi introduzido como um dos primeiros modelos de redes neurais. Sua função básica é comparada a atividade executada por um neurônio humana. Realiza a soma ponderada de suas entradas e envía o sinal 1 em caso de a soma ser maior que algum valor threshold ajustável, caso contrario devolve 0 como sinal de saída. A seguir é apresentada uma figura (Fig.1) que ilustra o funcionamento de um perceptron em comparação a um neurônio. As entradas (X1, X2, X3, …, Xn) e os pesos de conexão (W1, W2, W3, …, Wn) são valores reais que podem ser negativos ou positivos. Se a presença de alguma característica Xi tende a causar a ativação do perceptron então o peso Wi será positivo, se a característica Xi inibe o perceptron então o peso será negativo.
Figura 1: