Processos De Corre O De Erros
Wikipedia
Out 2013
Em matemática, ciência da computação e telecomunicações detecção e correcção de erros é um assunto de grande importância e relevância na manutenção da integridade dos dados em canais com ruído ou em sistemas de armazenamento não imunes a falhas.
Em um sistema de comunicação pode se dizer que é normal a ocorrência de erros, pois funciona por troca de mensagens a todo instante de um local com outro. Os erros podem ser causados por interferências eletromagnéticas, envelhecimento de componentes, curto-circuito, que acabam afetando as mensagens, fazendo com que, por exemplo, um “0” seja enviado, e na transmissão acaba sendo transformado em “1”, ou seja, receptor recebe informação diferente daquela que foi enviada.
Abaixo, iremos ver formas de tratar os erros, que seria utilizar métodos que bits aos códigos, a fim de detectar e corrigir erros.
Definições
•
•
Detecção de erros é receber o aviso de erro e em seguida encontrar este erro, que pode ser causado por interferências, ruídos, entre outros fatores já citado, durante a passagem da mensagem do emissor para o receptor, a fim de que possa ser corrigido pela correção de erros.
Correção de erros é receber informações do erro e fazer sua correção.
Detecção de erros
Em detecção de erros, já definido, pode ser utilizado por diversos métodos como: Método de repetição, método de paridade, Checksum, método de redundância cíclica e códigos de Hamming. Estes métodos, seguindo seus próprios conceitos, irão de alguma maneira, detectar o erro para passar a correção de erros. O que tem em comum entre todos estes métodos é a utilização de inserção de bits extras, funcionando de uma maneira fácil de compreender: emissor enviar junto à informação original bits a mais, então o receptor calcula estes bits a mais, enviados, bits extras.
Método de repetição
Este método é considerado problemático, muito comum, sem muita eficiência, pois ao enviar uma mensagem, são enviados três