Ruído, Redundância, Entropia e Informação
Ruído, Redundância, Entropia e Informação Ruído entende-se como um fator que interfere na comunicação, pois se prejudicando sendo ele não harmônico ou um emissor ou receptor sem sintonia que falta de empatia ou habilidade para colocar-se no lugar de terceiros falta de atenção pelo receptor. Isso pode ser quebrado com a redundância e feedback. Redundância é todo elemento da mensagem que não traz nenhuma informação nova. Um recurso para chamar a atenção e neutralizar possíveis ruídos que sendo assim, deve ser repetido as frases ou informação julgadas essenciais para o receptor. Feedback é o conjunto de sinais perceptíveis que permitem conhecer o resultado da mensagem; é um processo de se dizer a uma pessoa como você se sente em função da maneira que faz ou sente. Segundo a Teoria da Informação de Shannon é destituída de significados, pois aos meros elementos de um alfabeto; são sinais de um canal quaisquer de transmissão como uma linha telefônica ou TV. Entropia é um logaritmo de base 2 que determina a caoticidade da distribuição de probabilidade pi, pode ser usada para determinar a capacidade do canal para transmitir a informação. A entropia de Shannon, passou a ser considerada como uma medida de informação da informação contida em mensagem que é estritamente determinada por estruturas inerentes, exemplo, a redundância da estrutura das linguagens ou das propriedades estatísticas da linguagem relacionadas as freqüências de ocorrência de diferentes letras (monermas) ou de pares, trios (fonemas) etc, de palavras.
A Entropia definida por Shannon esta intimamente ligada a entropia definido pelos físicos. Os físicos Boltzmann e Gibbs fizeram um trabalho de estatística e termodinâmica que foi a inspiração para o termo da entropia dentro da teoria da informação, onde há uma profunda relação entre entropia nos sentidos termodinâmico e informacional. Por exemplo, o demônio de Maxwell necessita de informações para