MODELO SHANNON - WEAVER
Para Shannon e Weaver a informação é medida da liberdade de escolha de um sinal ou de uma mensagem. Porém, eu penso que podemos não apenas utilizar o conceito de informação não apenas para a aplicarmos a uma situação em geral, como defende Weaver na citação feita imediatamente antes. O conceito também pode servir para falar do valor informativo de uma mensagem em particular, porque quanto maior for a liberdade de escolha da fonte, maior será o valor informativo da mensagem ou do sinal. Quanto mais inesperado o sinal maior valor informativo ele tem. Porém, uma vez selecionado um dos sinais ou mensagens numa situação improvável, o próximo sinal ou mensagem selecionado terá um valor informativo menor. A redundância aumentará e a entropia diminuirá.
Ao adotarmos a circunstância como completa, como claramente exige Weaver, a informação está na razão direta da entropia. Se tivermos em cômputo o valor informativo de cada mensagem, podemos arquitetar como adiante veremos como entropia negativa.
Redundância e Entropia é aquilo que numa mensagem, é previsível ou convencional. O oposto de redundância é a entropia. A redundância resulta de uma previsibilidade elevada e a entropia de uma previsibilidade reduzida. Assim, pode-se dizer que uma mensagem de baixa previsibilidade é entrópica e com muita informação. Inversamente uma mensagem de elevada previsibilidade é redundante e com pouca informação.
Na comunicação, a redundância não é só útil como absolutamente vital já que desempenha dois tipos de funções: a primeira é técnica e está bem definida por Shannon e Weaver, a segunda implica o alargamento do seu conceito a uma dimensão social.
Enquanto que a redundância é um meio para melhorar a comunicação, a entropia, como conceito, tem um valor menor para aqueles que estudam a comunicação, pois constitui um problema de