Resumo: little, john & stephen, w. teoria da informação. in: fundamentos teóricos da comunicação humana. rio de janeiro: guanabara, 197-. p.152-161.
Teoria da Informação:
Neste texto os autores buscam compreender o que chamam de quarto processo básico da comunicação, a informação. Definem os princípios da teoria da informação através da afirmação “as mensagens fornecem informação”.
A teoria da informação se concentra em medir as informações, sendo um estudo quantitativo da informação em mensagens e do fluxo de informação entre emissores e receptores. Tem maior aplicação em áreas em que é necessária uma medição constante de grandes quantidades de informação, a fim de facilitar a manipulação desta. Em áreas que trabalham com a organização de ocorrências, percebendo que organização é uma questão de probabilidade, como a física e a engenharia.
Conceitos básicos:
Entropia: ausência de organização numa determinada situação. A presença da entropia não permite que se preveja o que acontecera a seguir. Entropia é imprevisibilidade. “A entropia existente na situação causa alguma incerteza”.
Informação: é uma medida de incerteza ou entropia numa situação. Quanto maior for a incerteza, maior será a informação. Quando uma situação é completamente previsível, nenhuma informação esta presente. Informação é a quantidade de incerteza na situação. Informação como uma função do numero de mensagens necessárias para reduzir completamente a incerteza da situação. Diminui a área de incerteza de um evento.
Ou seja, a informação só existe em situações onde a entropia está presente!!!!
Bit: unidade de informação. É uma unidade usada para contar alternativas.
Redundância: a redundância é o inverso da entropia relativa. É o grau de previsibilidade numa situação ou mensagem. É a proporção de uma situação que é previsível. É uma medida de certeza. Se é previsível é redundante.
Entropia relativa: é a proporção de entropia presente, em relação à máxima quantidade possível. (a