Comunicação Social

domingo, junho 25, 2006

Teoria Matemática

Baseado no capítulo "A TEORIA MATEMÁTICA DA COMUNICAÇÃO" de Weaver
(in: "Comunicação e Insústria Cultural")


A palavra comunicação será usada aqui num sentido muito amplo, de forma a incluir todos os procedimentos pelos quais uma mente pode influenciar outra. Assim como a palavra informação de forma alguma pode ser confundida com significado.

Parece haver três níveis de problemas em comunicação:
  • Problemas técnicos - referem-se à precisão na transferência de informações do emissor para o receptor.
  • Problemas semânticos - referem-se à interpretação do significado pelo receptor, comparada ao significado pretendido pelo emissor.
  • Problemas de influência ou eficácia - referem-se ao êxito de, através do significado transmitido ao receptor, provocar a conduta desejada de sua parte.
O trabalho que nos referiremos aqui é o de Claude Shannon*, matemático norte-americano, que procurou resolver problemas técnicos. A análise teórica revela que estes se justapõem, mais do que se poderia suspeitar, aos problemas de semântica e de eficácia.

Shannon demonstrou que letras e palavras, escolhidas ao acaso, postas em seqüência e ditadas exclusivamente por considerações de probabilidade (depois das palavras "no caso", a probabilidade da próxima ser "de" é muito grande), tendem a formar palavras e frases significativas. Assim, a informação deve ser medida pela entropia. Se uma situação é altamente organizada, a informação, ou a entropia, é baixa. A teoria matemática da comunicação está preocupada, não com o significado de mensagens individuais, mas com a natureza estatística da fonte de informação.

No processo de transmissão do sinal, é infelizmente característico que certas coisas não pretendidas pela fonte de informação sejam acrescidas. Essas alterações no sinal podem ser chamadas de ruído. A incerteza que decorre da liberdade de escolha da parte do emissor é uma incerteza desejável. A incerteza que decorre de erros ou da influência de ruído é uma incerteza indesejável. Para obtermos a informação útil do sinal recebido, precisamos subtrair a porção espúria.

  • Shannon demonstrou que cada canal tem uma capacidade e uma quantidade limite de informações transmitidas. A partir de um certo ponto, a mensagem começa a ser dominada pelos ruídos que prejudicam a recepção.

É interessante observar que enquanto a informação significa variedade, novidade, a redundância significa falta de variedade ou simplesmente repetição. A redundância da língua inglesa é de cerca de 50 por cento. Em outras palavras, cerca da metade das letras ou palavras que escolhemos, ao escrever ou falar, é de nossa livre escolha e cerca de metade é realmente controlada pela estrutura estatística da língua. Com isso, é possível economizar tempo de telégrafo, embora manter a redundância pode ser vantajoso pois ajuda a combater o ruído.

Obs.: devemos levar em consideração não só a capacidade do canal, como também a capacidade da audiência para não sobrecarregá-la.

*Claude Shannon também tornou possível a construção de computadores digitais ao substituir o sistema decimal pelo sistema binário.