Apesar disso, tinha duas inovações que mais tarde foram decisivas para a invenção dos computadores eletrônicos digitais : usava componentes eletrônicos e tinha certa capacidade de programação ( era capaz de resolver qualquer equação diferencial dada desde que suas componentes fossem reconfiguradas em função dessa ).
Nessa época, Shannon trabalhava como assistente de Bush e esse sugeriu-lhe que tentasse fazer um estudo matemático procurando descobrir o princípio que possibilitava o funcionamento da máquina construída um tanto quanto empiricamente.
Shannon dedicando-se ao problema, descobriu que os circuítos baseados em relays tinham seus estados de ON ou OFF ( ie, de ligado e desligado ) regidos pelas leis da Algebra de Boole . Mais do que isso, fazendo as associações:
ON - verdadeiro - 1
OFF - falso - 0
foi capaz de mostrar como construir circuítos baseados em relays e capazes de realizar cada uma das quatro operações aritméticas
Hoje, em plena Era da Informática, poucas pessoas são capazes de se dar conta de quanto enraizado estava o sistema de numeração decimal na mente dos engenheiros da época. Shannon, além de provar a possibilidade de se construir um computador totalmente eletrônico, foi o primeiro a atinar que os respectivos circuítos ficavam muito mais simples ( e mais baratos ) com o abandono do sistema decimal em favor do sistema binário.
Após a Segunda Guerra começaram a se multiplicar as tecnologias de transferência de informação. Contudo, não havia uma teoria que fosse capaz de quantificar a quantidade de informação que precisava ser transportada. Por exemplo, os engenheiros de então achavam que seria apenas uma questão de progresso tecnológico se conseguir transmitir mensagens telegráficas com maior velocidade do que se podia fazer na época. Shannon ( em 1948 ) criou uma teoria, hoje fundamental no trabalho cotidiano em Engenharia de Comunicações e chamada Teoria da Informação, que mostrou que cada canal de comunicações ( seja ele um fio telegráfico, fio telefônico, cabo axial ou etc ) tem uma velocidade limite característica.
Por exemplo, cada linha telefônica permite transmitir dados até uma certa velocidade de transmissão. Se precisarmos usar uma velocidade maior teremos de usar um canal de maior velocidade limite, por exemplo um cabo de fibras ópticas. Se insistirmos usar a linha telefônica em velocidades maiores do que seu limite teremos uma transmissão cada vez mais poluída por erros. Hoje, esse fenômeno é até facilmente constatável por qualquer um que use seu microcomputador e modem para fins de comunicação.
A Teoria de Informação que Shannon construiu, contudo, transcende em muito as aplicações em comunicações. Shannon mostrou que aos elementos básicos do trabalho científico, massa e energia, precisamos acrescentar um terceiro: a informação.
Mais do que isso, usando a Teoria das Probabilidades, Shannon mostrou como medir a quantidade de informação. Sempre dando preferência ao sistema de numeração binário, introduziu a unidade de medida de informação: o bit : binary digit.
Dizemos que recebemos um bit de informação quando ficamos sabendo qual, dentre duas alternativas equiprováveis, a que efetivamente ocorreu.
Por exemplo: recebemos um bit de informação quando soubermos qual o resultado do lance de uma moeda, não viciada.
No instante que os cientistas passaram a ter condições de medir não apenas massa e energia mas também a informação passaram a investigar uma gama enorme de novos fenômenos nas ciências biológicas, sociais, etc. Os engenheiros puderam desenvolver uma grande quantidade de novas tecnologias de comunicações.
Embora sua teoria seja bastante técnica, vejamos um exemplo da utilidade que tem tal unidade de informação. Voltemos ao problema que motivou os estudos de Shannon: o problema da capacidade de comunicação de um canal transmissor.
A solução do problema é resumida numa fórmula, hoje básica da Teoria da Informação, a chamada fórmula de Shannon:
C = B *log [(S+N)/N]
ela dá a velocidade máxima Cmax ( em bits por segundo ) com que sinais de potência S watts podem passar por um canal de comunicação, o qual deixa passar sem distorção apenas os sinais de frequência até B hertz, e o qual produz ruídos de potência no máximo N watts ( e esses ruídos são do tipo usual, chamado ruído branco ).
Vejamos um exemplo numérico importante: o caso das linhas telefônicas analógicas, essas que comumente encontramos aqui no Brasil. Elas são construídas para passar voz humana, frequência de até 3 400 hertz. Consequentemente:
para uma relação S/N = 100 temos:
Cmax = 3400 log2 ( 101 ) = 22 600 bits/seg
para uma relação S/N = 1 000 temos:
Cmax = 3400 log2 ( 1001 ) = 33 900 bits/seg
Sobre Shannon...
Claude Elwood Shannon nasceu nos USA em 1916. Formou-se em Matemática e Engenharia Elétrica na Universidade de Michigan, e fez seu mestrado e doutorado no MIT. Trabalhou a maior parte de sua vida nos Laboratórios Bell e, após uma rapidíssima vida de professor, aposentou-se com cerca de 50 anos. Ainda é vivo e ativo intelectualmente ( poderíamos dizer que, principalmente, financeiramente uma vez que tem dedicado-se a desenvolver programas de análise do sistema financeiro de Wall Street e com os quais acabou formando um imenso capital ). Apesar de sua vida extremamente reclusa e estar afastado dos meios académicos é um dos mais famosos matemáticos vivos.
Nenhum comentário:
Postar um comentário