O que é informação



Baixar 39.32 Kb.
Encontro06.04.2019
Tamanho39.32 Kb.

O que é informação


Vivemos na era da informação. Há informação sobre previsão do tempo, esportes, diversões, finanças...

Informação significa fatos: é o tipo de coisa presente em livros, que pode ser expressa em palavras ou imagens. A informação pode portanto vir em várias formas: verbal, visual, por ondas...



No mundo dos computadores, a definição atual é dada por Claude Shannon (1916-2001): a informação está presente sempre que um sinal é transmitido de um lugar para outro.




Desde os primórdios, as formas de vida vêm aperfeiçoando sua capacidade de processamento da informação. Com a evolução, surgiram as palavras e as regras para combiná-las: as leis da gramática e da lógica.

Os números e o ábaco




Os números são um tipo especial de palavra, com regras próprias. Pode-se representá-los nos dedos e originalmente as contas (operações com números) eram feitas nos dedos. Dessa forma, podemos dizer que no início dos tempos as operações também eram "digitais"!

A escrita nasceu através dos sumérios, que inventaram um modo de representar a linguagem através de desenhos. Essa idéia difundiu-se entre as várias culturas, cada uma adquirindo seu modo próprio de representar a linguagem. Na região do Mediterrâneo surgiram o alfabeto e o ábaco. Esse último era usado para fazer contas.



O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa de bronze cheia de sulcos. Isso gerou alguns termos matemáticos: em latim "Calx" significa mármore, assim "Calculus" era uma bolinha do ábaco, e fazer calculos aritméticos era "Calculare". Em suma, os tempos antigos eram realmente a era dos calculadores, e embora os povos antigos dispusessem de meios para escrever números, os cálculos eram raramente escritos.




Os hindus inventaram o zero escrito, e isso permitiu que eles efetuassem a aritmética decimal no papel. Aqui começa a chamada era do papel e lápis.









A matemática hindu foi difundida pelos árabes que a espalharam pelo Ocidente. Em 830, um estudioso persa, conhecido por Al-Khwarismi, escreveu o livro definitivo sobre o assunto. Mais especificamente, o livro tratava de álgebra.

Após ser usado repetidamente, o nome do matemático acabou se transformando em "algarismo", palavra que hoje denota os símbolos usados para representar números. Do mesmo radical vem a palavra "algoritmo", usada em computação.

A ciência e os cálculos


Isaac Newton (1643-1727) com sua Teoria Gravitacional coroou a era do papel e lápis. A sua teoria despertou grandes desafios matemáticos, entre eles o Problema dos Três Corpos - o Sol, a Terra e a Lua, cuja solução era incrivelmente difícil e enfadonha.




Com o tempo, um grande número de cientistas começou a pensar em fazer estes cálculos através de alguma máquina...



John Napier (1550-1617) inventou a "Tábua de Napier", que era similar a uma tabela de multiplicações. A tábua reduzia multiplicações e divisões a adições e subtrações. Usando esse princípio, em 1620 foram criadas as réguas de cálculo, usadas até 1970, antes das calculadoras de bolso.





Máquinas de calcular


Wilhelm Schickard (1592-1635) construiu a primeira máquina de verdade. Esta fazia multiplicação e divisão, mas foi perdida durante a Guerra dos Trinta Anos, sem que seu inventor pudesse defender sua primazia.



Blaise Pascal (1623-1662), filósofo e matemático francês, é conhecido como o inventor da primeira calculadora que fazia somas e subtrações.




A calculadora usava engrenagens que funcionavam de maneira similar a um odômetro. A máquina não fez muito sucesso, pois era cara e requeria prática de uso.









O filósofo e matemático alemão Gottfried Wilhelm Leibniz (1646-1716) aprimorou um bocado o projeto de Pascal e sonhava que um dia todo o raciocínio pudesse ser substituído pelo girar de uma alavanca. A máquina de Leibniz fazia multiplicações e divisões.



A revolução industrial




Em 1801, na França, durante a revolução industrial, Joseph Marie Jacquard (1752-1834) inventou um tear mecânico controlado por grandes cartões perfurados. Sua máquina era capaz de produzir tecidos com desenhos bonitos e intrincados. Foi tamanho o sucesso que Jacquard foi quase morto quando levou o tear para Lyons: as pessoas tinham medo que o tear lhes fizesse perder o emprego. Em 7 anos, já haviam 11 mil teares desse tipo operando na França.



Babbage e Ada


O brilhante matemático inglês Charles Babbage (1792-1871) é conhecido como o "Pai do Computador". Babbage projetou o chamado "Calculador Analítico", muito próximo da concepção de um computador atual.



O projeto, totalmente mecânico, era composto de uma memória, um engenho central, engrenagens e alavancas usadas para a transferência de dados da memória para o engenho central e dispositivos para entrada e saída de dados. O calculador utilizaria cartões perfurados e seria automático.
 
Por algum tempo, o governo britânico financiou Babbage para construir a sua invenção.


Ada Augusta (1815-1852), Lady Lovelace, filha do poeta Lord Byron, era matemática amadora entusiasta. Ada tornou-se a primeira programadora, escrevendo séries de instruções para o engenho analítico. Ada inventou o conceito de subrotina: uma seqüência de instruções que pode ser usada várias vezes em diferentes contextos. Ela descobriu o valor das repetições - os laços (loops): deveria haver uma instrução que retornasse a leitora de cartões a um cartão específico, de modo que a seqüência pudesse ter sua execução repetida. Ela sonhava com o desvio condicional: a leitora de cartões desviaria para outro cartão "se" alguma condição fosse satisfeita.



Infelizmente Babbage teve dificuldades com a tecnologia da época, que era inadequada para se construir componentes mecânicos com a precisão necessária. Com a suspensão do financiamento por parte do governo inglês, Babbage não pode concluir o seu projeto e o calculador analítico nunca foi construído.

A lógica booleana


As máquinas do século XIX usavam base 10.



O matemático inglês George Boole (1815-1864) publicou em 1854 os princípios da lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e falso).

A dificuldade de implementar um dígito decimal (um número inteiro entre 0 e 9) em componentes elétricos determinaram o uso da base 2 em computadores. A lógica booleana foi usada na implementação dos circuitos elétricos internos a partir do século XX.

Hollerith e sua máquina de perfurar cartões




Por volta de 1890, um outro nome entrou na história do computador: Dr. Herman Hollerith (1860-1929), responsável por uma grande mudança na maneira de se processar os dados dos censos da época.




Os dados do censo de 1880, manualmente processados, levaram 7 anos e meio para serem compilados. Os do censo de 1890 foram processados em 2 anos e meio, com a ajuda de uma máquina de perfurar cartões e máquinas de tabular e ordenar, criadas por Hollerith e sua equipe.
 
 

As informações sobre os indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. Nas máquinas de tabular, um pino passava pelo furo e chegava a uma jarra de mercúrio, fechando um circuito elétrico e causando um incremento de 1 em um contador mecânico.


 
 

Mais tarde, Hollerith fundou uma companhia para produzir máquinas de tabulação . Anos depois, em 1924, essa companhia veio a se chamar IBM.







O primeiro computador




O primeiro computador eletromecânico, o chamado Z-1, usava relês e foi construído pelo alemão Konrad Zuse (1910-1995) em 1936. Zuze tentou vendê-lo ao governo para uso militar, mas foi subestimado pelos nazistas, que não se interessaram pela máquina.

 
 




A guerra e os computadores


Com a II Guerra Mundial, as pesquisas aumentaram nessa área. Nos Estados Unidos, a Marinha, em conjunto com a Universidade de Harvard e a IBM, construiu em 1944 o Mark I, um gigante eletromagnético. Em um certo sentido, essa máquina era a realização do projeto de Babbage.
 

Mark I ocupava 120 m3, tinha milhares de relês e fazia um barulho infernal. Uma multiplicação de números de 10 dígitos levava 3 segundos para ser efetuada.



Em segredo, o exército americano também desenvolvia seu computador. Esse usava apenas válvulas e tinha por objetivo calcular as trajetórias de mísseis com maior precisão.





Os engenheiros John Presper Eckert (1919-1995) e John Mauchly (1907-1980) projetaram o ENIAC: Eletronic Numeric Integrator And Calculator. Com 18.000 válvulas, o ENIAC conseguia fazer 500 multiplicações por segundo, porém só ficou pronto em 1946, vários meses após o final da guerra.



Von Neumann


O matemático húngaro John von Neumann (1903-1957) formalizou o projeto lógico de um computador.




Em sua proposta, von Neumann sugeriu que as instruções fossem armazenadas na memória do computador. Até então elas eram lidas de cartões perfurados e executadas, uma a uma. Armazená-las na memória, para então executá-las, tornaria o computador mais rápido, já que, no momento da execução, as instruções seriam obtidas com rapidez eletrônica.

A maioria dos computadores de hoje em dia segue ainda o modelo proposto por von Neumann.

Esse modelo define um computador seqüencial digital em que o processamento das informações é feito passo a passo, caracterizando um comportamento determinístico (ou seja, os mesmos dados de entrada produzem sempre a mesma resposta).

Transistores e circuitos integrados


Em 1947, um grupo de Standford inventou o transistor. Usando semicondutores, os transistores poderiam substituir as válvulas, sendo menores, mais rápidos e mais duradouros, além de não esquentarem tanto nem consumirem tanta energia. Surgiram assim os primeiros computadores transistorizados.



Nos anos 60, sob a influência do programa espacial americano, o desenvolvimento da microeletrônica levou a construção de circuitos transistorizados integrados em uma única pastilha de silício (chip) de dimensões reduzidas. Dezenas de milhares de transistores são integrados em um chip de alguns milímetros quadrados, dando origem aos circuitos integrados microminiaturizados. Isso possibilitou o surgimento de minicomputadores: computadores poderosos do tamanho de uma escrivaninha.

Em 1970, a Intel, empresa norte-americana, produziu o primeiro microprocessador. Um microprocessador é um circuito integrado do tipo LSI (large scale integration) que contém todo circuito lógico de uma unidade central de processamento em um chip do tamanho de uma unha. Os microprocessadores foram usados na construção de mini e microcomputadores.

Os avanços nessa direção prosseguem até hoje, com os circuitos VLSI (very large scale integration) e os circuitos ULSI (ultra large scale integration).

Também nos anos 70 surgiram grandes computadores, conhecidos como mainframes, imensamente poderosos. Hoje em dia, temos os chamados supercomputadores, como o Deep Blue, com velocidade superior a 500 MIPS (milhões de instruções por segundo).


Gerações de computadores


A arquitetura de um computador depende do seu projeto lógico, enquanto que a sua implementação depende da tecnologia disponível.

As três primeiras gerações de computadores refletiam a evolução dos componentes básicos do computador (hardware) e um aprimoramento dos programas (software) existentes.

Os computadores de primeira geração (1945-1959) usavam válvulas eletrônicas, quilômetros de fios, eram lentos, enormes e esquentavam muito.

A segunda geração (1959-1964) substituiu as válvulas eletrônicas por transistores e os fios de ligação por circuitos impressos. Isso tornou os computadores mais rápidos, menores e de custo mais baixo.

A terceira geração de computadores (1964-1970) foi construída com circuitos integrados, proporcionando maior compactação, redução dos custos e velocidade de processamento da ordem de microsegundos. Tem início a utilização de avançados sistemas operacionais.

A quarta geração, de 1970 até hoje, é caracterizada por um aperfeiçoamento da tecnologia já existente, proporcionando uma otimização da máquina para os problemas do usuário, maior grau de miniaturização, confiabilidade e velocidade maior, já da ordem de nanosegundos (bilionésima parte do segundo).



Parte II

Modelo de von Neumann


O modelo lógico de computador proposto por von Neumann pode ser descrito pela seguinte figura.

Unidade de controle


A unidade de controle controla o funcionamento da unidade lógica e aritmética e da memória. Além disso, ela distribui e organiza tarefas, transfere informações da entrada para a memória e da memória para a saída.

Memória


A memória é o dispositivo de armazenamento de informação do computador. Nela são armazenados tanto as instruções de um programa quanto os dados necessários para a sua execução.

A memória é dividida em espaços com endereços.


Unidades de entrada e saída


A unidade de entrada traduz informação (por exemplo, letras, números, imagens, marcas magnéticas) de uma variedade de dispositivos de entrada em impulsos elétricos que a CPU entenda.

A unidade de saída traduz os dados processados, enviados pela CPU em forma de impulsos elétricos, em palavras ou números, que são impressos por impressoras ou mostrados em monitores de vídeo.


Bibliografia:


Gonick, Larry, Introdução Ilustrada a Computação - com muito humor. Trad: Votre, V.P. e Barbieri, E.L. Ed. Harper & Row do Brasil Ltda. S. Paulo, 1984

Links:
The Virtual Museum of Computing
The MacTutor History of  Mathematics archive
A Short History of the Computer




©aneste.org 2017
enviar mensagem

    Página principal