Atendendo a uma sugestão apócrifa deixada no post do
último dia 9, vou dedicar algumas linhas à
evolução dos computadores, começando por definir “informática” como a ciência que visa ao tratamento da informação mediante o uso de equipamentos e métodos da área de processamento de dados – até porque processar dados é o que o computador faz ao arquivar, gerenciar e manipular informações.
Reza a lenda que tudo começou com o
ábaco – geringonça criada há mais de 3.500 anos no antigo Egito –, cuja desenvoltura na execução de operações aritméticas seria superada somente no século XVII pela
Pascalina, desenvolvida pelo matemático francês
Blaise Pascal e aprimorada pelo alemão
Gottfried Leibniz, que lhe adicionou a capacidade de multiplicar e dividir. Mas o “processamento de dados” só tomaria impulso dois séculos mais adiante, com o
Tear de Jacquard – primeira máquina mecânica programável –, que serviu de base para
Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir extensas tabelas científicas, que serviu de base para
Herman Hollerith construir um tabulador estatístico com cartões perfurados. (Depois de diversas fusões e mudanças de nomes, a empresa de Hollerith viria a se tornar a
International Business Machine, mais conhecida como
IBM, mas isso já é outra história).
Lá pelos anos 30,
Claude Shannon aperfeiçoou o
Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na
lógica binária, ao mesmo tempo em que o alemão
Konrad Zuze criava o
Z1 (primeiro computador binário digital). Com a deflagração da
Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou potências como os
EUA, Alemanha e
Inglaterra a investir no desenvolvimento de computadores como o
Mark 1, o
Z3 e o
Colossus. Aliás, foi com o apoio do exército norte-americano que pesquisadores da
Universidade da Pensilvânia construíram o
ENIAC – portento de 18 mil válvulas e 30 toneladas –, que produziu um enorme blecaute ao ser ligado, em 1946.
Observação: Apesar de consumir 160 kW/h, o ENIAC só conseguia fazer 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo – uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.
Em 1947 surgiria o
EDVAC – já com memória, processador e dispositivos de entrada e saída de dados –, seguido pelo
UNIVAC – que utilizava fita magnética em vez de cartões perfurados –, mas foi o
transistor que revolucionou a indústria dos computadores, notadamente a partir de 1954, quando seu custo de produção foi barateado pela utilização do silício como matéria prima.
No final dos anos 50, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e uma década depois a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360 (lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microprocessadores, e daí à criação de equipamentos de pequeno porte foi um passo: em poucos anos surgiria o ALTAIR 8800 (vendido sob a forma de kit), o PET 2001 (lançado em 1976 e tido como o primeiro microcomputador pessoal) e os Apple I e II (este último já com unidade de disco flexível).
O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de PERSONAL COMPUTER), cuja arquitetura aberta e a adoção do MS-DOS da Microsoft viriam a estabelecer um padrão de mercado.
De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse – tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte –, a Apple fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. E a despeito de a IBM pressionar a Microsoft no sentido de não atrasar o lançamento de sua interface gráfica para rodar em DOS, a Apple já estava anos-luz à frente quando o Windows 2.0 chegou ao mercado.
Muita água rolou por baixa da ponte desde então. Em vez de aperfeiçoar o PC de maneira a utilizar o novo processador 80386 da INTEL, a IBM preferiu lançar o PS/2, com arquitetura fechada e proprietária. Mas a Compaq – que já vinha ameaçando destronar a rival – convenceu os fabricantes a continuarem utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas continuassem buscando desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já um sistema operacional autônomo), a estrela de Bill Gates brilhou mais forte, e o lançamento do Win 98 sacramentou a Microsoft como a “Gigante do Software”.
O resto é história recente: a arquitetura aberta se tornou padrão de mercado; o Windows se firmou como o SO mais utilizado em todo o mundo (a despeito da evolução das distribuições LINUX e dos fãs da Apple/Macintosh); a evolução tecnológica vem favorecendo o surgimento de dispositivos de hardware cada vez mais poderosos – e propiciando a criação de softwares cada vez mais exigentes –; a INTEL e a AMD continuam disputando “a tapa” a preferência dos usuários pelos seus processadores (agora com 2, 3, 4 ou mais núcleos); memórias SDRAM de 64/128 MB cederam lugar para 2 ou mais GB DDR2 ou DDR3; placas gráficas de última geração permitem jogar games radicais, assistir a filmes em alta definição e com efeitos 3D, e por aí vai.
Tenham todos um ótimo dia.