Mostrando postagens classificadas por relevância para a consulta eniac. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta eniac. Ordenar por data Mostrar todas as postagens

segunda-feira, 7 de dezembro de 2020

SOLUÇÃO DE PROBLEMAS... — PARTE V

NA CIÊNCIA, CADA CERTEZA TRAZ OUTRA DÚVIDA; NA FÉ, CADA DÚVIDA VIRA UMA CERTEZA.

Se Deus criou o homem à sua imagem e semelhança, certamente não incluiu “perfeição” na receita, visto que todo vivente não só tem “prazo de validade” como está sujeito a adoecer, se acidentar, enfim... E se pessoas são seres falíveis, suas criações não são perfeitas. 

Carros enguiçam, eletrodomésticos pifam, móveis se deterioram... Assim, um belo dia você liga seu PC e ele se recusa a funcionar.

PC é a sigla de “personal computer” (computador pessoal, numa tradução literal). Nos anos 1980, quando essas geringonças começaram a popularizar, os usuários chamavam-nas carinhosamente de “micro” (abreviação de “microcomputador”). 

Micro vem do grego μικρός, que significa pequeno. Também é o prefixo do Sistema Internacional de Unidades que denota um fator de 10−6 (um milionésimo).

O nome não deixa de fazer sentido, considerando que o ENIAC, construído por pesquisadores da Universidade da Pensilvânia em meados do século passado (ao custo de US$ 500 mil, valor que, atualizado, corresponde a US$ 6,7 milhões), era um monstrengo de 30 toneladas que ocupava uma área de 180 m² e integrava 70 mil resistores e 18 mil válvulas de vácuo, que queimavam à razão de uma a cada 2 minutos. Da primeira vez que foi ligado, esse portento causou um blackout de proporções épicas.

Embora não fosse capaz de realizar mais de 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 1990 já superava “com um pé nas costas” — e de sua memória interna ser suficiente apenas para manipular dados envolvidos na tarefa em execução — qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios —, em 10 anos de operação o ENIAC realizou mais contas do que os seres humanos fizeram desde o início dos tempos. 

Observação: Quando o ENIAC foi finalmente aposentado, já existiam mainframes dez vezes menores, mas com o dobro do seu poder de processamento e preço muito inferior.

O Altair 8800, lançado em meados dos anos 1970 e comercializado na forma de kit (ou seja, a montagem ficava a cargo do consumidor), é considerado o precursor do PC dos nossos dias. Inicialmente, era mais uma curiosidade do que algo realmente útil, mas isso mudou quando Bill Gates e Paul Allen criaram um interpretador BASIC pare ele. O programa, batizado de Microsoft-BASIC, não era exatamente um sistema operacional como os que eram usados nos mainframes de então, mas se tornou o precursor dos sistemas operacionais para computadores pessoais.

Muita gente considera o ábaco como o antepassado mais remoto dos computadores, quando na verdade ele foi o precursor das máquinas de calcular. Por outro lado, “computar” é sinônimo de “fazer cálculos”, daí o computador ser uma máquina de calcular. Mas uma máquina de calcular capaz de realizar uma quantidade absurda de operações por segundo.

Continua. 

terça-feira, 14 de setembro de 2021

WI-FI 5 GHz, REDE MÓVEL 5G E OUTROS BICHOS

QUANDO O MOLHO SAI MAIS CARO QUE O PEIXE É MELHOR PEDIR UM BIFE

Costuma-se dizer que o ábaco foi o precursor da máquina de calcular e, por extensão, do computador. Os primeiros computadores eletrônicos ocupavam andares inteiros, pesavam toneladas e custavam milhões de dólares, mas tinham menos poder de processamento que uma calculadora xing-ling de R$ 10.

O  ENIAC ― um dos primeiros mainframes, construído por cientistas da Universidade da Pensilvânia ― era um monstrengo de 18 mil válvulas e 30 toneladas, mas que conseguia, mal e parcamente, executar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 90 superaria com facilidade.

As válvulas da geringonça queimavam à razão de uma cada dois minutos, e sua memória interna era suficiente apenas para manipular os dados envolvidos na tarefa em execução; qualquer modificação exigia que os operadores — que também eram programadores — corressem de um lado para outro da sala, desligando e religando centenas de chaves e cabos. 

Para dissipar o calor gerado pelo funcionamento desse portento, gastavam-se quilowatts de energia suficientes para alimentar uma cidade de 5.000 habitantes. Fala-se inclusive que quando foi ligado pela primeira vez, o ENIAC causou um blackout que deixou às escuras uma parte considerável do estado americano da Pensilvânia.

Como os sistemas operacionais ainda não existiam, os operadores controlavam os computadores de então por meio de chaves, fios e luzes de aviso. Mais adiante, os batch systems (sistemas em lote) passaram a permitir que cada programa fosse escrito em cartões perfurados e carregado, juntamente com o respectivo compilador. Todavia, não havia padronização de arquitetura, de modo que cada máquina usava um sistema operacional específico. Pelo menos até o Unix mudar esse quadro, mas isso já é outra conversa.

O primeiro microcomputador foi o Altair 8800, lançado em meados dos anos 1970 e comercializado na forma de kit (a montagem ficava a cargo do consumidor). Era mais uma curiosidade do que algo realmente útil. Mas foi extremamente útil para Bill Gates e Paul Allen — que fundaram a Microsoft, em 1975, com o propósito de desenvolver e comercializar interpretadores em BASIC para a geringonça. E para e para a Apple, já que o interesse dos usuários pelo aparelho levou Steve Jobs, Steve Wozniak e Ronald Wayne a investir no segmento de computadores pessoais.

Lançado em 1977, o Apple II já contava com um Disk Operating System (ou DOS — acrônimo que integra o nome de diversos sistemas operacionais, como o Free DOS, o PTS-DOS, o DR-DOS etc.). Como o aparelho vinha montado, trazia um teclado integrado e tinha a capacidade de reproduzir gráficos coloridos e sons, muitos o consideram o “primeiro computador pessoal moderno”.

Comparar os microcomputadores dos anos 1980 com os modelos autuais seria como contrapor um jurássico Ford T a um Mustang GT 500. A título de curiosidade, no pool de sistemas usado pela NASA na missão Apollo 11 que levou o homem à Lua em 1969 —, a velocidade (frequência de operação) do processador era de 0,043 MHz e a quantidade de memória RAM, de míseros 64KB.

O sucesso dos desktops — termo que significa literalmente "em cima da mesa" — propiciou o surgimento dos laptops — aglutinação dos termos em inglês lap (colo) e top (em cima), significando "em cima do colo" —, que passaram a ser chamados mais adiante de “notebooks” — devido ao formato e às dimensões semelhantes às de um caderno universitário. 

A princípio, o termo laptop remetia a portáteis maiores, mais pesados e pródigos em recursos, mas essa diferenciação deixou de ser observada e a palavra caiu em desuso, embora alguns puristas prefiram-na ao termo notebook.

Continua no próximo capítulo.

quinta-feira, 17 de fevereiro de 2011

A evolução dos computadores...

Atendendo a uma sugestão apócrifa deixada no post do último dia 9, vou dedicar algumas linhas à evolução dos computadores, começando por definir “informática” como a ciência que visa ao tratamento da informação mediante o uso de equipamentos e métodos da área de processamento de dados – até porque processar dados é o que o computador faz ao arquivar, gerenciar e manipular informações.

Reza a lenda que tudo começou com o ábaco – geringonça criada há mais de 3.500 anos no antigo Egito –, cuja desenvoltura na execução de operações aritméticas seria superada somente no século XVII pela Pascalina, desenvolvida pelo matemático francês Blaise Pascal e aprimorada pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de multiplicar e dividir. Mas o “processamento de dados” só tomaria impulso dois séculos mais adiante, com o Tear de Jacquard – primeira máquina mecânica programável –, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir extensas tabelas científicas, que serviu de base para Herman Hollerith construir um tabulador estatístico com cartões perfurados. (Depois de diversas fusões e mudanças de nomes, a empresa de Hollerith viria a se tornar a International Business Machine, mais conhecida como IBM, mas isso já é outra história).
Lá pelos anos 30, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, ao mesmo tempo em que o alemão Konrad Zuze criava o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou potências como os EUA, Alemanha e Inglaterra a investir no desenvolvimento de computadores como o Mark 1, o Z3 e o Colossus. Aliás, foi com o apoio do exército norte-americano que pesquisadores da Universidade da Pensilvânia construíram o ENIAC – portento de 18 mil válvulas e 30 toneladas –, que produziu um enorme blecaute ao ser ligado, em 1946.

Observação: Apesar de consumir 160 kW/h, o ENIAC só conseguia fazer 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo – uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

Em 1947 surgiria o EDVAC – já com memória, processador e dispositivos de entrada e saída de dados –, seguido pelo UNIVAC – que utilizava fita magnética em vez de cartões perfurados –, mas foi o transistor que revolucionou a indústria dos computadores, notadamente a partir de 1954, quando seu custo de produção foi barateado pela utilização do silício como matéria prima.
No final dos anos 50, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e uma década depois a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360 (lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microprocessadores, e daí à criação de equipamentos de pequeno porte foi um passo: em poucos anos surgiria o ALTAIR 8800 (vendido sob a forma de kit), o PET 2001 (lançado em 1976 e tido como o primeiro microcomputador pessoal) e os Apple I e II (este último já com unidade de disco flexível).
O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de PERSONAL COMPUTER), cuja arquitetura aberta e a adoção do MS-DOS da Microsoft viriam a estabelecer um padrão de mercado.
De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse – tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte –, a Apple fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. E a despeito de a IBM pressionar a Microsoft no sentido de não atrasar o lançamento de sua interface gráfica para rodar em DOS, a Apple já estava anos-luz à frente quando o Windows 2.0 chegou ao mercado.
Muita água rolou por baixa da ponte desde então. Em vez de aperfeiçoar o PC de maneira a utilizar o novo processador 80386 da INTEL, a IBM preferiu lançar o PS/2, com arquitetura fechada e proprietária. Mas a Compaq – que já vinha ameaçando destronar a rival – convenceu os fabricantes a continuarem utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas continuassem buscando desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já um sistema operacional autônomo), a estrela de Bill Gates brilhou mais forte, e o lançamento do Win 98 sacramentou a Microsoft como a “Gigante do Software”.
O resto é história recente: a arquitetura aberta se tornou padrão de mercado; o Windows se firmou como o SO mais utilizado em todo o mundo (a despeito da evolução das distribuições LINUX e dos fãs da Apple/Macintosh); a evolução tecnológica vem favorecendo o surgimento de dispositivos de hardware cada vez mais poderosos – e propiciando a criação de softwares cada vez mais exigentes –; a INTEL e a AMD continuam disputando “a tapa” a preferência dos usuários pelos seus processadores (agora com 2, 3, 4 ou mais núcleos); memórias SDRAM de 64/128 MB cederam lugar para 2 ou mais GB DDR2 ou DDR3; placas gráficas de última geração permitem jogar games radicais, assistir a filmes em alta definição e com efeitos 3D, e por aí vai. 
Tenham todos um ótimo dia.

terça-feira, 21 de maio de 2019

COMPUTADOR, SMARTPHONE, WINDOWS E UM POUCO DE HISTÓRIA


MOSTRE-ME SEU MURO DE QUATRO METROS E EU LHE MOSTRAREI MINHA ESCADA DE CINCO.

O mundo evoluiu um bocado desde a pré-história, mas, do ponto de vista da tecnologia, os últimos 200 anos foram determinantes. Basta lembrar que os primeiros computadores surgiram somente em meados do século passado, e a computação pessoal, que começou a se popularizar nos anos 1990, foi de vento em popa depois que o visionário Steve Jobs, ao lançar o iPhone, estimulou o desenvolvimento de "computadores de mão" com cada vez mais recursos e funções, que em poucos anos se tornaram, senão um substituto, um complemento dos desktops e notebooks.

Detalhar essa evolução foge às possibilidades desta postagem, sem mencionar que a extensão do texto tornaria a leitura cansativa para os gatos pingados que acessam este humilde Blog. Portanto, vou trocar tudo em miúdos, começando por lembrar que o ábaco, criado no Egito dos faraós, é considerado o pai do computador, e o UNIX, desenvolvido em meados do século passado, o pai de todos os sistemas operacionais.

Muita areia escoou pela ampulheta do tempo desde o surgimento da jurássica moldura com bastões paralelos com contas deslizantes (cuja criação muitos atribuem aos chineses). A primeira calculadora mecânica de que se tem notícia foi idealizada pelo matemático Blaise Pascal, no século XVII, e aprimorada mais adiante, pelo alemão Gottfried Leibniz, com a capacidade de multiplicar e dividir, e tempos depois o Tear de Jacquard serviria de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir tabelas científicas, que seria o precursor do tabulador estatístico de Herman Hollerith (cuja empresa se tornaria a gigante IBM).

Em meados do século passado, pesquisadores da Universidade da Pensilvânia construíram o primeiro computador digital eletrônico uma monstruosidade de 18 mil válvulas e 30 toneladas que produziu um enorme blecaute ao ser ligado pela primeira vez. Batizado de ENIAC, o portento era capaz de realizar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 90 superaria com facilidade. Suas válvulas queimavam a razão de uma cada dois minutos, e sua memória interna era suficiente apenas para manipular os dados envolvidos na tarefa em execução; qualquer modificação exigia que os operadores, que também eram programadores, corressem de um lado para outro da sala, desligando e religando centenas de chaves e cabos.

Acomodar os imensos mainframes dos anos 1950/60 exigia o espaço de salas ou andares inteiros. Como os sistemas operacionais ainda não existiam, os operadores controlavam esses monstrengos por meio de chaves, fios e luzes de aviso. Mais adiante, os batch systems (sistemas em lote) já permitiam que cada programa fosse escrito em cartões perfurados e carregado, juntamente com o respectivo compilador, mas não havia padronização de arquitetura e cada máquina usava um sistema operacional específico. Pelo menos até o Unix mudar esse quadro, como veremos ao longo desta sequência.

O primeiro sistema operacional realmente funcional foi criado pela General Motors para controlar o IBM 704. Com o tempo, diversas empresas desenvolveram sistemas para seus mainframes, e algumas se especializaram em produzi-los para terceiros. O mais famoso foi EXEC, escrito para operar o UNIVAC — computador que fez muito sucesso entre os anos 50 e 60, principalmente por ser pequeno e barato (para os padrões da época, já que o troço era do tamanho de um guarda-roupas), o que propiciou sua adoção por universidades e pequenas empresas.

Observação: As funções do sistema operacional são, basicamente, servir de “ponte” entre o hardware e o software, gerenciar os programas, definir os recursos destinados a cada processo e criar uma interface amigável com o usuário. É ele quem “reconhece” os componentes de hardware, quem gerencia os processos, os arquivos, a memória, os periféricos, quem decide quais programas em execução devem receber a atenção do processador, etc., e está presente não só nos PCs e assemelhados, mas em praticamente tudo que tenha um microchip e rode aplicativos, de automóveis a televisores, de consoles de videogames a relógios digitais. Graças à internet das coisas (IoT), o Linux marca presença em lâmpadas, geladeiras, smartphones e até rifles do exército norte-americano.

O primeiro microcomputador foi o Altair 8800, lançado em meados dos anos 1970 e comercializado na forma de kit (ou seja, a montagem ficava a cargo do consumidor). Era mais uma curiosidade do que algo realmente útil, ao menos até que Bill Gates e Paul Allen criarem para ele um “interpretador” escrito na linguagem BASIC e batizado de Microsoft-BASIC, que não era um SO como os usados nos mainframes de então, mas foi o precursor dos sistemas operacionais para microcomputadores. O MIT, a General Eletric e a AT&T criaram uma força tarefa para desenvolver o MULTICS, mas abandonou o projeto após uma década de trabalho. Em 1969, Ken Thompson, ex-integrante da equipe, criou o UNICS — uma versão menos ambiciosa escrita em Assembly, que foi posteriormente reescrita em C pelo próprio Thompson e por Dennis Ritchie (criador da linguagem C) e rebatizada como UNIX. Seu kernel (núcleo) logo passou a servir de base para outros sistemas operacionais, dentre os quais o BSD, o POSIX, o MINIX, o FreeBSD e o Solaris, para ficar nos mais conhecidos.

O sucesso do Altair levou a Apple a investir no segmento de computadores pessoais. O Apple II, lançado em 1977, já contava com um Disk Operating System (ou DOS — acrônimo que integra o nome de diversos sistemas operacionais, como o Free DOS, o PTS-DOS, o DR-DOS etc.). Como a máquina vinha montada, trazia um teclado integrado e tinha a capacidade de reproduzir gráficos coloridos e sons, muitos a consideram o “primeiro computador pessoal moderno”.

Observação: Steve Jobs foi pioneiro na adoção da interface gráfica, com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse — tecnologia de que a XEROX já dispunha havia algum tempo, mas nunca explorou devidamente porque só tinha interesse em computadores de grande porte. Aliás, quando Microsoft lançou o Windows, que inicialmente era uma interface gráfica que rodava no MS-DOS, a Apple já estava anos-luz à sua frente, a despeito de a arquitetura fechada, o software proprietário e o alto custo de produtos da marca da Maçã limitarem sua participação no mercado a um segmento de nicho.

De olho no sucesso da Apple, a IBM, então líder no âmbito dos mainframes, resolveu lançar o IBM-PC, com arquitetura aberta e sistema operacional desenvolvido pela Microsoft (que se tornariam padrão de mercado). Ressalte-se que, naquela época, a hoje Gigante do Software jamais havia escrito um sistema operacional, mas Bill Gates adquiriu de Tim Paterson (por US$ 50 mil) o QDOS, adaptou-o ao hardware da IBM e rebatizou-o como MS-DOS — e assim começou sua escalada ao topo do ranking dos homens mais ricos do planeta (hoje ele está em segundo lugar, com um patrimônio pessoal estimado pela Forbes em quase 100 bilhões de dólares).

O resto fica para a próxima postagem.

segunda-feira, 5 de novembro de 2012

A SUPREMACIA WINDOWS


Depois alguns leitores perguntam por que eu não edito o Blog nos finais de semanas e feriados... Diante da escassez de comentários e visualizações de páginas que mal se aproximam das de uma quarta-feira de bom movimento, publicar novas postagens é gastar boa vela com mau defunto, se me permitem usar uma expressão adequada ao feriado de finados. Enfim, passemos ao que interessa:

Reza a história que o computador nasceu do ábaco – criado há milhares de anos no antigo Egito – cuja desenvoltura na execução de operações aritméticas seria superada somente pela Pascalina, no século XVII. Já o “processamento de dados” só viria a tomar impulso dois séculos depois, com o Tear de Jacquard – primeira máquina mecânica programável –, que serviu de base para Herman Hollerith construir um tabulador estatístico com cartões perfurados.
Mais adiante surgiram o Analisador Diferencial de Claude Shannon, o Z1 de Konrad Zuze – tido e havido como o primeiro computador binário digital –, o Mark 1, o Z3, o Colossus, o ENIAC – portento de 18 mil válvulas e 30 toneladas, que produziu um enorme blecaute ao ser ligado, em 1946. Em seguida, vieram o EDVAC – já com memória, processador e dispositivos de entrada e saída de dados – e o UNIVAC – que utilizava fita magnética em vez de cartões perfurados –, mas foi o transistor que revolucionou a indústria dos computadores, notadamente a partir de 1954, quando seu custo de produção foi barateado pela utilização do silício como matéria prima. 
No final dos anos 1950, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094), mas foi a TEXAS INSTRUMENTS que deu à luz os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360 (lançado em 1964).
No início dos anos 1970, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microprocessadores, e daí à criação de equipamentos de pequeno porte foi um passo. Em poucos anos, surgiriam o ALTAIR 8800 (vendido sob a forma de kit), o PET 2001 (considerado o primeiro microcomputador pessoal) e os Apple I e II.
O sucesso estrondoso da Apple despertou o interesse da IBM nos microcomputadores, levando-a a lançar seu PERSONAL COMPUTER, cuja arquitetura aberta e a adoção do MS-DOS estabeleceram um padrão de mercado. Em resposta, a Empresa da Maçã incorporou a interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse – tecnologia de que a XEROX dispunha desde a década de 70 – num microcomputador revolucionário, que estava anos-luz à frente da IBM/Microsoft quando o Windows 2.0 chegou ao mercado.
Muita água rolou por baixa da ponte desde então. Em vez de aperfeiçoar o PC de maneira a utilizar o novo processador 80386 da INTEL, a IBM preferiu lançar o PS/2, com arquitetura fechada e proprietária. Mas a Compaq – que já vinha ameaçando destronar a rival – convenceu os fabricantes a continuar utilizando a arquitetura aberta, e o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas continuassem buscando desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já um sistema operacional autônomo), a estrela de Bill Gates brilhou mais forte, e o lançamento do Win 98 consagrou sua empresa como a “Gigante do Software”.
O resto é história recente: a arquitetura aberta se tornou padrão de mercado, o Windows se firmou como o SO mais utilizado em todo o mundo: hoje, de acordo com a NETMARKETSHARE, as edições XP, Vista e Seven, somadas, açambarcam 92% do mercado de sistema operacionais (veja mais detalhes no gráfico ao lado).
Segundo a Microsoft, a demanda pelo Eight já superou a verificada na época de lançamento do seu predecessor, e tudo indica que seu futuro seja alvissareiro, considerando que, desde seu lançamento, em 2009, o Seven já vendeu quase 700 milhões de cópias. É mole ou quer mais?
Um ótimo dia a todos.

quarta-feira, 28 de junho de 2017

VOCÊ CONHECE SEU PC? ― Parte II

POBRE, QUANDO METE A MÃO NO BOLSO, SÓ TIRA OS CINCO DEDOS.

Foram milhares de anos até o computador evoluir do ÁBACO ― criado há mais de 3.000 anos no antigo Egito ― para a PASCALINA ― geringonça desenvolvida no século XVII pelo matemático francês Blaise Pascal e aprimorada mais adiante pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de somar e dividir. Mas o “processamento de dados” só viria com o Tear de Jacquard ― primeira máquina programável ―, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir tabelas científicas, precursor do tabulador estatístico de Herman Hollerith, cuja empresa viria se tornar a gigante IBM.

Nos anos 1930, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, e alemão Konrad Zuze criou o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou os EUA, a Alemanha e a Inglaterra a investir no desenvolvimento do Mark 1, do Z3 e do Colossus, e, mais adiante, com o apoio do exército norte-americano, pesquisadores da Universidade da Pensilvânia construírem o ENIAC ― um monstrengo de 18 mil válvulas e 30 toneladas que produziu um enorme blecaute ao ser ligado, em 1946, e era capaz somente de realizar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo ― uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

EDVAC, criado no final dos anos 1940, já dispunha de memória, processador e dispositivos de entrada e saída de dados, e seu sucessor, o UNIVAC, usava fita magnética em vez de cartões perfurados, mas foi o transistor que revolucionou a indústria dos computadores, quando seu custo de produção foi barateado pelo uso do silício como matéria prima. No final dos anos 1950, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e mais adiante a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360, lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microchips, e daí à criação de equipamentos de pequeno porte foi um passo. Vieram então o ALTAIR 8800, vendido sob a forma de kit, o PET 2001, lançado em 1976 e tido como o primeiro microcomputador pessoal, e os Apple I e II (este último já com unidade de disco flexível).

O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de “personal computer”), cuja arquitetura aberta e a adoção do MS-DOS, da Microsoft, se tornaram um padrão de mercado. De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse ― tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte ―, a empresa de Steve Jobs fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. Aliás, quando Microsoft lançou o Windows ― que inicialmente era uma interface gráfica que rodava no DOS ― a Apple já estava anos-luz à frente.

Para encurtar a história, a IBM preferiu lançar seu PS/2, de arquitetura fechada e proprietária, a utilizar então revolucionário processador 80386 da INTEL, mas Compaq convenceu os fabricantes a continuar utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas buscassem desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já não mais uma simples interface gráfica, mas um sistema operacional autônomo, ou quase isso), a estrela de Bill Gates brilhou, e o festejado Win98 sacramentou a Microsoft como a “Gigante do Software”.

O resto é história recente: a arquitetura aberta se tornou padrão de mercado, o Windows se firmou como sistema operacional em todo o mundo (a despeito da evolução das distribuições LINUX e da preferência de uma seleta confraria de nerds pelos produtos da Apple) e a evolução tecnológica favoreceu o surgimento de dispositivos de hardware cada vez mais poderosos, propiciando a criação de softwares cada vez mais exigentes.

Enfim, foram necessários milênios para passarmos do ábaco aos primeiros mainframes, mas poucas décadas, a partir de então, para que "pessoas comuns" tivessem acesso aos assim chamados computadores pessoais ― ou microcomputadores ―, que até não muito tempo atrás custavam caríssimo e não passavam de meros substitutos da máquina de escrever, calcular, e, por que não dizer, do baralho de cartas e dos então incipientes consoles de videogame. Em pouco mais de três décadas, a evolução tecnológica permitiu que os desktops e laptops das primeiras safras diminuíssem de tamanho e de preço, crescessem astronomicamente em poder de processamento, recursos e funções, e se transformassem nos smartphones e tablets atuais, sem os quais, perguntamo-nos, como conseguimos viver durante tanto tempo.

Continuamos no próximo capítulo. Até lá.

SOBRE MICHEL TEMER, O PRIMEIRO PRESIDENTE DENUNCIADO NO EXERCÍCIO DO CARGO EM TODA A HISTÓRIA DO BRASIL.

Michel Temer já foi de tudo um pouco nos últimos tempos. De deputado federal a vice na chapa da anta vermelha; de presidente do PMDB (por quinze anos) a presidente da Banânia; de depositário da nossa esperança de tornar a ver o país crescer a “chefe da quadrilha mais perigosa do Brasil”; e de tudo isso a primeiro presidente do Brasil a ser denunciado no exercício do cargo.

Joesley Batista, o megamoedor de carne que multiplicou seu patrimônio com o beneplácito da parelha de ex-presidentes petistas ― que sempre valorizaram meliantes como Eike Batista e o próprio Joesley (é curiosa a coincidência no sobrenome, mas acho que não passa disso) ―, promoveu Temer ao lugar que, por direito, pertence a Lula, e a este atribuiu “somente” a institucionalização da corrupção na política tupiniquim.

Há quem afirme que a promoção de Temer foi inoportuna e despropositada. Afinal, não foi ele quem sequestrou e depenou o Brasil durante 13 anos, ou roubou o BNDES e passou uma década enfiando bilhões de dólares na Friboi ― que acabou se tornando a gigante J&F, controladora da maior processadora de proteína animal do planeta. Tampouco foi ele quem torturou São José Dirceu para forçá-lo a reger na Petrobras o maior assalto da história do ocidente, recebeu uma cobertura tríplex no Guarujá da OAS de Leo Pinheiro e, ao ser pego com as calças na mão e manchas de batom na cueca, atribuiu a culpa à esposa Marisa, digo, Marcela).

Gozações à parte, as opiniões divergem quanto à delação de Joesley e companhia. Há quem ache que a contrapartida dada pelo MPF e avalizada por Fachin foi exagerada (a despeito da multa bilionária que os delatores terão de pagar, que representa a punição mais “dolorosa” para gente dessa catadura). Outros, como certo ministro do Supremo e presidente do TSE, reprovam o acordo por serem sistematicamente contrários à Lava-Jato e às delações premiadas, às prisões preventivas prolongadas (sem as quais a Lava-Jato nem existiria, ou, se existisse, ainda estaria engatinhando). Felizmente, 7 dos 11 ministros do STF já se votaram pela manutenção de Fachin na relatoria dos processos oriundos da delação da JBS e pela validade da delação propriamente dita (assunto que eu detalhei na semana passada).

O fato é que o peemedebista se apequena mais a cada dia, o que não ajuda em nada o país, como bem sabem os que acompanharam os estertores dos governos Sarney e Collor e de Dilma. Com novas denúncias e acusações surgindo regularmente, o presidente está acossado, fragilizado politicamente e, por que não dizer, mais preocupado com articulações políticas visando à sua defesa do que com a aprovação das tão necessárias reformas que se predispôs a capitanear.

Na última segunda-feira, Temer juntou ao seu invejável currículo a experiência inédita de ser denunciado por corrupção ainda no exercício do cargo (até hoje, nenhum presidente brasileiro havia sido agraciado com tal honraria, embora quase todos tenham feito por merecê-la). E novas denúncias virão em breve, até porque Janot resolveu não pôr todos os ovos na mesma cesta. Como a denúncia passa pela CCJ da Câmara e pelo plenário da casa antes de ser julgada no STF, o Planalto moverá mundos e fundos para barrar o processo, de modo que o fatiamento serve para a PGR ganhar tempo, visando à possibilidade de novos fatos mudarem os ventos no Congresso. A meu ver, bastaria que a voz das ruas voltasse a roncar como roncou no ano passado, durante o impeachment de Dilma, para que a sorte do presidente fosse selada, mas quem sou eu, primo?

Talvez seja mesmo melhor a gente ficar com diabo que já conhece. Nenhuma liderança expressiva surgiu no cenário até agora, e a perspectiva de Rodrigo Maia assumir o comando do País não é das mais alvissareiras. Demais disso, eleições diretas, neste momento, contrariam flagrantemente a legislação vigente, e interessariam apenas a Lula e ao PT, que se balizam na tese do "quanto pior melhor".  

O molusco indigesto continua encabeçando as pesquisas de intenção de voto, mesmo atolado em processos e prestes a receber sua primeira (de muitas) condenações (veja detalhes na postagem anterior). Mas não se pode perder de vista que isso se deve em grande parte ao fato de ele ser o mais conhecido entre os pesquisados, e que isso lhe assegura também o maior índice de rejeição. Enfim, muita água ainda vai rolar por debaixo da ponte até outubro do ano que vem. Se as previsões se confirmarem, Moro deve condenar o sacripanta dentro de mais alguns dias, e uma possível confirmação da sentença pelo TRF-4 jogará a esperada pá de cal nessa versão petista de conto do vigário.

Infelizmente, deixamos escapar a chance de abraçar o parlamentarismo no plebiscito de 1993 (graças à absoluta falta de esclarecimento do eleitorado tupiniquim), e agora só nos resta lidar com a quase impossibilidade de defenestrar um presidente da República, mesmo que ele já não tenha a menor serventia ou que esteja envolvido em práticas pouco republicanas (haja vista os traumatizantes impeachments de Collor e de Dilma). 

Estão em andamento algumas tentativas de tapar o sol com peneira, como a PEC do Senador Antonio Carlos Valadares (PSB/SE), aprovada no último dia 21 pela CCJ do Senado, que inclui na Constituição a possibilidade revogação do mandato do presidente, vinculada à assinatura de não menos que 10% dos eleitores que votaram no último pleito (colhidas em pelo menos 14 estados e não menos de 5% em cada um deles).

De acordo com o texto aprovado, a proposta será apreciada pela Câmara e pelo Senado, sucessiva e separadamente, e precisará do voto favorável da maioria absoluta dos membros de cada uma das Casas. Garantida a aprovação, será então convocado referendo popular para ratificar ou rejeitar a medida. O projeto prevê ainda que será vedada a proposta de revogação durante o primeiro e o último ano de governo e a apreciação de mais de uma proposta de revogação por mandato.

Por hoje é só, pessoal. Até a próxima.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

sexta-feira, 3 de junho de 2022

DO ÁBACO AO SMARTPHONE

EXISTEM TRÊS MANEIRAS DE FAZER AS COISAS: BOAS, RUINS E COMO EU FAÇO.

O ábaco surgiu há mais de 3 mil anos e é considerado o antepassado mais remoto do computador. O primeiro computador eletrônico de grande escala foi o ENIAC, com 30 toneladas e 18 mil válvulas (que precisavam ser substituídas à razão de uma a cada dois minutos). A geringonça realizava apenas 5 mil somas, ou 357 multiplicações, ou 38 divisões simultâneas por segundo (um desempenho impressionante para a época), mas seu armazenamento era suficiente apenas para manipular os dados envolvidos na tarefa em execução, de modo que qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.


Os primeiros computadores totalmente transistorizados foram os IBM 1401 e 7094, que surgiram entre o final dos anos 1950. Em 1964, a TEXAS INSTRUMENTS criou circuito integrado (composto por conjuntos de transistores, resistores e capacitores); na década seguinte, a INTEL agrupou vários circuitos integrados num único "microchip", propiciando a construção de equipamentos de pequeno porte, como o PET 2001 — lançado em 1976 e tido como o primeiro microcomputador pessoal — e os Apple I e II — este último já com unidade de disco flexível.

 

O Windows surgiu em 1985, inicialmente como uma interface gráfica baseada no MS-DOS. Dez anos depois, quando os PCs já eram relativamente populares, a Microsoft o transformou em sistema operacional autônomo — ou quase isso, já que o DOS continuou atuando nos bastidores até 2001, quando o WinXP (desenvolvido a partir do kernel do WinNT) cortou o cordão umbilical. 


Inicialmente, os desktops eram a regra e os laptopsum sonho de consumo de muitos, mas acessível a poucos, mas acabaram se tornando a opção primária dos usuários, já que podem substituir o desktop e ser usados em trânsito. Em 2007, Steve Jobs revolucionou o mercado da computação pessoal com o iPhone — que não foi o primeiro celular capaz de conectar a Internet, mas se tornou o divisor de águas entre os dumbphones de até então e os smartphones de a partir de então. Atualmente, mesmo num país terceiro-mundista como o nosso há dois dispositivos digitais por habitantequase 250 milhões de celulares ativos.  

 

Resumo da ópera: milhares de anos separam a invenção do ábaco do surgimento dos gigantescos mainframes, mas, a partir de então, bastaram algumas décadas por os computadores pessoais serem criados, encolherem de tamanho, diminuírem de preço, crescerem em poder de processamento, gama de recursos e funções e se tornarem ultraportáteis e indispensáveis. Mas nem tudo foram flores nesse jardim.


Continua...

quinta-feira, 7 de janeiro de 2021

VOCÊ SABIA? (CONTINUAÇÃO)

IMPORTUNA COISA É A FELICIDADE ALHEIA QUANDO SOMOS VÍTIMA DE ALGUM INFORTÚNIO.

Criado há mais de 5.000 anos, o ábaco é o antepassado mais remoto da calculadora e, por extensão, do PC, já que “computar” e “calcular” têm mais ou menos o mesmo significado.

Outro antecessor distante — mas não tão distante, pois remonta ao início dos anos 1.600 —, a ”régua de cálculo” é a precursora das calculadoras de bolso, embora atribua-se a Blaise Pascal a criação da primeira calculadora mecânica da história (em meados do século XVII). Mas a Pascalina executava apenas operações previamente programadas.

Em 1801, o costureiro Joseph Marie Jacquard construiu o Tear de Jacquard  uma traquitana realmente programável, que hoje é considerada o primeiro computador do mundo. 

Mais adiante, baseando-se no conceito de cartões perfurados usados por Jacquard, o estatístico americano Hermann Hollerith desenvolveu uma geringonça que acelerou o processo de computação de dados. Anos depois, ele fundou a Tabulation Machine Company, que se tornou a Internacional Business Machine (IBM para os íntimos e Big Blue para os mais íntimos) 

Observação: Em 1943, Thomas Watson, então presidente da IBM, revelou-se um péssimo profeta: “Eu acredito que haja mercado para talvez cinco computadores”.

A Segunda Guerra Mundial estimulou o desenvolvimento de computadores — inicialmente, gigantescos mainframes que ocupavam salas inteiras, pesavam toneladas, custavam milhões de dólares e tinham menos poder de processamento que um calculadora xing-ling atual. Depois do Mark I, do Colossus e de outras monstruosidades, o mundo conheceu o ENIAC, que entrou para a história da cibernética como primeiro computador digital eletrônico. Embora fosse mil vezes mais rápido que seu contemporâneo mais rápido, esse portento era capaz de realizar apenas 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 1990 já superava “com um pé nas costas”.

O Altair 8800, lançado em 1974, foi o precursor dos computadores pessoais e a razão de Bill Gates e Paul Allen fundarem a Microsoft. Em 1976, Steve Jobs e Steve Wozniak, sócios-fundadores da Apple, concluíram o projeto do Apple I, que entrou para a história como o primeiro computador para uso pessoal. 

Em entrevista ao jornal espanhol El Pais, Wozniak foi taxativo: “aquilo não era um computador, mas a readaptação de algo que eu tinha feito antes. Era uma espécie de IKEA [rede de lojas que vende móveis em kits] dos computadores: você ia comprando peças e tinha um monte de coisas que se encaixavam” (o Apple II, lançado um ano mais tarde, foi o primeiro microcomputador vendido em escala comercial).

No ano seguinte, Ken Olson, presidente e fundador da Digital Equipment Corp. vaticinou que não havia nenhuma razão para alguém querer um computador em casa”, e em 1981, Bill Gates teria dito que "ninguém nunca vai precisar mais do que 640 quilobytes de memória em seu computador pessoal" (Gates nega a autoria do disparate, mas o fato é que qualquer PC chinfrim, atualmente, integra pelo menos 4GB de RAM).

Em 1987, Gates anotou no prefácio ao Guia do Programador do OS/2 (sistema lançado em parceria com a IBM, do qual a Microsoft desistiu três anos depois): “acredito que o OS/2 está destinado a ser o sistema operacional mais importante de todos os tempos — e possivelmente o programa mais importante também”.

Em 1989, quando a Microsoft fez a transição para os sistemas operacionais de 16-bit, Mr. Gates vaticinou: Nós nunca vamos desenvolver um sistema operacional de 32 bits (menos de quatro anos depois o Windows NT 3.1, primeiro sistema de 32-bit da empresa, foi lançado no mercado). Em 2004, o gênio fez outra profecia furada: “Daqui a dois anos, o spam estará resolvido” (a realidade dos fatos dispensa comentários).

No livro " Business @ the speed of thought“ (Negócios na velocidade do pensamento), lançado na virada do milênio, o sócio-fundador da gigante do software cravou diversas previsões sobre o futuro da tecnologia e descreveu algumas delas de maneira incrivelmente acurada. 

Gates vaticinou, por exemplo, o surgimento dos serviços automatizados de comparação de preços — que permitiriam encontrar o produto mais barato sem que a necessidade de pesquisar vários sites e lojas — e a criação de dispositivos móveis que as pessoas levariam consigo a toda parte — e usariam para fechar negócios, independentemente de onde estivessem, além de manter-se conectadas como o escritório 24/7, checar notícias, voos agendados e acompanhar as informações sobre o mercado financeiro, entre outras possibilidades.

Continua...