Mostrando postagens classificadas por relevância para a consulta PONTE NORTE. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta PONTE NORTE. Ordenar por data Mostrar todas as postagens

segunda-feira, 31 de agosto de 2009

Sutilezas da Placa-Mãe

Dando seqüência à postagem da última quarta-feira e atendendo a sugestão deixada por um leitor na matéria do dia seguinte, vou dedicar mais algumas linhas à placa-mãe – também conhecida como “placa de sistema”, “placa de CPU” ou “motherboard” – cujas características e qualidade são fundamentais para que o computador ofereça bom desempenho, estabilidade e capacidade de expansão (upgrade). Convém salientar, por oportuno, que o nível desta abordagem será elementar, tanto para não tornar a leitura maçante e de difícil compreensão para leigos e iniciantes, quanto para não fugir aos propósitos e possibilidades deste Blog, que visa apenas a um “bate-papo informal e despretensioso” e não a ministrar um curso avançado de hardware à distância.

Passando ao que interessa, se o processador é o “cérebro”, a placa-mãe é o “coração” de um sistema computacional: além de resistores, capacitores e diversos circuitos de apoio, ela integra o CHIPSET, que provê funcionalidade ao computador e determina, dentre outras coisas, quais processadores poderão ser utilizados, o tipo e a quantidade máxima de memória suportada, as freqüências dos barramentos e a oferta de slots de expansão (que definem quais e quantos dispositivos podem ser agregados ao sistema).

Observação: O chipset costuma ser constituído por dois “módulos” interdependentes (“ponte-norte” e “ponte-sul”) que gerenciam a intercomunicação entre os diversos componentes do sistema, definem o “clock” (freqüência do sinal responsável pela transmissão dos dados entre o processador, as memórias e os demais dispositivos), controlam os barramentos (PCI, AGP, PCI-Express, etc.), as interfaces IDE/ATA e/ou SATA, as portas paralelas e seriais, as memórias RAM e cache, etc. – mas isso já é outra história e fica para outra vez.

Diante do exposto, fica fácil compreender a relevância da placa-mãe – alguns especialistas chegam a dizer que "um PC nada mais é do que uma placa de CPU dentro de uma caixa metálica e com alguns dispositivos ligados ao seu redor” – e a importância de se escolher um produto confiável, que garanta boa performance e estabilidade ao sistema como um todo.

Por ser constituída a partir de várias “camadas” prensadas e interligadas, a placa-mãe deve ser projetada e fabricada com tecnologias de ponta e ferramentais altamente sofisticados – qualquer erro, por menor que seja, pode comprometer o desempenho e a confiabilidade do computador. Pense nisso quando se sentir tentado a comprar um produto barato, de segunda linha ou origem “suspeita”, e lembre-se de que a aquisição de um computador de grife não dispensa a análise cuidadosa da placa que o equipa, ainda que as opções, nesse caso, sejam simplesmente aceitar ou rejeitar a configuração estabelecida pelo fabricante.
 
Amanhã a gente continua.

Abraços e até lá.

segunda-feira, 13 de junho de 2022

DO ÁBACO AO SMARTPHONE (SÉTIMA PARTE)

QUANDO PASSAR A SERVIR AO POVO, E NÃO APENAS AO INTERESSE DE ALGUMAS CLASSES, A POLÍTICA SERÁ A SALVAÇÃO DO MUNDO. 

 

Quando não há memória RAM suficiente, o processador desperdiça preciosos ciclos de clock esperando a memória virtual entregar os dados solicitados. Isso porque a memória virtual é baseada da memória de massa, e se até mesmo os modernos drives de memória sólida (SSD) são mais lentos que a já relativamente lenta memória RAM, que se dirá dos jurássico HDDs? (Mais detalhes sobre memórias nos posts dos dias 26 e 27 do mês passado.)

 

O computador é formado por dois subsistemas distintos, mas interdependentes: o hardware e o software. O hardware se subdivide basicamente em processador, memória e dispositivos de I/O (entrada e saída de dados). O processador é considerado o “cérebro” do computador, já que é responsável pelo acesso e utilização da memória e dos dispositivos de I/O. No que tange ao software, relembro apenas que sistemas operacionais, aplicativos e demais programas consistem em uma série de instruções que o processador executa ao realizar suas tarefas. 


Para ler um dado presente na RAM, a CPU o localiza pelo barramento de endereços, acessa-o pelo barramento de controle e o insere no barramento de dados, onde se dá a leitura propriamente dita. O clockexpresso em múltiplos do Hertz (kHz, MHz, GHz, é o responsável pela perfeita sincronização das atividades. Para simplificar, podemos compará-lo a um sinal de trânsito: a cada ciclo, os dispositivos executam suas tarefas, param, e então seguem para o próximo ciclo. 


clock interno corresponde à frequência de operação da CPU. Um chip com clock de 3.5 GHz realiza 3,5 milhões de operações por segundo, mas o que ele é capaz de fazer em cada operação é outra história. Devido a limitações físicas que impedem o processador de se comunicar com o controlador da memória (que geralmente fica na ponte norte do chipset) na mesma velocidade do clock interno, isso é feito através do clock externo.

 

Observação: O clock interno é um múltiplo do clock externo obtido pelo multiplicador de clock Supondo que o clock externo seja de 100 MHz e o processador trabalhe a 1.6 GHz (ou seja, tem clock interno de 1,6 GHz), o multiplicador é ajustado para 16x (16 x 100 MHz = 1.600 MHz ou 1.6 GHz).

 

Processadores de marcas e/ou versões diferentes podem operar na mesma frequência e apresentar desempenhos distintos, conforme o projeto e as características de cada um. A performance depende do que o chip é capaz de faz em cada ciclo de clock. Um processador pode executar uma instrução em dois ciclos de clock, por exemplo, enquanto outro, de igual frequência de operação, pode precisar de três ou quatro ciclos para executar a mesma instrução. 

 

Como vimos no último dia 7, a quantidade de bits (32 ou 64) também influencia diretamente o desempenho do processador (e do computador), a exemplo do cache de memória. Trata-se de uma pequena quantidade de SRAM — RAM estática, muito mais veloz, mas bem mais cara que a RAM convencional — destinada a armazenar (temporariamente) dados e instruções que o processador acessa mais amiúde.


Observação: O cache L2 passou a ser usado quando o L1 se tornou insuficiente. O L1 ficava originalmente no núcleo do processador, e o L2, na placa-mãe. Mais adiante, ambos foram embutidos no chip. Alguns processadores dispõem de um terceiro nível de cache. O AMD K6-III, lançado em 1999, tinha caches L1 e L2 internos e L3 externo. Outro exemplo é o Intel Core i7 3770, no qual cada núcleo dispõe de caches L1 e L2 relativamente pequenos e compartilha com os demais o cache L3, que é bem maior.

 

O Intel Celeron, lançado em 1998 para equipar PCs de entrada de linha (baixo custo), era basicamente um Pentium II castrado (sem cache L2). Como não há almoço grátis, o preço mais baixo resultava em desempenho inferior. Felizmente, o Celeron 600 (MHz) que equipava um PC que eu comprei na virada do século aceitou um overclock que elevou sua frequência para 933 MHz, mas me obrigou a trocar o cooler e o respectivo fan (microventilador) para dissipar o calor adicional resultante do “upgrade”.   

 

Continua...

domingo, 3 de abril de 2022

LULA LÁ DE NOVO OUTRA VEZ


O tempo em que Lula era o presidiário mais famoso do Brasil e Sergio Moro um herói nacional perdeu-se nas brumas da corrupção que assola o país desde a célebre carta que Pero Vaz de Caminha enviou ao rei de Portugal. A Lava-Jato, que era tida e havida como a mais bem sucedida operação saneadora da história, foi desmantelada pelo dublê de mau militar e parlamentar medíocre que elegemos por falta de opção à volta do lulopetismo corrupto. E a menos que o imprevisto tenha voto decisivo na assembleia dos acontecimentos, a próxima eleição presidencial (que está cada vez mais próxima) será uma reprise da anterior, mas com os protagonistas em posições invertidas. 

A jugar pelas pesquisas, o lulopetismo corrupto deve derrotar o bolsonarismo boçal. Mas enquetes eleitoreiras não são 100% confiáveis. Até porque a maioria é encomendada a empresas que cobram caro para apresentar o resultado desejado pelos marqueteiros dos candidatos. Demais disso, se a eleição fosse um filme, o resultado das pesquisas seria apenas um frame que registrava o humor dos eleitores naquele exato momento.

Em 1980, quando Lula et caterva fundaram o PT, disseram tratar-se de um “partido diferente”, que não roubaria nem deixaria roubar. Anos depois, o Mensalão e o Petrolão demonstraram que não há santos na política, apenas corruptos em maior ou menor grau. 

Lula disputou (e perdeu) o governo de São Paulo em 1982, elegeu-se deputado federal em 1986 (e instruiu seu espúrio partido a não assinar a Constituição de 1988, de cuja elaboração ele participou). Disputou e perdeu as três eleições presidenciais seguintes — para Collor em 1989 e para FHC em 1994 em 1988 —, até que derrotou José Serra e 2002 e, a despeito do Mensalão, venceu Geraldo Alckmin em 2006. Em 2010, com a popularidade nos píncaros, empalou o Brasil com o “poste” que viria a derrotar Aécio Neves dali a quatro anos, no maior estelionato eleitoral pré-Bolsonaro

O impeachment da Dilma promoveu Michel Temer a titular, mas sua ponte para o futuro foi para a ponte que partiu depois que Lauro Jardim revelou sua conversa de alcova mui suspeita com certo moedor de carne bilionário. No Brasil, a corrupção desafia até a lei da gravidade, e o vampiro do Jaburu se equilibrou no Planalto — graças aos favores das marafonas da Câmara, que custaram bilhões de reais em verbas e emendas parlamentares  e terminou o mandato-tampão como um patético “pato-manco” (ermo cunhado pelos norte-americanos para designar políticos que terminam seus mandatos tão desgastados que até os garçons demonstram seu desprezo servindo-lhes café frio).

Lula se tronou réu em 20 ações criminais e foi condenado em duas por uma dezena de juízes de três instâncias do Judiciário — a mais de 25 anos de reclusão, mas deixou a cela VIP na PF de Curitiba depois de míseros 580 dias e foi reconduzido ao cenário político por um consórcio de magistrados que vestiram a suprema toga por cima da farda de militante. Agora, segundo as tais pesquisas, conta com a preferência de 171% dos eleitores. 

Nunca é demais lembrar que, em 2018, essas mesmas empresas de pesquisa deram como certa a derrota de Bolsonaro (em qualquer cenário, não importando quem fosse seu adversário no segundo turno) e a eleição de Dilma para o Senado. Acabou que o capitão derrotou o preposto do presidiário por uma diferença de quase 11 milhões de votos e a eterna nefelibata da mandioca amargou um humilhante quinto lugar.

Uma coisa é torcer pelo que se quer que aconteça e outra, bem diferente, é fazer previsões com base nos fatos. A única semelhança é que tanto uma quanto a outra podem não acontecer. Exijamos, pois, a união dos candidatos da assim chamada “terceira via”, que precisam deixar de lado o ego, a vaidade e a empáfia, descer do salto e se unir em torno de quem tiver mais chances de romper essa maldita polarização. 

Entre a volta de Lula e sua quadrilha e a permanência de Bolsonaro et caterva, resta-nos seguir a sugestão de Diogo Mainardi. O problema é que a maioria de nós vive no Brasil — e não na Itália, como é o caso do jornalista retrocitado —, situação em que a opção menos traumática talvez seja anular o voto ou simplesmente não dar as caras no dia da eleição.

Kim Kataguiri disse para a Folha que “não seria omissão, mas uma expressão do eleitorado (...) ter a maioria de votos nulos e brancos ou abstenção é mostrar que a maior parte da população rejeita os candidatos”. João Amoedo comparou o ato de decidir entre Bolsonaro e Lula a uma escolha entre morrer afogado ou com um tiro, e Vinicius Poit, seu colega de partido, concordou: “Precisamos de uma outra opção que não seja nem esses dois nem o Ciro, que é um outro populista. Eu votaria nulo porque populismo, seja de direita ou de esquerda, não faz bem ao país”.

A meu ver, não há como discordar. Resta combinar com eleitorado, lembrando que, segundo profetizou Pelé, em meados dos anos 1970, o brasileiro está preparado para votar. Dez anos depois, o general João Figueiredo — o presidente que preferia o cheiro dos cavalos ao cheiro do povo — foi mais longe: “Um povo que não sabe sequer escovar os dentes não está preparado para votar”.

Triste Brasil.

quarta-feira, 10 de outubro de 2018

FALTAM 18 DIAS PARA O SEGUNDO TURNO — PONTOS A PONDERAR




Há dias que venho ensaiando uma postagem sobre a colcha de retalhos utópica e entumecida que atende por “Constituição Cidadã”, mas a efervescência no cenário político me levou a adiar o projeto. Agora, a 18 dias do segundo turno, parece-me mais importante acompanhar os novos e emocionantes capítulos da novela sucessória, sobretudo as negociatas de Bolsonaro e Luladdad em busca do apoio dos postulantes defenestrados. 

Colho o ensejo para adiantar que desde a proclamação da independência o Brasil já teve sete constituições (ou oito, já que muitos consideram a Emenda nº 1, outorgada pela junta militar em 1969, como a “Constituição de 1969”). A mais recente, que acaba de completar 30 anos, não só é o obelisco da prolixidade, mas também uma colcha de retalhos, na medida em que foi remendada mais de uma centena de vezes. A título de comparação, a constituição norte-americana, promulgada em 1787, tem apenas 7 artigos e recebeu 27 emendas nos últimos 220 anos.

Observação: A palavra “direito” é mencionada 76 vezes em nossa carta magna, enquanto “dever” surge em míseras quatro oportunidades. “Produtividade” e “eficiência” aparecem duas e uma vez, respectivamente, o que nos leva à seguinte pergunta: O que esperar de um país que tem 76 direitos, quatro deveres, duas produtividades e uma eficiência? A resposta terá de ficar para uma das próximas postagens. 

Antes de transcrever mais um artigo magistral de J.R. Guzzo, publicado originalmente no Blog Fatos sob o título O PARTIDO ANTI-LULA, achei por bem tecer algumas considerações sobre o resultado das urnas no último domingo.

Mesmo considerando o segundo turno como uma “nova eleição”, o fato de Bolsonaro ter obtido quase o dobro dos votos de Luladdad é significativo, quando mais não seja porque nenhum candidato que passou para o segundo turno na dianteira da disputa presidencial deixou de se eleger. Foi assim com o presidiário de Curitiba em 2006 — que obteve 49% dos votos válidos no primeiro turno e derrotou Alckmin no segundo (por 60,3% a 39,2%) — e com a ex-grande-chefa-toura-sentada — que em 2014 venceu o mineirinho safado no primeiro turno por 41,6% a 33,6% e se reelegeu no segundo por 51,6% a 48,4%. 

No último dia 7, o preposto-fantoche do demiurgo de Garanhuns teve menos votos do que Aécio no primeiro turno das eleições de 2014 — aliás, faltou bem pouco para Bolsonaro liquidar a fatura já no primeiro turno, uma vez que obteve 46% dos votos válidos (contra 29% de Luladdad). 

Volto a frisar que o capitão caverna jamais seria minha escolha se houvesse alternativa — e votar no PT não é alternativa, até porque acho inconcebível o Brasil ser governado de dentro da carceragem da PF em Curitiba (ou do Complexo Médico-Penal de Pinhais, da Papuda ou da ponte que partiu esse molusco abjeto). O fato de seu alter ego ir toda semana pedir-lhe a benção é um indicativo claríssimo da impostura de sua candidatura, que é tão falsa quanto uma nota de 3 reais. Lula disse que não é mais uma pessoa, e sim uma ideia, mas a história recente nos mostra tratar-se de uma péssima ideia, e o número de votos obtidos por Bolsonaro no último domingo deixa claro que uma parte da população já se deu conta disso. Portanto, torçamos para que o pulha vermelho apodreça na cadeia até o final de sua imprestável existência.

Resta saber como se posicionarão as demais legendas e respectivos caciques. O petralha-aprendiz é capaz de atrair para si boa parte dos votos dos eleitores de Ciro, Marina e Alckmin, mas não o bastante para se contrapor a Bolsonaro, já que, até por falta de opções, o eleitorado de centro-direita, pulverizado entre candidaturas nanicas como a de Álvaro Dias, Meirelles, Amoedo, além da parte minoritária que votou em Alckmin e Ciro, podem escolher o deputado-capitão. Isso sem mencionar que essa “falta de opção” pode gerar um índice maior de abstenções e votos brancos e nulos — no primeiro turno, dos 147 milhões de eleitores aptos a votar, cerca de 40 milhões não compareceram ou votaram em branco/anularam o voto —, o que favorece Bolsonaro, na medida em que ele precisará conquistar menos votos derrotar seu adversário.

Fato é que as revelações da Lava-Jato sepultaram as pretensões eleitorais de notórios medalhões petistas. Foi o caso de Dilma, a penabundada, que concorreu a uma vaga para o Senado por Minas gerais e cuja vitória os institutos de pesquisas davam como certa. Mas faltou combinar com o eleitorado: focada em denunciar o “golpe” — como a ex-presidanta e seus comparsas se referem ao impeachment —, a campanha da petista custou quase R$ 4 milhões, superando até mesmo os gastos de presidenciáveis como Marina, Ciro e o próprio Bolsonaro. Em contrapartida, a advogada Janaína Pascoal, uma das signatárias do pedido de impeachment que defenestrou a nefelibata da mandioca, elegeu-se deputada estadual com mais de 2 milhões de votos, embora sua campanha tenha custado módicos R$ 44 mil.

Outro exemplo: entre os 70 parlamentares eleitos para compor a bancada paulista na Câmara Federal, a jornalista, youtuber e antipetista Joice Hasselmann, que apoiou Bolsonaro para presidente e conquistou uma cadeira na Assembleia Legislativa Paulista com invejáveis 1.064.047 votos, ficando atrás apenas de Eduardo Bolsonaro, que obteve 1.814,443 votos.

Passemos ao texto de Guzzo:

Durante as próximas três semanas você vai ler, ver e ouvir um oceano de explicações perfeitas sobre o que aconteceu nas eleições deste domingo – e em todas elas, naturalmente, os cérebros da análise política nacional dirão ao público o quanto acertaram nos seus pronunciamentos durante a campanha eleitoral, embora tenha acontecido em geral o contrário de quase tudo que disseram. A mesma cantoria, com alguns retoques, deve ser feita daqui para frente para lhe instruir em relação ao desfecho do segundo turno, no próximo dia 28 de outubro. Em favor da economia de tempo, assim, pode ser útil anotar algumas realidades básicas que o primeiro turno deixou demonstradas.

1 – A grande força política que existe no Brasil de hoje se chama antipetismo. É isso que deu ao primeiro colocado, Jair Bolsonaro, 18 milhões de votos a mais que o total obtido pelo “poste” do ex-presidente Lula. Esqueça a “onda conservadora”, o avanço do “fascismo”, as ameaças de “retrocesso” – bem como toda essa discussão sobre homofobia, racismo, machismo, defesa da ditadura e mais do mesmo. Esqueça, obviamente, a força do PSL, que é nenhuma, ou o esquema político do candidato, que não existe. O que há na vida real é uma rejeição tamanho gigante contra Lula e tudo o que cheira a Lula. Quem melhor soube representar essa repulsa foi Bolsonaro. Por isso, e só por isso, ficou com o primeiro lugar.

2 – O PT, como já havia acontecido nas eleições municipais de 2016, foi triturado pela massa dos eleitores brasileiros. Seu candidato a presidente não conseguiu mais que um quarto dos votos. Os candidatos do partido a governador nos Estados de São Paulo, Rio de Janeiro, Minas Gerais e Rio Grande do Sul tiveram votações ridículas. Todos os seus candidatos “ícone” ao Senado, como Dilma Rousseff em Minas Gerais, Eduardo Suplicy em São Paulo e Lindbergh Farias no Rio de Janeiro foram transformados em paçoca, deixando o PT sem um único senador nos três maiores colégios eleitorais do Brasil. Mais uma vez, o partido só tem a festejar a votação no Nordeste – e mais uma vez, ali, aparece aliado com tudo que existe de mais atrasado na política brasileira.

3 – A força política de Lula, que continua sendo descrito como um gênio incomparável no “jogo do poder”, é do exato tamanho dos resultados obtidos nas urnas pelo seu “poste”. As mais extraordinárias profecias vêm sendo repetidas, há meses, sobre a sua capacidade de “transferir votos” e a sua inteligência praticamente sobre-humana em tudo o que se refere à política. Encerrada a apuração, Lula continua exatamente onde estava – trancado num xadrez em Curitiba e com muito cartaz do “New York Times”, mas sem força para mandar em nada.

4 – Os institutos de “pesquisa de intenção de voto”, mais uma vez, fizeram previsões calamitosamente erradas. Dilma, segundo garantiam, ia ser a “senadora mais votada do Brasil”. Ficou num quarto lugar humilhante. Suplicy, uma espécie de Tiririca-2 de São Paulo, também era dado como “eleito”. Foi varrido do mapa. Os primeiros colocados para governador de Minas e Rio de Janeiro foram ignorados pelas pesquisas praticamente até a véspera da eleição. Tinham 1% dos votos, ou coisa que o valha. Deu no que deu.

5 – O tempo de televisão e rádio no horário eleitoral obrigatório, sempre tido como uma vantagem monumental — e sempre vendido a peso de ouro pelas gangues partidárias — está valendo zero em termos nacionais. Geraldo Alckmin tinha o maior espaço nos meios eletrônicos. Acabou com menos de 5% dos votos. Bolsonaro não tinha nem 1 minuto. Foi o primeiro colocado. Parece não valer mais nada, igualmente, a propaganda fabricada por gênios do “marketing eleitoral” da modalidade Duda Mendonça-João Santana – caríssima, paga com dinheiro roubado e criada numa usina central de produção. A votação de Bolsonaro foi construída nas redes sociais, sem comando único e sem verbas milionárias.

Daqui até 28 de outubro o público será apresentado a outras previsões, teoremas e choques de sabedoria. É bom não perder de vista o que acaba de acontecer antes de acreditar no que lhe anunciam para o futuro.

segunda-feira, 4 de abril de 2022

ÁGUAS AINDA VÃO ROLAR


Sobre o conflito no leste europeu, apesar de estarem perdendo dinheiro com as sanções ocidentais, os milionários russos não têm força para confrontar Vladimir Putin. Assim, a situação pode ficar parecida com a da Coreia do Norte, onde a população sofre com os problemas econômicos, mas não consegue confrontar o governo. A avaliação é de Bill Browder, CEO e fundador do Hermitage Capital Management. Ele foi um dos maiores investidores estrangeiros na Rússia, mas acabou deportado e banido do país em 2005.
***

Fechou-se às 23h59 do último dia primeiro a “janela partidária” que permite a deputados federais e estaduais mudar de partido sem o risco de perderem o mandato. Da feita que o cardápio oferece mais de 30 opções, teve gente “de direita” que migrando para legendas “de esquerda” e vice-versa, já que o Brasil tem muitos partidos e nenhum compromisso com ideologia — entenda-se por ideologia o conjunto de ideias, pensamentos, doutrinas e visões de mundo orientado para ações sociais e, principalmente, políticas.

Para surpresa de muitos — entre os quais a deputada Renta Abreu, presidente nacional do Podemos — o ex-juiz Sergio Moro migrou para o União Brasil mediante o compromisso de desistir de concorrer à Presidência. Mas política é como nuvem, dizia Magalhães Pinto. Tanto é que o Moro já “desistiu de desistir”, a exemplo de João Doria, que desistiu de renunciar ao cargo de governador de São Paulo para disputar a Presidência, mas, passadas poucas horas, anunciou que havia desistido de desistir e continuava candidatíssimo ao Planalto. 

Moro anunciou neste 1º de abril — sem pegadinha — que não será candidato a deputado federal. Fez acenos para agrupar a terceira via. Afirmou que trocou de partido visando à unificação do centro democrático. O movimento provocou uma reação imediata da ala do União Brasil que é contrária à candidatura dele ao Planalto, e que só aceitou sua filiação mediante o compromisso retro citado. ACM Neto e outros oito dirigentes do partido já anunciaram um pedido para invalidar a filiação do ex-juiz da Lava-Jato.

A reação foi anunciada após pronunciamento de Moro em São Paulo, durante a tarde de sexta-feira, no qual ele afirmou que a terceira via não pode ser um projeto individual e que sua filiação ao União Brasil foi um "movimento político" para ajudar nesse processo. "Não tenho ambição por cargos. Se tivesse, teria permanecido juiz federal ou ministro da Justiça. Também não tenho necessidade de foro privilegiado ou outros privilégios que sempre repudiei e defendo a extinção", disse ele.

Observação: Em mais uma demonstração cabal de que política é como as nuvens, o União Brasil divulgou neste sábado uma nota unificada de sua direção que desiste de questionar a filiação de Sergio Moro ao partido, mas também ressalta que o projeto político do ex-juiz é em São Paulo. Isso me faz lembrar do MACACO SÓCRATES, do humorístico Planeta dos Homens. Sempre que era pego em pequenas safadezas, deslizes, escorregadelas e pecadilhos inerentes ao ser humano, o símio brandia seu inevitável bordão: “Mas sou só eu? cadê os outros?

Na avaliação de aliados de Lula e Bolsonaro, as idas e vindas de Moro e Doria fortalecem a polarização entre os dois primeiros colocados nas pesquisas. Apesar disso, alguns setores consideram haver a oportunidade de unificação da “terceira via” em torno de algum nome mais competitivo. A mais recente pesquisa Datafolha mostrou Lula com 43% das intenções de voto, contra 26% de Bolsonaro, 8% de Moro, 6% de Ciro Gomes, 2% de Doria e 1% de Simone Tebet.

Doria se envolveu numa trapalhada e tentou fazer dela uma jogada. Levou o presidente do PSDB a confirmar sua candidatura para evitar estrondo maior no partido e, no primeiro momento, ganhou. Se leva ou não os louros dessa vitória, isso são outros quinhentos. No palco da cerimônia em que o agora ex-governador de São Paulo anunciou sua renúncia, a manifestação entusiasmada do vice Rodrigo Garcia em prol da unidade contrastou com o clima pesado que permeou os bastidores no Palácio dos Bandeirantes — em particular e no PSDB. A política, contudo, falou mais alto.

Montou-se a cena da unidade, mas ela não reflete a realidade. O vaivém de Doria não resolveu as divergências em curso no ninho tucano. Ao contrário, aprofundou a rejeição interna a ele por uma ala do partido, que chegou a comemorar a desistência como uma chance real de se destravar as negociações para a construção de candidatura alternativa a Bolsonaro e Lula. 

Águas haverão de rolar por baixo dessa ponte e, pelo que se ouve no conturbado ambiente partidário dos tucanos, não serão límpidas nem serenas.

terça-feira, 21 de maio de 2019

COMPUTADOR, SMARTPHONE, WINDOWS E UM POUCO DE HISTÓRIA


MOSTRE-ME SEU MURO DE QUATRO METROS E EU LHE MOSTRAREI MINHA ESCADA DE CINCO.

O mundo evoluiu um bocado desde a pré-história, mas, do ponto de vista da tecnologia, os últimos 200 anos foram determinantes. Basta lembrar que os primeiros computadores surgiram somente em meados do século passado, e a computação pessoal, que começou a se popularizar nos anos 1990, foi de vento em popa depois que o visionário Steve Jobs, ao lançar o iPhone, estimulou o desenvolvimento de "computadores de mão" com cada vez mais recursos e funções, que em poucos anos se tornaram, senão um substituto, um complemento dos desktops e notebooks.

Detalhar essa evolução foge às possibilidades desta postagem, sem mencionar que a extensão do texto tornaria a leitura cansativa para os gatos pingados que acessam este humilde Blog. Portanto, vou trocar tudo em miúdos, começando por lembrar que o ábaco, criado no Egito dos faraós, é considerado o pai do computador, e o UNIX, desenvolvido em meados do século passado, o pai de todos os sistemas operacionais.

Muita areia escoou pela ampulheta do tempo desde o surgimento da jurássica moldura com bastões paralelos com contas deslizantes (cuja criação muitos atribuem aos chineses). A primeira calculadora mecânica de que se tem notícia foi idealizada pelo matemático Blaise Pascal, no século XVII, e aprimorada mais adiante, pelo alemão Gottfried Leibniz, com a capacidade de multiplicar e dividir, e tempos depois o Tear de Jacquard serviria de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir tabelas científicas, que seria o precursor do tabulador estatístico de Herman Hollerith (cuja empresa se tornaria a gigante IBM).

Em meados do século passado, pesquisadores da Universidade da Pensilvânia construíram o primeiro computador digital eletrônico uma monstruosidade de 18 mil válvulas e 30 toneladas que produziu um enorme blecaute ao ser ligado pela primeira vez. Batizado de ENIAC, o portento era capaz de realizar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 90 superaria com facilidade. Suas válvulas queimavam a razão de uma cada dois minutos, e sua memória interna era suficiente apenas para manipular os dados envolvidos na tarefa em execução; qualquer modificação exigia que os operadores, que também eram programadores, corressem de um lado para outro da sala, desligando e religando centenas de chaves e cabos.

Acomodar os imensos mainframes dos anos 1950/60 exigia o espaço de salas ou andares inteiros. Como os sistemas operacionais ainda não existiam, os operadores controlavam esses monstrengos por meio de chaves, fios e luzes de aviso. Mais adiante, os batch systems (sistemas em lote) já permitiam que cada programa fosse escrito em cartões perfurados e carregado, juntamente com o respectivo compilador, mas não havia padronização de arquitetura e cada máquina usava um sistema operacional específico. Pelo menos até o Unix mudar esse quadro, como veremos ao longo desta sequência.

O primeiro sistema operacional realmente funcional foi criado pela General Motors para controlar o IBM 704. Com o tempo, diversas empresas desenvolveram sistemas para seus mainframes, e algumas se especializaram em produzi-los para terceiros. O mais famoso foi EXEC, escrito para operar o UNIVAC — computador que fez muito sucesso entre os anos 50 e 60, principalmente por ser pequeno e barato (para os padrões da época, já que o troço era do tamanho de um guarda-roupas), o que propiciou sua adoção por universidades e pequenas empresas.

Observação: As funções do sistema operacional são, basicamente, servir de “ponte” entre o hardware e o software, gerenciar os programas, definir os recursos destinados a cada processo e criar uma interface amigável com o usuário. É ele quem “reconhece” os componentes de hardware, quem gerencia os processos, os arquivos, a memória, os periféricos, quem decide quais programas em execução devem receber a atenção do processador, etc., e está presente não só nos PCs e assemelhados, mas em praticamente tudo que tenha um microchip e rode aplicativos, de automóveis a televisores, de consoles de videogames a relógios digitais. Graças à internet das coisas (IoT), o Linux marca presença em lâmpadas, geladeiras, smartphones e até rifles do exército norte-americano.

O primeiro microcomputador foi o Altair 8800, lançado em meados dos anos 1970 e comercializado na forma de kit (ou seja, a montagem ficava a cargo do consumidor). Era mais uma curiosidade do que algo realmente útil, ao menos até que Bill Gates e Paul Allen criarem para ele um “interpretador” escrito na linguagem BASIC e batizado de Microsoft-BASIC, que não era um SO como os usados nos mainframes de então, mas foi o precursor dos sistemas operacionais para microcomputadores. O MIT, a General Eletric e a AT&T criaram uma força tarefa para desenvolver o MULTICS, mas abandonou o projeto após uma década de trabalho. Em 1969, Ken Thompson, ex-integrante da equipe, criou o UNICS — uma versão menos ambiciosa escrita em Assembly, que foi posteriormente reescrita em C pelo próprio Thompson e por Dennis Ritchie (criador da linguagem C) e rebatizada como UNIX. Seu kernel (núcleo) logo passou a servir de base para outros sistemas operacionais, dentre os quais o BSD, o POSIX, o MINIX, o FreeBSD e o Solaris, para ficar nos mais conhecidos.

O sucesso do Altair levou a Apple a investir no segmento de computadores pessoais. O Apple II, lançado em 1977, já contava com um Disk Operating System (ou DOS — acrônimo que integra o nome de diversos sistemas operacionais, como o Free DOS, o PTS-DOS, o DR-DOS etc.). Como a máquina vinha montada, trazia um teclado integrado e tinha a capacidade de reproduzir gráficos coloridos e sons, muitos a consideram o “primeiro computador pessoal moderno”.

Observação: Steve Jobs foi pioneiro na adoção da interface gráfica, com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse — tecnologia de que a XEROX já dispunha havia algum tempo, mas nunca explorou devidamente porque só tinha interesse em computadores de grande porte. Aliás, quando Microsoft lançou o Windows, que inicialmente era uma interface gráfica que rodava no MS-DOS, a Apple já estava anos-luz à sua frente, a despeito de a arquitetura fechada, o software proprietário e o alto custo de produtos da marca da Maçã limitarem sua participação no mercado a um segmento de nicho.

De olho no sucesso da Apple, a IBM, então líder no âmbito dos mainframes, resolveu lançar o IBM-PC, com arquitetura aberta e sistema operacional desenvolvido pela Microsoft (que se tornariam padrão de mercado). Ressalte-se que, naquela época, a hoje Gigante do Software jamais havia escrito um sistema operacional, mas Bill Gates adquiriu de Tim Paterson (por US$ 50 mil) o QDOS, adaptou-o ao hardware da IBM e rebatizou-o como MS-DOS — e assim começou sua escalada ao topo do ranking dos homens mais ricos do planeta (hoje ele está em segundo lugar, com um patrimônio pessoal estimado pela Forbes em quase 100 bilhões de dólares).

O resto fica para a próxima postagem.

quarta-feira, 28 de junho de 2017

VOCÊ CONHECE SEU PC? ― Parte II

POBRE, QUANDO METE A MÃO NO BOLSO, SÓ TIRA OS CINCO DEDOS.

Foram milhares de anos até o computador evoluir do ÁBACO ― criado há mais de 3.000 anos no antigo Egito ― para a PASCALINA ― geringonça desenvolvida no século XVII pelo matemático francês Blaise Pascal e aprimorada mais adiante pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de somar e dividir. Mas o “processamento de dados” só viria com o Tear de Jacquard ― primeira máquina programável ―, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir tabelas científicas, precursor do tabulador estatístico de Herman Hollerith, cuja empresa viria se tornar a gigante IBM.

Nos anos 1930, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, e alemão Konrad Zuze criou o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou os EUA, a Alemanha e a Inglaterra a investir no desenvolvimento do Mark 1, do Z3 e do Colossus, e, mais adiante, com o apoio do exército norte-americano, pesquisadores da Universidade da Pensilvânia construírem o ENIAC ― um monstrengo de 18 mil válvulas e 30 toneladas que produziu um enorme blecaute ao ser ligado, em 1946, e era capaz somente de realizar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo ― uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

EDVAC, criado no final dos anos 1940, já dispunha de memória, processador e dispositivos de entrada e saída de dados, e seu sucessor, o UNIVAC, usava fita magnética em vez de cartões perfurados, mas foi o transistor que revolucionou a indústria dos computadores, quando seu custo de produção foi barateado pelo uso do silício como matéria prima. No final dos anos 1950, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e mais adiante a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360, lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microchips, e daí à criação de equipamentos de pequeno porte foi um passo. Vieram então o ALTAIR 8800, vendido sob a forma de kit, o PET 2001, lançado em 1976 e tido como o primeiro microcomputador pessoal, e os Apple I e II (este último já com unidade de disco flexível).

O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de “personal computer”), cuja arquitetura aberta e a adoção do MS-DOS, da Microsoft, se tornaram um padrão de mercado. De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse ― tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte ―, a empresa de Steve Jobs fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. Aliás, quando Microsoft lançou o Windows ― que inicialmente era uma interface gráfica que rodava no DOS ― a Apple já estava anos-luz à frente.

Para encurtar a história, a IBM preferiu lançar seu PS/2, de arquitetura fechada e proprietária, a utilizar então revolucionário processador 80386 da INTEL, mas Compaq convenceu os fabricantes a continuar utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas buscassem desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já não mais uma simples interface gráfica, mas um sistema operacional autônomo, ou quase isso), a estrela de Bill Gates brilhou, e o festejado Win98 sacramentou a Microsoft como a “Gigante do Software”.

O resto é história recente: a arquitetura aberta se tornou padrão de mercado, o Windows se firmou como sistema operacional em todo o mundo (a despeito da evolução das distribuições LINUX e da preferência de uma seleta confraria de nerds pelos produtos da Apple) e a evolução tecnológica favoreceu o surgimento de dispositivos de hardware cada vez mais poderosos, propiciando a criação de softwares cada vez mais exigentes.

Enfim, foram necessários milênios para passarmos do ábaco aos primeiros mainframes, mas poucas décadas, a partir de então, para que "pessoas comuns" tivessem acesso aos assim chamados computadores pessoais ― ou microcomputadores ―, que até não muito tempo atrás custavam caríssimo e não passavam de meros substitutos da máquina de escrever, calcular, e, por que não dizer, do baralho de cartas e dos então incipientes consoles de videogame. Em pouco mais de três décadas, a evolução tecnológica permitiu que os desktops e laptops das primeiras safras diminuíssem de tamanho e de preço, crescessem astronomicamente em poder de processamento, recursos e funções, e se transformassem nos smartphones e tablets atuais, sem os quais, perguntamo-nos, como conseguimos viver durante tanto tempo.

Continuamos no próximo capítulo. Até lá.

SOBRE MICHEL TEMER, O PRIMEIRO PRESIDENTE DENUNCIADO NO EXERCÍCIO DO CARGO EM TODA A HISTÓRIA DO BRASIL.

Michel Temer já foi de tudo um pouco nos últimos tempos. De deputado federal a vice na chapa da anta vermelha; de presidente do PMDB (por quinze anos) a presidente da Banânia; de depositário da nossa esperança de tornar a ver o país crescer a “chefe da quadrilha mais perigosa do Brasil”; e de tudo isso a primeiro presidente do Brasil a ser denunciado no exercício do cargo.

Joesley Batista, o megamoedor de carne que multiplicou seu patrimônio com o beneplácito da parelha de ex-presidentes petistas ― que sempre valorizaram meliantes como Eike Batista e o próprio Joesley (é curiosa a coincidência no sobrenome, mas acho que não passa disso) ―, promoveu Temer ao lugar que, por direito, pertence a Lula, e a este atribuiu “somente” a institucionalização da corrupção na política tupiniquim.

Há quem afirme que a promoção de Temer foi inoportuna e despropositada. Afinal, não foi ele quem sequestrou e depenou o Brasil durante 13 anos, ou roubou o BNDES e passou uma década enfiando bilhões de dólares na Friboi ― que acabou se tornando a gigante J&F, controladora da maior processadora de proteína animal do planeta. Tampouco foi ele quem torturou São José Dirceu para forçá-lo a reger na Petrobras o maior assalto da história do ocidente, recebeu uma cobertura tríplex no Guarujá da OAS de Leo Pinheiro e, ao ser pego com as calças na mão e manchas de batom na cueca, atribuiu a culpa à esposa Marisa, digo, Marcela).

Gozações à parte, as opiniões divergem quanto à delação de Joesley e companhia. Há quem ache que a contrapartida dada pelo MPF e avalizada por Fachin foi exagerada (a despeito da multa bilionária que os delatores terão de pagar, que representa a punição mais “dolorosa” para gente dessa catadura). Outros, como certo ministro do Supremo e presidente do TSE, reprovam o acordo por serem sistematicamente contrários à Lava-Jato e às delações premiadas, às prisões preventivas prolongadas (sem as quais a Lava-Jato nem existiria, ou, se existisse, ainda estaria engatinhando). Felizmente, 7 dos 11 ministros do STF já se votaram pela manutenção de Fachin na relatoria dos processos oriundos da delação da JBS e pela validade da delação propriamente dita (assunto que eu detalhei na semana passada).

O fato é que o peemedebista se apequena mais a cada dia, o que não ajuda em nada o país, como bem sabem os que acompanharam os estertores dos governos Sarney e Collor e de Dilma. Com novas denúncias e acusações surgindo regularmente, o presidente está acossado, fragilizado politicamente e, por que não dizer, mais preocupado com articulações políticas visando à sua defesa do que com a aprovação das tão necessárias reformas que se predispôs a capitanear.

Na última segunda-feira, Temer juntou ao seu invejável currículo a experiência inédita de ser denunciado por corrupção ainda no exercício do cargo (até hoje, nenhum presidente brasileiro havia sido agraciado com tal honraria, embora quase todos tenham feito por merecê-la). E novas denúncias virão em breve, até porque Janot resolveu não pôr todos os ovos na mesma cesta. Como a denúncia passa pela CCJ da Câmara e pelo plenário da casa antes de ser julgada no STF, o Planalto moverá mundos e fundos para barrar o processo, de modo que o fatiamento serve para a PGR ganhar tempo, visando à possibilidade de novos fatos mudarem os ventos no Congresso. A meu ver, bastaria que a voz das ruas voltasse a roncar como roncou no ano passado, durante o impeachment de Dilma, para que a sorte do presidente fosse selada, mas quem sou eu, primo?

Talvez seja mesmo melhor a gente ficar com diabo que já conhece. Nenhuma liderança expressiva surgiu no cenário até agora, e a perspectiva de Rodrigo Maia assumir o comando do País não é das mais alvissareiras. Demais disso, eleições diretas, neste momento, contrariam flagrantemente a legislação vigente, e interessariam apenas a Lula e ao PT, que se balizam na tese do "quanto pior melhor".  

O molusco indigesto continua encabeçando as pesquisas de intenção de voto, mesmo atolado em processos e prestes a receber sua primeira (de muitas) condenações (veja detalhes na postagem anterior). Mas não se pode perder de vista que isso se deve em grande parte ao fato de ele ser o mais conhecido entre os pesquisados, e que isso lhe assegura também o maior índice de rejeição. Enfim, muita água ainda vai rolar por debaixo da ponte até outubro do ano que vem. Se as previsões se confirmarem, Moro deve condenar o sacripanta dentro de mais alguns dias, e uma possível confirmação da sentença pelo TRF-4 jogará a esperada pá de cal nessa versão petista de conto do vigário.

Infelizmente, deixamos escapar a chance de abraçar o parlamentarismo no plebiscito de 1993 (graças à absoluta falta de esclarecimento do eleitorado tupiniquim), e agora só nos resta lidar com a quase impossibilidade de defenestrar um presidente da República, mesmo que ele já não tenha a menor serventia ou que esteja envolvido em práticas pouco republicanas (haja vista os traumatizantes impeachments de Collor e de Dilma). 

Estão em andamento algumas tentativas de tapar o sol com peneira, como a PEC do Senador Antonio Carlos Valadares (PSB/SE), aprovada no último dia 21 pela CCJ do Senado, que inclui na Constituição a possibilidade revogação do mandato do presidente, vinculada à assinatura de não menos que 10% dos eleitores que votaram no último pleito (colhidas em pelo menos 14 estados e não menos de 5% em cada um deles).

De acordo com o texto aprovado, a proposta será apreciada pela Câmara e pelo Senado, sucessiva e separadamente, e precisará do voto favorável da maioria absoluta dos membros de cada uma das Casas. Garantida a aprovação, será então convocado referendo popular para ratificar ou rejeitar a medida. O projeto prevê ainda que será vedada a proposta de revogação durante o primeiro e o último ano de governo e a apreciação de mais de uma proposta de revogação por mandato.

Por hoje é só, pessoal. Até a próxima.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

quinta-feira, 17 de fevereiro de 2011

A evolução dos computadores...

Atendendo a uma sugestão apócrifa deixada no post do último dia 9, vou dedicar algumas linhas à evolução dos computadores, começando por definir “informática” como a ciência que visa ao tratamento da informação mediante o uso de equipamentos e métodos da área de processamento de dados – até porque processar dados é o que o computador faz ao arquivar, gerenciar e manipular informações.

Reza a lenda que tudo começou com o ábaco – geringonça criada há mais de 3.500 anos no antigo Egito –, cuja desenvoltura na execução de operações aritméticas seria superada somente no século XVII pela Pascalina, desenvolvida pelo matemático francês Blaise Pascal e aprimorada pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de multiplicar e dividir. Mas o “processamento de dados” só tomaria impulso dois séculos mais adiante, com o Tear de Jacquard – primeira máquina mecânica programável –, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir extensas tabelas científicas, que serviu de base para Herman Hollerith construir um tabulador estatístico com cartões perfurados. (Depois de diversas fusões e mudanças de nomes, a empresa de Hollerith viria a se tornar a International Business Machine, mais conhecida como IBM, mas isso já é outra história).
 
Lá pelos anos 30, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, ao mesmo tempo em que o alemão Konrad Zuze criava o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou potências como os EUA, Alemanha e Inglaterra a investir no desenvolvimento de computadores como o Mark 1, o Z3 e o Colossus. Aliás, foi com o apoio do exército norte-americano que pesquisadores da Universidade da Pensilvânia construíram o ENIAC – portento de 18 mil válvulas e 30 toneladas –, que produziu um enorme blecaute ao ser ligado, em 1946.

Observação: Apesar de consumir 160 kW/h, o ENIAC só conseguia fazer 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo – uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

Em 1947 surgiria o EDVAC – já com memória, processador e dispositivos de entrada e saída de dados –, seguido pelo UNIVAC – que utilizava fita magnética em vez de cartões perfurados –, mas foi o transistor que revolucionou a indústria dos computadores, notadamente a partir de 1954, quando seu custo de produção foi barateado pela utilização do silício como matéria prima.
 
No final dos anos 50, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e uma década depois a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360 (lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microprocessadores, e daí à criação de equipamentos de pequeno porte foi um passo: em poucos anos surgiria o ALTAIR 8800 (vendido sob a forma de kit), o PET 2001 (lançado em 1976 e tido como o primeiro microcomputador pessoal) e os Apple I e II (este último já com unidade de disco flexível).

O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de PERSONAL COMPUTER), cuja arquitetura aberta e a adoção do MS-DOS da Microsoft viriam a estabelecer um padrão de mercado.

De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse – tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte –, a Apple fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. E a despeito de a IBM pressionar a Microsoft no sentido de não atrasar o lançamento de sua interface gráfica para rodar em DOS, a Apple já estava anos-luz à frente quando o Windows 2.0 chegou ao mercado.

Muita água rolou por baixa da ponte desde então. Em vez de aperfeiçoar o PC de maneira a utilizar o novo processador 80386 da INTEL, a IBM preferiu lançar o PS/2, com arquitetura fechada e proprietária. Mas a Compaq – que já vinha ameaçando destronar a rival – convenceu os fabricantes a continuarem utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas continuassem buscando desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já um sistema operacional autônomo), a estrela de Bill Gates brilhou mais forte, e o lançamento do Win 98 sacramentou a Microsoft como a “Gigante do Software”.

O resto é história recente: a arquitetura aberta se tornou padrão de mercado; o Windows se firmou como o SO mais utilizado em todo o mundo (a despeito da evolução das distribuições LINUX e dos fãs da Apple/Macintosh); a evolução tecnológica vem favorecendo o surgimento de dispositivos de hardware cada vez mais poderosos – e propiciando a criação de softwares cada vez mais exigentes –; a INTEL e a AMD continuam disputando “a tapa” a preferência dos usuários pelos seus processadores (agora com 2, 3, 4 ou mais núcleos); memórias SDRAM de 64/128 MB cederam lugar para 2 ou mais GB DDR2 ou DDR3; placas gráficas de última geração permitem jogar games radicais, assistir a filmes em alta definição e com efeitos 3D, e por aí vai. 

Tenham todos um ótimo dia.