Mostrando postagens classificadas por relevância para a consulta eniac. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta eniac. Ordenar por data Mostrar todas as postagens

segunda-feira, 7 de dezembro de 2020

SOLUÇÃO DE PROBLEMAS... — PARTE V

NA CIÊNCIA, CADA CERTEZA TRAZ OUTRA DÚVIDA; NA FÉ, CADA DÚVIDA VIRA UMA CERTEZA.

Se Deus criou o homem à sua imagem e semelhança, certamente não incluiu “perfeição” na receita, visto que todo vivente não só tem “prazo de validade” como está sujeito a adoecer, se acidentar, enfim... E se pessoas são seres falíveis, suas criações não são perfeitas. 

Carros enguiçam, eletrodomésticos pifam, móveis se deterioram... Assim, um belo dia você liga seu PC e ele se recusa a funcionar.

PC é a sigla de “personal computer” (computador pessoal, numa tradução literal). Nos anos 1980, quando essas geringonças começaram a popularizar, os usuários chamavam-nas carinhosamente de “micro” (abreviação de “microcomputador”). 

Micro vem do grego μικρός, que significa pequeno. Também é o prefixo do Sistema Internacional de Unidades que denota um fator de 10−6 (um milionésimo).

O nome não deixa de fazer sentido, considerando que o ENIAC, construído por pesquisadores da Universidade da Pensilvânia em meados do século passado (ao custo de US$ 500 mil, valor que, atualizado, corresponde a US$ 6,7 milhões), era um monstrengo de 30 toneladas que ocupava uma área de 180 m² e integrava 70 mil resistores e 18 mil válvulas de vácuo, que queimavam à razão de uma a cada 2 minutos. Da primeira vez que foi ligado, esse portento causou um blackout de proporções épicas.

Embora não fosse capaz de realizar mais de 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 1990 já superava “com um pé nas costas” — e de sua memória interna ser suficiente apenas para manipular dados envolvidos na tarefa em execução — qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios —, em 10 anos de operação o ENIAC realizou mais contas do que os seres humanos fizeram desde o início dos tempos. 

Observação: Quando o ENIAC foi finalmente aposentado, já existiam mainframes dez vezes menores, mas com o dobro do seu poder de processamento e preço muito inferior.

O Altair 8800, lançado em meados dos anos 1970 e comercializado na forma de kit (ou seja, a montagem ficava a cargo do consumidor), é considerado o precursor do PC dos nossos dias. Inicialmente, era mais uma curiosidade do que algo realmente útil, mas isso mudou quando Bill Gates e Paul Allen criaram um interpretador BASIC pare ele. O programa, batizado de Microsoft-BASIC, não era exatamente um sistema operacional como os que eram usados nos mainframes de então, mas se tornou o precursor dos sistemas operacionais para computadores pessoais.

Muita gente considera o ábaco como o antepassado mais remoto dos computadores, quando na verdade ele foi o precursor das máquinas de calcular. Por outro lado, “computar” é sinônimo de “fazer cálculos”, daí o computador ser uma máquina de calcular. Mas uma máquina de calcular capaz de realizar uma quantidade absurda de operações por segundo.

Continua. 

terça-feira, 14 de setembro de 2021

WI-FI 5 GHz, REDE MÓVEL 5G E OUTROS BICHOS

QUANDO O MOLHO SAI MAIS CARO QUE O PEIXE É MELHOR PEDIR UM BIFE

Costuma-se dizer que o ábaco foi o precursor da máquina de calcular e, por extensão, do computador. Os primeiros computadores eletrônicos ocupavam andares inteiros, pesavam toneladas e custavam milhões de dólares, mas tinham menos poder de processamento que uma calculadora xing-ling de R$ 10.

O  ENIAC ― um dos primeiros mainframes, construído por cientistas da Universidade da Pensilvânia ― era um monstrengo de 18 mil válvulas e 30 toneladas, mas que conseguia, mal e parcamente, executar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 90 superaria com facilidade.

As válvulas da geringonça queimavam à razão de uma cada dois minutos, e sua memória interna era suficiente apenas para manipular os dados envolvidos na tarefa em execução; qualquer modificação exigia que os operadores — que também eram programadores — corressem de um lado para outro da sala, desligando e religando centenas de chaves e cabos. 

Para dissipar o calor gerado pelo funcionamento desse portento, gastavam-se quilowatts de energia suficientes para alimentar uma cidade de 5.000 habitantes. Fala-se inclusive que quando foi ligado pela primeira vez, o ENIAC causou um blackout que deixou às escuras uma parte considerável do estado americano da Pensilvânia.

Como os sistemas operacionais ainda não existiam, os operadores controlavam os computadores de então por meio de chaves, fios e luzes de aviso. Mais adiante, os batch systems (sistemas em lote) passaram a permitir que cada programa fosse escrito em cartões perfurados e carregado, juntamente com o respectivo compilador. Todavia, não havia padronização de arquitetura, de modo que cada máquina usava um sistema operacional específico. Pelo menos até o Unix mudar esse quadro, mas isso já é outra conversa.

O primeiro microcomputador foi o Altair 8800, lançado em meados dos anos 1970 e comercializado na forma de kit (a montagem ficava a cargo do consumidor). Era mais uma curiosidade do que algo realmente útil. Mas foi extremamente útil para Bill Gates e Paul Allen — que fundaram a Microsoft, em 1975, com o propósito de desenvolver e comercializar interpretadores em BASIC para a geringonça. E para e para a Apple, já que o interesse dos usuários pelo aparelho levou Steve Jobs, Steve Wozniak e Ronald Wayne a investir no segmento de computadores pessoais.

Lançado em 1977, o Apple II já contava com um Disk Operating System (ou DOS — acrônimo que integra o nome de diversos sistemas operacionais, como o Free DOS, o PTS-DOS, o DR-DOS etc.). Como o aparelho vinha montado, trazia um teclado integrado e tinha a capacidade de reproduzir gráficos coloridos e sons, muitos o consideram o “primeiro computador pessoal moderno”.

Comparar os microcomputadores dos anos 1980 com os modelos autuais seria como contrapor um jurássico Ford T a um Mustang GT 500. A título de curiosidade, no pool de sistemas usado pela NASA na missão Apollo 11 que levou o homem à Lua em 1969 —, a velocidade (frequência de operação) do processador era de 0,043 MHz e a quantidade de memória RAM, de míseros 64KB.

O sucesso dos desktops — termo que significa literalmente "em cima da mesa" — propiciou o surgimento dos laptops — aglutinação dos termos em inglês lap (colo) e top (em cima), significando "em cima do colo" —, que passaram a ser chamados mais adiante de “notebooks” — devido ao formato e às dimensões semelhantes às de um caderno universitário. 

A princípio, o termo laptop remetia a portáteis maiores, mais pesados e pródigos em recursos, mas essa diferenciação deixou de ser observada e a palavra caiu em desuso, embora alguns puristas prefiram-na ao termo notebook.

Continua no próximo capítulo.

quinta-feira, 17 de fevereiro de 2011

A evolução dos computadores...

Atendendo a uma sugestão apócrifa deixada no post do último dia 9, vou dedicar algumas linhas à evolução dos computadores, começando por definir “informática” como a ciência que visa ao tratamento da informação mediante o uso de equipamentos e métodos da área de processamento de dados – até porque processar dados é o que o computador faz ao arquivar, gerenciar e manipular informações.

Reza a lenda que tudo começou com o ábaco – geringonça criada há mais de 3.500 anos no antigo Egito –, cuja desenvoltura na execução de operações aritméticas seria superada somente no século XVII pela Pascalina, desenvolvida pelo matemático francês Blaise Pascal e aprimorada pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de multiplicar e dividir. Mas o “processamento de dados” só tomaria impulso dois séculos mais adiante, com o Tear de Jacquard – primeira máquina mecânica programável –, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir extensas tabelas científicas, que serviu de base para Herman Hollerith construir um tabulador estatístico com cartões perfurados. (Depois de diversas fusões e mudanças de nomes, a empresa de Hollerith viria a se tornar a International Business Machine, mais conhecida como IBM, mas isso já é outra história).
 
Lá pelos anos 30, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, ao mesmo tempo em que o alemão Konrad Zuze criava o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou potências como os EUA, Alemanha e Inglaterra a investir no desenvolvimento de computadores como o Mark 1, o Z3 e o Colossus. Aliás, foi com o apoio do exército norte-americano que pesquisadores da Universidade da Pensilvânia construíram o ENIAC – portento de 18 mil válvulas e 30 toneladas –, que produziu um enorme blecaute ao ser ligado, em 1946.

Observação: Apesar de consumir 160 kW/h, o ENIAC só conseguia fazer 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo – uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

Em 1947 surgiria o EDVAC – já com memória, processador e dispositivos de entrada e saída de dados –, seguido pelo UNIVAC – que utilizava fita magnética em vez de cartões perfurados –, mas foi o transistor que revolucionou a indústria dos computadores, notadamente a partir de 1954, quando seu custo de produção foi barateado pela utilização do silício como matéria prima.
 
No final dos anos 50, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e uma década depois a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360 (lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microprocessadores, e daí à criação de equipamentos de pequeno porte foi um passo: em poucos anos surgiria o ALTAIR 8800 (vendido sob a forma de kit), o PET 2001 (lançado em 1976 e tido como o primeiro microcomputador pessoal) e os Apple I e II (este último já com unidade de disco flexível).

O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de PERSONAL COMPUTER), cuja arquitetura aberta e a adoção do MS-DOS da Microsoft viriam a estabelecer um padrão de mercado.

De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse – tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte –, a Apple fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. E a despeito de a IBM pressionar a Microsoft no sentido de não atrasar o lançamento de sua interface gráfica para rodar em DOS, a Apple já estava anos-luz à frente quando o Windows 2.0 chegou ao mercado.

Muita água rolou por baixa da ponte desde então. Em vez de aperfeiçoar o PC de maneira a utilizar o novo processador 80386 da INTEL, a IBM preferiu lançar o PS/2, com arquitetura fechada e proprietária. Mas a Compaq – que já vinha ameaçando destronar a rival – convenceu os fabricantes a continuarem utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas continuassem buscando desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já um sistema operacional autônomo), a estrela de Bill Gates brilhou mais forte, e o lançamento do Win 98 sacramentou a Microsoft como a “Gigante do Software”.

O resto é história recente: a arquitetura aberta se tornou padrão de mercado; o Windows se firmou como o SO mais utilizado em todo o mundo (a despeito da evolução das distribuições LINUX e dos fãs da Apple/Macintosh); a evolução tecnológica vem favorecendo o surgimento de dispositivos de hardware cada vez mais poderosos – e propiciando a criação de softwares cada vez mais exigentes –; a INTEL e a AMD continuam disputando “a tapa” a preferência dos usuários pelos seus processadores (agora com 2, 3, 4 ou mais núcleos); memórias SDRAM de 64/128 MB cederam lugar para 2 ou mais GB DDR2 ou DDR3; placas gráficas de última geração permitem jogar games radicais, assistir a filmes em alta definição e com efeitos 3D, e por aí vai. 

Tenham todos um ótimo dia.

terça-feira, 21 de maio de 2019

COMPUTADOR, SMARTPHONE, WINDOWS E UM POUCO DE HISTÓRIA


MOSTRE-ME SEU MURO DE QUATRO METROS E EU LHE MOSTRAREI MINHA ESCADA DE CINCO.

O mundo evoluiu um bocado desde a pré-história, mas, do ponto de vista da tecnologia, os últimos 200 anos foram determinantes. Basta lembrar que os primeiros computadores surgiram somente em meados do século passado, e a computação pessoal, que começou a se popularizar nos anos 1990, foi de vento em popa depois que o visionário Steve Jobs, ao lançar o iPhone, estimulou o desenvolvimento de "computadores de mão" com cada vez mais recursos e funções, que em poucos anos se tornaram, senão um substituto, um complemento dos desktops e notebooks.

Detalhar essa evolução foge às possibilidades desta postagem, sem mencionar que a extensão do texto tornaria a leitura cansativa para os gatos pingados que acessam este humilde Blog. Portanto, vou trocar tudo em miúdos, começando por lembrar que o ábaco, criado no Egito dos faraós, é considerado o pai do computador, e o UNIX, desenvolvido em meados do século passado, o pai de todos os sistemas operacionais.

Muita areia escoou pela ampulheta do tempo desde o surgimento da jurássica moldura com bastões paralelos com contas deslizantes (cuja criação muitos atribuem aos chineses). A primeira calculadora mecânica de que se tem notícia foi idealizada pelo matemático Blaise Pascal, no século XVII, e aprimorada mais adiante, pelo alemão Gottfried Leibniz, com a capacidade de multiplicar e dividir, e tempos depois o Tear de Jacquard serviria de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir tabelas científicas, que seria o precursor do tabulador estatístico de Herman Hollerith (cuja empresa se tornaria a gigante IBM).

Em meados do século passado, pesquisadores da Universidade da Pensilvânia construíram o primeiro computador digital eletrônico uma monstruosidade de 18 mil válvulas e 30 toneladas que produziu um enorme blecaute ao ser ligado pela primeira vez. Batizado de ENIAC, o portento era capaz de realizar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 90 superaria com facilidade. Suas válvulas queimavam a razão de uma cada dois minutos, e sua memória interna era suficiente apenas para manipular os dados envolvidos na tarefa em execução; qualquer modificação exigia que os operadores, que também eram programadores, corressem de um lado para outro da sala, desligando e religando centenas de chaves e cabos.

Acomodar os imensos mainframes dos anos 1950/60 exigia o espaço de salas ou andares inteiros. Como os sistemas operacionais ainda não existiam, os operadores controlavam esses monstrengos por meio de chaves, fios e luzes de aviso. Mais adiante, os batch systems (sistemas em lote) já permitiam que cada programa fosse escrito em cartões perfurados e carregado, juntamente com o respectivo compilador, mas não havia padronização de arquitetura e cada máquina usava um sistema operacional específico. Pelo menos até o Unix mudar esse quadro, como veremos ao longo desta sequência.

O primeiro sistema operacional realmente funcional foi criado pela General Motors para controlar o IBM 704. Com o tempo, diversas empresas desenvolveram sistemas para seus mainframes, e algumas se especializaram em produzi-los para terceiros. O mais famoso foi EXEC, escrito para operar o UNIVAC — computador que fez muito sucesso entre os anos 50 e 60, principalmente por ser pequeno e barato (para os padrões da época, já que o troço era do tamanho de um guarda-roupas), o que propiciou sua adoção por universidades e pequenas empresas.

Observação: As funções do sistema operacional são, basicamente, servir de “ponte” entre o hardware e o software, gerenciar os programas, definir os recursos destinados a cada processo e criar uma interface amigável com o usuário. É ele quem “reconhece” os componentes de hardware, quem gerencia os processos, os arquivos, a memória, os periféricos, quem decide quais programas em execução devem receber a atenção do processador, etc., e está presente não só nos PCs e assemelhados, mas em praticamente tudo que tenha um microchip e rode aplicativos, de automóveis a televisores, de consoles de videogames a relógios digitais. Graças à internet das coisas (IoT), o Linux marca presença em lâmpadas, geladeiras, smartphones e até rifles do exército norte-americano.

O primeiro microcomputador foi o Altair 8800, lançado em meados dos anos 1970 e comercializado na forma de kit (ou seja, a montagem ficava a cargo do consumidor). Era mais uma curiosidade do que algo realmente útil, ao menos até que Bill Gates e Paul Allen criarem para ele um “interpretador” escrito na linguagem BASIC e batizado de Microsoft-BASIC, que não era um SO como os usados nos mainframes de então, mas foi o precursor dos sistemas operacionais para microcomputadores. O MIT, a General Eletric e a AT&T criaram uma força tarefa para desenvolver o MULTICS, mas abandonou o projeto após uma década de trabalho. Em 1969, Ken Thompson, ex-integrante da equipe, criou o UNICS — uma versão menos ambiciosa escrita em Assembly, que foi posteriormente reescrita em C pelo próprio Thompson e por Dennis Ritchie (criador da linguagem C) e rebatizada como UNIX. Seu kernel (núcleo) logo passou a servir de base para outros sistemas operacionais, dentre os quais o BSD, o POSIX, o MINIX, o FreeBSD e o Solaris, para ficar nos mais conhecidos.

O sucesso do Altair levou a Apple a investir no segmento de computadores pessoais. O Apple II, lançado em 1977, já contava com um Disk Operating System (ou DOS — acrônimo que integra o nome de diversos sistemas operacionais, como o Free DOS, o PTS-DOS, o DR-DOS etc.). Como a máquina vinha montada, trazia um teclado integrado e tinha a capacidade de reproduzir gráficos coloridos e sons, muitos a consideram o “primeiro computador pessoal moderno”.

Observação: Steve Jobs foi pioneiro na adoção da interface gráfica, com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse — tecnologia de que a XEROX já dispunha havia algum tempo, mas nunca explorou devidamente porque só tinha interesse em computadores de grande porte. Aliás, quando Microsoft lançou o Windows, que inicialmente era uma interface gráfica que rodava no MS-DOS, a Apple já estava anos-luz à sua frente, a despeito de a arquitetura fechada, o software proprietário e o alto custo de produtos da marca da Maçã limitarem sua participação no mercado a um segmento de nicho.

De olho no sucesso da Apple, a IBM, então líder no âmbito dos mainframes, resolveu lançar o IBM-PC, com arquitetura aberta e sistema operacional desenvolvido pela Microsoft (que se tornariam padrão de mercado). Ressalte-se que, naquela época, a hoje Gigante do Software jamais havia escrito um sistema operacional, mas Bill Gates adquiriu de Tim Paterson (por US$ 50 mil) o QDOS, adaptou-o ao hardware da IBM e rebatizou-o como MS-DOS — e assim começou sua escalada ao topo do ranking dos homens mais ricos do planeta (hoje ele está em segundo lugar, com um patrimônio pessoal estimado pela Forbes em quase 100 bilhões de dólares).

O resto fica para a próxima postagem.

segunda-feira, 5 de novembro de 2012

A SUPREMACIA WINDOWS


Depois alguns leitores perguntam por que eu não edito o Blog nos finais de semanas e feriados... Diante da escassez de comentários e visualizações de páginas que mal se aproximam das de uma quarta-feira de bom movimento, publicar novas postagens é gastar boa vela com mau defunto, se me permitem usar uma expressão adequada ao feriado de finados. Enfim, passemos ao que interessa:

Reza a história que o computador nasceu do ábaco – criado há milhares de anos no antigo Egito – cuja desenvoltura na execução de operações aritméticas seria superada somente pela Pascalina, no século XVII. Já o “processamento de dados” só viria a tomar impulso dois séculos depois, com o Tear de Jacquard – primeira máquina mecânica programável –, que serviu de base para Herman Hollerith construir um tabulador estatístico com cartões perfurados.
Mais adiante surgiram o Analisador Diferencial de Claude Shannon, o Z1 de Konrad Zuze – tido e havido como o primeiro computador binário digital –, o Mark 1, o Z3, o Colossus, o ENIAC – portento de 18 mil válvulas e 30 toneladas, que produziu um enorme blecaute ao ser ligado, em 1946. Em seguida, vieram o EDVAC – já com memória, processador e dispositivos de entrada e saída de dados – e o UNIVAC – que utilizava fita magnética em vez de cartões perfurados –, mas foi o transistor que revolucionou a indústria dos computadores, notadamente a partir de 1954, quando seu custo de produção foi barateado pela utilização do silício como matéria prima. 
No final dos anos 1950, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094), mas foi a TEXAS INSTRUMENTS que deu à luz os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360 (lançado em 1964).
No início dos anos 1970, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microprocessadores, e daí à criação de equipamentos de pequeno porte foi um passo. Em poucos anos, surgiriam o ALTAIR 8800 (vendido sob a forma de kit), o PET 2001 (considerado o primeiro microcomputador pessoal) e os Apple I e II.
O sucesso estrondoso da Apple despertou o interesse da IBM nos microcomputadores, levando-a a lançar seu PERSONAL COMPUTER, cuja arquitetura aberta e a adoção do MS-DOS estabeleceram um padrão de mercado. Em resposta, a Empresa da Maçã incorporou a interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse – tecnologia de que a XEROX dispunha desde a década de 70 – num microcomputador revolucionário, que estava anos-luz à frente da IBM/Microsoft quando o Windows 2.0 chegou ao mercado.
Muita água rolou por baixa da ponte desde então. Em vez de aperfeiçoar o PC de maneira a utilizar o novo processador 80386 da INTEL, a IBM preferiu lançar o PS/2, com arquitetura fechada e proprietária. Mas a Compaq – que já vinha ameaçando destronar a rival – convenceu os fabricantes a continuar utilizando a arquitetura aberta, e o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas continuassem buscando desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já um sistema operacional autônomo), a estrela de Bill Gates brilhou mais forte, e o lançamento do Win 98 consagrou sua empresa como a “Gigante do Software”.
O resto é história recente: a arquitetura aberta se tornou padrão de mercado, o Windows se firmou como o SO mais utilizado em todo o mundo: hoje, de acordo com a NETMARKETSHARE, as edições XP, Vista e Seven, somadas, açambarcam 92% do mercado de sistema operacionais (veja mais detalhes no gráfico ao lado).
Segundo a Microsoft, a demanda pelo Eight já superou a verificada na época de lançamento do seu predecessor, e tudo indica que seu futuro seja alvissareiro, considerando que, desde seu lançamento, em 2009, o Seven já vendeu quase 700 milhões de cópias. É mole ou quer mais?
Um ótimo dia a todos.

terça-feira, 28 de outubro de 2025

DO SMARTPHONE AO NOTEBOOK

OUÇA CONSELHOS, MAS JAMAIS ABRA MÃO DE SUA PRÓPRIA OPINIÃO.

Não se sabe se o ábaco surgiu na China, no Egito ou na Mesopotâmia, mas sabe-se que ele foi criado milhares de anos antes da era cristã e que sua desenvoltura na execução de operações aritméticas só foi superada no século XVII, quando Blaise Pascal criou uma engenhoca que Gottfried Leibniz aprimorou com a capacidade de multiplicar e dividir. 

Já o processamento de dados teve início no século XVII com o Tear de Jacquard  e evoluiu com o tabulador estatístico criado por Herman Hollerith — cuja empresa daria origem à gigante IBM. No início dos anos 1930, Claude Shannon aperfeiçoou um dispositivo de computação movido a manivelas mediante a instalação de circuitos elétricos baseados na lógica binária. Mais ou menos na mesma época, Konrad Zuse criou o Z1 — primeiro computador binário digital. 

CONTINUA DEPOIS DA POLÍTICA

Enquanto a defesa de Bolsonaro se equipa para usar o caso Collor como pretexto para evitar que seu cliente seja trancado na penitenciária da Papuda, os deuses da jurisprudência oferecem um espetáculo que desmoraliza o caráter "humanitário" da prisão domiciliar em três atos.

No primeiro, Collor, condenado a 8 anos e 10 meses de prisão em regime inicial fechado, foi autorizado a cumprir a pena em sua mansão na orla de Maceió depois de passar uma semana em um presídio alagoano. No segundo, sua tornozeleira eletrônica saiu do ar por 36 horas. No terceiro, o apagão do monitoramento ocorreu nos dias 2 e 3 de maio, mas o Centro de Monitoramento Eletrônico de Pessoas de Alagoas demorou cinco meses para comunicar a falha ao STF.

Graças a uma trapaça do destino, o relator do processo de Collor é Alexandre de Moraes, o mesmo que cuida do caso da trama do golpe. Abespinhado, o magistrado exigiu explicações. A resposta veio na última sexta-feira (24). A Secretaria de Ressocialização e Inclusão Social do governo de Alagoas alegou que desconhecia o e-mail do gabinete de Moraes. Superada a dúvida quanto à origem e à segurança da comunicação, as providências cabíveis foram imediatamente adotadas, com o envio integral dos relatórios requisitados ao e-mail.

A honestidade preenche requerimento, marca hora e leva chá de cadeira. A corrupção sempre encontra seus atalhos. Num mundo convencional, o endereço eletrônico de Moraes poderia ser obtido com um simples telefonema. No universo dos privilegiados, a coisa é diferente.

Na prática, o governo de Alagoas coloca Moraes em posição constrangedora. O ministro havia ameaçado devolver Collor ao presídio. Os responsáveis por monitorar o trânsito do "preso" entre a sauna e a piscina do seu elegante domicílio prisional pedem ao ministro que faça o papel de bobo em benefício do bem-estar do condenado.

Os homens nunca foram iguais, mas não eram tão desiguais até que veio a civilização. E alguns viraram Collor, que desfrutou da impunidade por 33 anos. Denunciado por assaltar R$20 milhões de um cofre da Petrobras em gestões petistas, demorou oito anos para ser condenado. Embora a sentença fosse suprema, ficou solto por dois anos após a condenação.

Poucas horas depois da detenção de Collor, sua defesa encaminhou petição a Moraes alegando que seu cliente tem 75 anos e é atormentado por doença de Parkinson, apneia grave do sono e transtorno afetivo bipolar — moléstias que exigiriam cuidados contínuos e acompanhamento médico especializado, coisas indisponíveis na cadeia.

A defesa esqueceu de combinar a estratégia com o paciente. Na audiência de custódia que antecedeu o encarceramento, Collor, sorridente, vendia saúde. Acompanhado de um dos seus advogados, foi interrogado por videoconferência pelo juiz Rafael Henrique, da equipe de Moraes. A certa altura, o doutor perguntou: "O senhor tem alguma doença, faz uso de algum medicamento de uso contínuo?" E Collor, categórico: "Não".

Os advogados omitiram que o Rei Sol talvez sofresse de uma amnésia que o levava a esquecer dos outros males que o afligiam. De repente, surgiram os atestados médicos que justificavam a concessão da prisão domiciliar em caráter "humanitário", abrindo um atalho que os advogados de Bolsonaro certamente trilharão.

O Brasil não perde a oportunidade de perder oportunidades para qualificar o seu sistema prisional. Há três décadas, Collor vangloriava-se no Planalto de ter "colhões roxos" — expressão precursora do célebre "imbrochável." Quando vende saúde, a desqualificação é poupada. Quando finalmente é condenado, o desqualificado alega que não pode servir de exemplo para a qualificação das cadeias.

O ex-presidente da França Nicolas Sarkozy, 70, foi condenado por aceitar contribuições espúrias do antigo ditador líbio Muammar Kadafi para a campanha eleitoral da qual saiu vitorioso, em 2007. Preso na semana passada, cumprirá pena de cinco anos na penitenciária La Santé, em Paris, trancafiado na ala de isolamento de uma das prisões mais seguras da França.

Enquanto isso, o brasileiro é como que condenado a conviver com uma dúvida perpétua: os criminosos de grife vão para a cadeia nos países ricos porque as cadeias são melhores ou as cadeias são melhores porque a elite as frequenta? 

Nas pegadas de Collor, o Brasil está na bica de desperdiçar com Bolsonaro mais uma chance de aprimorar as instalações e os serviços de suas prisões com a qualificação progressiva da população carcerária.

A II Guerra Mundial deu azo ao surgimento do Mark I, do Z3 e do Colossus. Na década seguinte, pesquisadores da Universidade da Pensilvânia construíram o ENIAC, que teria causado um formidável apagão quando foi ligado pela primeira vez (talvez isso não passe de lenda urbana, mas houve realmente flutuações e quedas de energia pontuais na Filadélfia, mesmo porque o monstrengo consumia 10% da capacidade total da rede elétrica da cidade). 

Embora fosse um monstrengo de 18 mil válvulas e 30 toneladas, ele era capaz de realizar "apenas" 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo — uma performance incrível para a época, mas que qualquer videogame dos anos 1990 já superava com um pé nas costas. Suas válvulas queimavam à razão de uma a cada dois minutos, e como sua memória interna só comportava os dados da tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando dezenas de cabos.

 

O EDVAC veio à luz em 1947, já com memória, processador e dispositivos de entrada e saída de dados. Foi seguido pelo UNIVAC, que utilizava fita magnética em vez de cartões perfurados. Mas foi o advento do transistor que revolucionou a indústria dos computadores — notadamente a partir de 1954, quando o uso do silício como matéria-prima barateou significativamente os custos de produção.


Os primeiros mainframes totalmente transistorizados foram lançados pela IBM no final dos anos 1950. Na década seguinte, a Texas Instruments revolucionou o mundo da tecnologia com os circuitos integrados, compostos por conjuntos de transistores, resistores e capacitores, e usados com sucesso no IBM 360 (lançado em 1964). Já no início dos anos 1970, a Intel desenvolveu uma tecnologia capaz de agrupar vários circuitos integrados (CIs) numa única peça silício, dando origem aos microprocessadores e viabilizando o surgimento do Altair 8800 (vendido sob a forma de kit e responsável, ainda que indiretamente, pela fundação da Microsoft), do PET 2001 (lançado em 1976 e considerado o primeiro microcomputador pessoal) e dos Apple I e II (este último já com unidade de disco flexível).

 

O sucesso estrondoso da Apple incentivou a IBM a criar seu PC (acrônimo de Personal Computer), cuja arquitetura aberta e a adoção do MS-DOS acabaram se tornando padrão de mercado. A primeira interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse foi criada pela Xerox e incorporada ao LISA por Steve Jobs. Quando a Microsoft lançou sua interface gráfica que rodava sobre o MS-DOS, a Apple já estava anos-luz à frente, mas foi o Windows, e não o macOS, que se tornou o sistema operacional para microcomputadores mais popular do planeta.

 

Tudo isso para dizer que o que hoje chamamos de computador — seja um desktop, um notebook, um smartphone ou um tablet — evoluiu ao longo dos séculos em etapas que misturam avanços científicos, engenhocas eletromecânicas e uma boa dose de ousadia criativa. No início, eram máquinas enormes, barulhentas e com um apetite pantagruélico por energia. Os primeiros sequer tinham disco rígido, quanto mais mouse, tela colorida ou sistema operacional amigável, e a interação com o usuário era feita por meio de cartões perfurados, fitas magnéticas e comandos crípticos. Mas já dizia o poeta que não há nada como o tempo para passar.

 

Microcomputadores rudimentares, mas já voltados ao consumidor final (como Apple I, Commodore 64 e afins) surgiram nos anos 1970 e começaram a se popularizar entre os usuários domésticos em meados dos anos 1990. Na década seguinte, os "micros" (como as pessoas chamavam seus PCs) já tinham presença garantida em escritórios, escolas e lares de classe média. Os laptops vieram logo depois, seguidos pelos netbooks e, mais adiante, pelos ultrabooks — versões mais compactas e baratas que sacrificavam desempenho em nome da mobilidade.

 

Meu primeiro portátil — um Compaq Evo n1020v Intel Celeron 1,7 GHz/20 GB/128 MB — custou R$ 4,4 mil no início de 2003 (cerca de R$ 12 mil, se atualizado pelo IGPM, ou R$ 30,4 mil, pela variação do salário-mínimo). Hoje, notebooks de entrada custam a partir de R$ 3 mil, como é o caso do IdeaPad 1 da Lenovo, que integra um chip AMD Ryzen 3 7320U e tela grande (15,6 polegadas). Mas ele vem com míseros 4 GB de RAM e SSD de 256 GB, sem falar que no sistema operacional, que é uma distro Linux.

 

Atualmente, qualquer smartphone básico tem mais "poder de fogo" do que os computadores que levaram o homem à Lua — o que explica, pelo menos em parte, por que desktops e notebooks foram relegados a situações que exigem telas de grandes dimensões, teclado e mouse físicos, além de processamento, memória e armazenamento superiores aos que os "pequenos notáveis" de entrada e intermediários conseguem oferecer. Mas quem precisa de um note para fazer o que não consegue fazer com o celular terá de investir cerca de R$ 4 mil num Samsung Galaxy Book 4, por exemplo, que integra um processador Intel Core i3-1315U, 8 GB de RAM, 256 GB de SSD — e vem de fábrica com o Windows 11.

 

Se você quer portabilidade sem abrir mão de uma tela grande e hardware potente, o Galaxy Book 4 Ultra oferece painel AMOLED de 16 polegadas com resolução QHD e taxa de atualização de 120 Hz, Intel Core Ultra 9-185H e Nvidia GeForce RTX 4070 — suficientes para rodar a maioria dos jogos atuais sem problemas —, além de respeitáveis 32 GB de RAM e 1 TB de SSD. Mas não espere pagar menos de R$ 10 mil por essa belezinha.

 

Por último, mas não menos importante: quem é fã do iOS não tem como não gostar do macOS — e, se é para mudar de sistema operacional, nada como fazê-lo em grande estilo. O Apple MacBook Pro M4 é capaz de executar com desenvoltura tarefas exigentes como edição de vídeo, gráficos 3D, desenvolvimento de IA e até simulações científicas. 


Ele oferece ampla gama de portas para periféricos e monitores externos — incluindo três portas USB-C/Thunderbolt 5 e uma HDMI 2.1 —, não esquenta e praticamente não faz barulho. No entanto, como a RAM e a unidade de armazenamento vêm soldadas à placa-mãe, convém escolher a melhor configuração que o bolso suportar, já que upgrades de hardware estão fora de cogitação.

sábado, 8 de junho de 2024

DICAS PARA MANTER O DESEMPENHO DO CELULAR NOS TRINQUES

É MAIS FÁCIL ALGUÉM SE PERDER QUANDO ACHA QUE SABE O CAMINHO.

O ancestral mais remoto da calculadora surgiu na Mesopotâmia
 há cerca de 5.000 anos, mas o primeiro "cérebro eletrônico" só foi apresentado ao mundo em 1946. Batizado de ENIAC (acrônimo de Electronic Numerical Integrator And Computer), gigantesco mainframe de 30 toneladas ocupava 180 m² e integrava 70.000 resistores e 18.000 válvulas termiônicas — que queimavam à razão de uma a cada 2 minutos. 

Observação: O blackout que ele teria causado quando foi ligado pela primeira vez pode até ser uma lenda urbana, mas sabe-se que houve flutuações e quedas de energia pontuais na Filadélfia, até porque o monstrengo consumia 10% da capacidade total da rede elétrica da cidade.

CONTINUA DEPOIS DA POLÍTICA

Errar é humano e a vaidade afeta a todos, mas nunca antes na história deste país os ministros do STF demonstraram tanta capacidade de cometer erros em consequência de situações pessoais que influenciam suas decisões. À medida que se afastam da letra da lei para ampliar ou restringir seu entendimento, as togas aumentam o próprio poder, e o poder embriaga. Houve na triste história recente desta banânia momentos que exigiram reações prontas e assertivas para evitar que nossa frágil e democracia se estilhaçasse. Mas a concentração de tanto poder nas mãos de uma única pessoa torna a pessoa todo-poderosa, e os todo-poderosos tendem para o autoritarismo. 

Situações desesperadoras exigem medidas desesperadas. Houve decisões autoritárias condizentes a gravidade de momento. À medida que a radicalização cresceu, instigada por um golpista aspirante a tirano e seus asseclas, foi preciso pôr ordem no galinheiro. Mas o poder inebria e, por vezes, tolda a visão. Daí uma toga que defendia a hoje finada mas então pujante Lava-Jato tornar-se um de seus mais ferrenhos desafetos. Outra, ao ouvir comentários desairosos sobre seus conhecimentos jurídicos feitos pelos procuradores de Curitiba, mudou seu voto para condenar o ex-juiz Moro. Uma terceira, identificada como "amigo do amigo de meu pai" pelo empreiteiro Marcelo Odebrecht, saiu anulando todas as provas contra o filho do amigo do amigo, desmentindo até as confissões do próprio. Em suma, suas excelências foram cometendo os mesmos erros de que acusavam a força-tarefa: prisões alongadas; conflitos de interesses; acusações sem provas; uso de instâncias judiciais para vinganças pessoais; e por aí segue a procissão. 

Mas enquanto há vida há esperança. Com os ministros Barroso na presidência do STFCármen Lúcia — única mulher na composição atual da corte suprema — no comando do TSE, teremos pelos próximos dois anos duas togas aparentemente equilibradas e supostamente comprometidas com a democracia. Resta saber se o cenário alvissareiro que ora se delineia irá realmente prosperar.


Os primeiros "microcomputadores" pessoais foram criados nos anos 1960 
 mas só se popularizaram entre os usuários domésticos quase 30 anos depois  e os smartphones, em 2007, nas pegadas do iPhone

Com o aumento da demanda por mobilidade, os tradicionais PCs de mesa estão fadados a se tornar "produtos de nicho". Dispositivos híbridos — como notebooks com poder de processamento comparável ao dos desktops — só continuam vendendo porque oferecem "o melhor de dois mundos", mas um levantamento feito pela FGV em 2023 apontou que 70% dos 364 milhões de dispositivos digitais portáteis ativos no Brasil são smartphones (média de 1,2 por habitante). 
 
A exemplo de seus "irmãos maiores", o smartphone é controlado por um sistema operacional, o que o torna suscetível a pragas digitais, bugs e travamentos. Muita coisa mudou desde o velho DOS e as primeiras versões do Windows, mas nem os usuários das encarnações mais recentes do sistema da Microsoft escapam de mensagens de erro, travamentos e telas azuis da morte (como bem sabe quem se aventurou a adotar o Win11 numa máquina de configuração espartana). 
 
Observação: Se a Microsoft produzisse carros, alfinetou Bill Gates nos anos 1990, os veículos custariam US$ 25 dólares e rodariam 1.000 milhas com um galão de gasolina. Em sua 
resposta, a GM disse que o motor dos "MS-Cars" morreria frequentemente, obrigando o motorista a descer do veículo, trancar as portas, destrancá-las e tornar a dar a partida para poder seguir viagem (numa alusão clara aos irritantes travamentos do Windows, que exigiam frequentes reinicializações).
 
Enquanto desktops e notebooks permitem "infinitas" combinações de CPUs, placas-mãe, módulos de memória RAM, HDDs, SSDs etc., os smartphones são dispositivos integrados, com hardware e software projetados para trabalhar em conjunto e funcionar de maneira otimizada. Os aplicativos projetados para eles são mais leves e menos exigentes em termos de recursos de hardware, e o gerenciamento é mais eficiente: o próprio sistema se encarrega de manter o desempenho do aparelho em patamares aceitáveis suspendendo ou encerrando programas em segundo plano. 
 
Todo dispositivo controlado por um SO precisa ser desligado de tempos em tempos, quando mais não seja porque a reinicialização encerra os processos que podem estar causando lentidão, esgota a energia dos capacitores e esvazia as memórias voláteis (mais informações nesta postagem),  reinicialização esgota a energia dos capacitores, esvazia as memórias voláteis. Os smartphones podem permanecer ligados ininterruptamente por mais tempo que "seus irmãos maiores", mas também se beneficiam de um "saudável refresh", e como a bateria recarrega em menos tempo com o aparelho desligado, por que não "unir o útil ao agradável"?

Android dispõe de um vastíssimo ecossistema de aplicativos, mas você deve instalar somente o que for usar, e baixá-los exclusivamente da Google Play Store ou da loja de apps do fabricante do seu aparelho. Recorrer ao root para usar APKs de desenvolvedores desconhecidos é um convite para o malware, e o mesmo se aplica a permissões desnecessárias concedidas a apps suspeitos: por que diabos um gravador de voz precisa acessar sua conta de email ou sua lista de contatos?  
 
Uma manutenção como manda o figurino pode deixar o sistema até 60% mais rápido, e ferramentas como Du Speed Booster e Speed Up Expert ajudam a corrigir alterações involuntárias, facilitam a limpeza do cache e o gerenciamento dos apps e removem restos de códigos e arquivos inúteis que costumam ficar armazenados na memória interna. 
 
Continua...

quarta-feira, 28 de junho de 2017

VOCÊ CONHECE SEU PC? ― Parte II

POBRE, QUANDO METE A MÃO NO BOLSO, SÓ TIRA OS CINCO DEDOS.

Foram milhares de anos até o computador evoluir do ÁBACO ― criado há mais de 3.000 anos no antigo Egito ― para a PASCALINA ― geringonça desenvolvida no século XVII pelo matemático francês Blaise Pascal e aprimorada mais adiante pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de somar e dividir. Mas o “processamento de dados” só viria com o Tear de Jacquard ― primeira máquina programável ―, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir tabelas científicas, precursor do tabulador estatístico de Herman Hollerith, cuja empresa viria se tornar a gigante IBM.

Nos anos 1930, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, e alemão Konrad Zuze criou o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou os EUA, a Alemanha e a Inglaterra a investir no desenvolvimento do Mark 1, do Z3 e do Colossus, e, mais adiante, com o apoio do exército norte-americano, pesquisadores da Universidade da Pensilvânia construírem o ENIAC ― um monstrengo de 18 mil válvulas e 30 toneladas que produziu um enorme blecaute ao ser ligado, em 1946, e era capaz somente de realizar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo ― uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

EDVAC, criado no final dos anos 1940, já dispunha de memória, processador e dispositivos de entrada e saída de dados, e seu sucessor, o UNIVAC, usava fita magnética em vez de cartões perfurados, mas foi o transistor que revolucionou a indústria dos computadores, quando seu custo de produção foi barateado pelo uso do silício como matéria prima. No final dos anos 1950, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e mais adiante a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360, lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microchips, e daí à criação de equipamentos de pequeno porte foi um passo. Vieram então o ALTAIR 8800, vendido sob a forma de kit, o PET 2001, lançado em 1976 e tido como o primeiro microcomputador pessoal, e os Apple I e II (este último já com unidade de disco flexível).

O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de “personal computer”), cuja arquitetura aberta e a adoção do MS-DOS, da Microsoft, se tornaram um padrão de mercado. De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse ― tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte ―, a empresa de Steve Jobs fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. Aliás, quando Microsoft lançou o Windows ― que inicialmente era uma interface gráfica que rodava no DOS ― a Apple já estava anos-luz à frente.

Para encurtar a história, a IBM preferiu lançar seu PS/2, de arquitetura fechada e proprietária, a utilizar então revolucionário processador 80386 da INTEL, mas Compaq convenceu os fabricantes a continuar utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas buscassem desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já não mais uma simples interface gráfica, mas um sistema operacional autônomo, ou quase isso), a estrela de Bill Gates brilhou, e o festejado Win98 sacramentou a Microsoft como a “Gigante do Software”.

O resto é história recente: a arquitetura aberta se tornou padrão de mercado, o Windows se firmou como sistema operacional em todo o mundo (a despeito da evolução das distribuições LINUX e da preferência de uma seleta confraria de nerds pelos produtos da Apple) e a evolução tecnológica favoreceu o surgimento de dispositivos de hardware cada vez mais poderosos, propiciando a criação de softwares cada vez mais exigentes.

Enfim, foram necessários milênios para passarmos do ábaco aos primeiros mainframes, mas poucas décadas, a partir de então, para que "pessoas comuns" tivessem acesso aos assim chamados computadores pessoais ― ou microcomputadores ―, que até não muito tempo atrás custavam caríssimo e não passavam de meros substitutos da máquina de escrever, calcular, e, por que não dizer, do baralho de cartas e dos então incipientes consoles de videogame. Em pouco mais de três décadas, a evolução tecnológica permitiu que os desktops e laptops das primeiras safras diminuíssem de tamanho e de preço, crescessem astronomicamente em poder de processamento, recursos e funções, e se transformassem nos smartphones e tablets atuais, sem os quais, perguntamo-nos, como conseguimos viver durante tanto tempo.

Continuamos no próximo capítulo. Até lá.

SOBRE MICHEL TEMER, O PRIMEIRO PRESIDENTE DENUNCIADO NO EXERCÍCIO DO CARGO EM TODA A HISTÓRIA DO BRASIL.

Michel Temer já foi de tudo um pouco nos últimos tempos. De deputado federal a vice na chapa da anta vermelha; de presidente do PMDB (por quinze anos) a presidente da Banânia; de depositário da nossa esperança de tornar a ver o país crescer a “chefe da quadrilha mais perigosa do Brasil”; e de tudo isso a primeiro presidente do Brasil a ser denunciado no exercício do cargo.

Joesley Batista, o megamoedor de carne que multiplicou seu patrimônio com o beneplácito da parelha de ex-presidentes petistas ― que sempre valorizaram meliantes como Eike Batista e o próprio Joesley (é curiosa a coincidência no sobrenome, mas acho que não passa disso) ―, promoveu Temer ao lugar que, por direito, pertence a Lula, e a este atribuiu “somente” a institucionalização da corrupção na política tupiniquim.

Há quem afirme que a promoção de Temer foi inoportuna e despropositada. Afinal, não foi ele quem sequestrou e depenou o Brasil durante 13 anos, ou roubou o BNDES e passou uma década enfiando bilhões de dólares na Friboi ― que acabou se tornando a gigante J&F, controladora da maior processadora de proteína animal do planeta. Tampouco foi ele quem torturou São José Dirceu para forçá-lo a reger na Petrobras o maior assalto da história do ocidente, recebeu uma cobertura tríplex no Guarujá da OAS de Leo Pinheiro e, ao ser pego com as calças na mão e manchas de batom na cueca, atribuiu a culpa à esposa Marisa, digo, Marcela).

Gozações à parte, as opiniões divergem quanto à delação de Joesley e companhia. Há quem ache que a contrapartida dada pelo MPF e avalizada por Fachin foi exagerada (a despeito da multa bilionária que os delatores terão de pagar, que representa a punição mais “dolorosa” para gente dessa catadura). Outros, como certo ministro do Supremo e presidente do TSE, reprovam o acordo por serem sistematicamente contrários à Lava-Jato e às delações premiadas, às prisões preventivas prolongadas (sem as quais a Lava-Jato nem existiria, ou, se existisse, ainda estaria engatinhando). Felizmente, 7 dos 11 ministros do STF já se votaram pela manutenção de Fachin na relatoria dos processos oriundos da delação da JBS e pela validade da delação propriamente dita (assunto que eu detalhei na semana passada).

O fato é que o peemedebista se apequena mais a cada dia, o que não ajuda em nada o país, como bem sabem os que acompanharam os estertores dos governos Sarney e Collor e de Dilma. Com novas denúncias e acusações surgindo regularmente, o presidente está acossado, fragilizado politicamente e, por que não dizer, mais preocupado com articulações políticas visando à sua defesa do que com a aprovação das tão necessárias reformas que se predispôs a capitanear.

Na última segunda-feira, Temer juntou ao seu invejável currículo a experiência inédita de ser denunciado por corrupção ainda no exercício do cargo (até hoje, nenhum presidente brasileiro havia sido agraciado com tal honraria, embora quase todos tenham feito por merecê-la). E novas denúncias virão em breve, até porque Janot resolveu não pôr todos os ovos na mesma cesta. Como a denúncia passa pela CCJ da Câmara e pelo plenário da casa antes de ser julgada no STF, o Planalto moverá mundos e fundos para barrar o processo, de modo que o fatiamento serve para a PGR ganhar tempo, visando à possibilidade de novos fatos mudarem os ventos no Congresso. A meu ver, bastaria que a voz das ruas voltasse a roncar como roncou no ano passado, durante o impeachment de Dilma, para que a sorte do presidente fosse selada, mas quem sou eu, primo?

Talvez seja mesmo melhor a gente ficar com diabo que já conhece. Nenhuma liderança expressiva surgiu no cenário até agora, e a perspectiva de Rodrigo Maia assumir o comando do País não é das mais alvissareiras. Demais disso, eleições diretas, neste momento, contrariam flagrantemente a legislação vigente, e interessariam apenas a Lula e ao PT, que se balizam na tese do "quanto pior melhor".  

O molusco indigesto continua encabeçando as pesquisas de intenção de voto, mesmo atolado em processos e prestes a receber sua primeira (de muitas) condenações (veja detalhes na postagem anterior). Mas não se pode perder de vista que isso se deve em grande parte ao fato de ele ser o mais conhecido entre os pesquisados, e que isso lhe assegura também o maior índice de rejeição. Enfim, muita água ainda vai rolar por debaixo da ponte até outubro do ano que vem. Se as previsões se confirmarem, Moro deve condenar o sacripanta dentro de mais alguns dias, e uma possível confirmação da sentença pelo TRF-4 jogará a esperada pá de cal nessa versão petista de conto do vigário.

Infelizmente, deixamos escapar a chance de abraçar o parlamentarismo no plebiscito de 1993 (graças à absoluta falta de esclarecimento do eleitorado tupiniquim), e agora só nos resta lidar com a quase impossibilidade de defenestrar um presidente da República, mesmo que ele já não tenha a menor serventia ou que esteja envolvido em práticas pouco republicanas (haja vista os traumatizantes impeachments de Collor e de Dilma). 

Estão em andamento algumas tentativas de tapar o sol com peneira, como a PEC do Senador Antonio Carlos Valadares (PSB/SE), aprovada no último dia 21 pela CCJ do Senado, que inclui na Constituição a possibilidade revogação do mandato do presidente, vinculada à assinatura de não menos que 10% dos eleitores que votaram no último pleito (colhidas em pelo menos 14 estados e não menos de 5% em cada um deles).

De acordo com o texto aprovado, a proposta será apreciada pela Câmara e pelo Senado, sucessiva e separadamente, e precisará do voto favorável da maioria absoluta dos membros de cada uma das Casas. Garantida a aprovação, será então convocado referendo popular para ratificar ou rejeitar a medida. O projeto prevê ainda que será vedada a proposta de revogação durante o primeiro e o último ano de governo e a apreciação de mais de uma proposta de revogação por mandato.

Por hoje é só, pessoal. Até a próxima.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/