Mostrando postagens classificadas por relevância para a consulta não integralmente, ou não haveria. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta não integralmente, ou não haveria. Ordenar por data Mostrar todas as postagens

segunda-feira, 21 de outubro de 2019

CONHEÇA MELHOR SEU PC — PARTE IV


A VIDA É COMO O GELO FINO SOBRE O QUAL PATINAMOS ATÉ O DIA EM QUE CAÍMOS.

Recapitulando: se você não abre mão de desempenho deve investir num PC de ponta, com CPU poderosa, fartura de RAM e SSD com um latifúndio de espaço, mas tenha em mente que um processador Intel Core i9 Extreme custa mais de R$ 10 mil (note que não estou falando num PC equipado com esse portento, pura e simplesmente no processador).

Quem não está com essa bola toda deve buscar uma configuração que privilegie a memória RAM (atualmente, a quantidade recomendada é de 8 GB), mesmo que isso imponha a escolha de um processador menos poderoso — mas nada inferior a um Intel Core i5. Lembre-se: de nada adianta gastar rios de dinheiro num chip ultraveloz se os subsistemas de memória (física e de massa) não lhe oferecerem a necessária contrapartida.

Observação: Por memória de massa, entenda-se o dispositivo onde os dados são armazenados de forma persistente (não confundir com permanente), e por memória física, a RAM, para onde sistema, aplicativos e arquivos são transferidos (a partir da memória de massa) para serem executados e processados — claro que não integralmente, ou não haveria RAM que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes).

Como vimos, a memória virtual — solução paliativa (desenvolvida pela Intel no tempo dos 386, se bem me lembro) — emula memória física a partir de um arquivo de troca (swap file) criado no disco rígido, para onde o Gerenciador de Memória Virtual remete as sessões que não são prioritárias naquele momento, abrindo espaço na RAM, e as traz de volta quando necessário. Esse recurso foi aprimorado ao longo dos anos e é usado até hoje, mas o problema é que, por ele ser baseado no HDD, que é milhares de vezes mais lento que a já relativamente lenta memória RAM, seu impacto no desempenho global do computador é significativo.

Embora o preço da memória RAM tenha sofrido uma queda expressiva ao longo dos anos — um módulo de 8 GB de memória DDR-4 da Kingston custa, atualmente, pouco mais de US$ 50; no tempo dos vetustos PC 386, que vinham com míseros 2 MB de RAM (você leu certo: megabytes), pelo que se pagaria por 1 Gigabyte de RAM (claro que naquela época ninguém sequer sonhava que módulos com essa capacidade seriam vendidos um dia), daria para comprar, hoje, um carro popular zero quilômetro — PCs de entrada (leia-se de baixo custo) integram míseros 2 ou 3 gigabytes de RAM, o que não dá nem para o começo.   

Também como vimos, não é boa ideia entupir o computador de inutilitários; limite-se a instalar somente aquilo que você realmente for usar faça uma faxina de tempos em tempos. Aplicativos inúteis ou ociosos podem ser removidos com a ferramenta nativa do Windows — no Win10, clique em Iniciar > Configurações > Aplicativos > Aplicativos e Recursos —, mas eu sugiro utilizar ferramentas dedicadas, como o Revo Uninstaller ou o IObit Uninstaller, que eliminam a maioria das sobras que o desinstalador nativo do sistema costuma a deixar para trás.

Terminada a faxina, reinicie o computador e, no Windows 10, clique em Iniciar, expanda as Ferramentas Administrativas do Windows e clique em Limpeza do Disco. Feito isso, supondo que seu drive de armazenamento persistente seja eletromecânico, volte às Ferramentas Administrativas do Windows, clique em Desfragmentar e Otimizar Unidades, selecione a unidade em que o sistema se encontra instalado e dê início ao procedimento (que pode demorar de alguns minutos a horas e horas, dependendo do tamanho do drive, da quantidade de arquivos gravados e do índice de fragmentação dos dados; se você rodar o desfragmentador semanal ou quinzenalmente, as desfragmentações subsequentes demorarão bem menos tempo para ser concluídas).

Observação: Melhores resultados poderão ser obtidos também nesse caso com ferramentas de terceiros, como o Smart Defrag, que integra a suíte de manutenção IObit Advanced SystemCare, mas pode ser baixado e instalado isoladamente. Note que, a despeito de ser possível continuar trabalhando com o computador durante a desfragmentação, prefira executar a ferramenta quando a máquina estiver ociosa, a menos que não se importe em amargar uma lentidão irritante e aumentar expressivamente o tempo necessário para a conclusão da tarefa.

Desinstalados os aplicativos inúteis ou simplesmente dispensáveis e concluídas as etapas complementares sugeridas nos parágrafos anteriores, o próximo passo será checar quais programas remanescentes precisam realmente pegar carona na inicialização do Windows. Veremos isso em detalhes no próximo capítulo.

quinta-feira, 26 de maio de 2022

AINDA SOBRE APLICATIVOS, MEMÓRIA RAM E TASK KILLERS

PARA O TRIUNFO DO MAL, BASTA QUE OS BONS FIQUEM DE BRAÇOS CRUZADOS.

Computadores integram memórias de diversas tecnologias em quantidades variáveis, mas sempre expressas em múltiplos do byte. Assim, é comum as pessoas confundirem a RAM (memória física ou primária) com o HDD/SSD (memória de massa, ou secundária, ou ainda "armazenamento") do sistema. 

 

A título de contextualização, relembro que o bit (de “BInary digiT”) é a menor unidade de informação manipulada pelo computador. Oito bits formam um byte; 1 kB (quilobyte) equivale a 1024 bytes (ou meia página de texto); 1024 kB, a um megabyte (espaço suficiente para armazenar um quinto da obra de Shakespeare). Um gigabyte corresponde a 1024 MB (espaço suficiente para gravar um filme de uma hora de duração); 1.000 GB formam 1 terabyte (15 terabytes são suficientes para digitalizar toda a biblioteca do congresso dos EUA); 1024 TB perfazem 1 Petabyte (1/5 do conteúdo de todas as cartas distribuídas pelo correio norte-americano), e assim por diante. 

 

A RAM (de Random Access Memory) é a memória física (ou primária) do computador. Isso vale para desktops, notebooks, smartphones e tablets. É nela que que o software é carregado e os dados, processados. Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.  

 

Nos PCs, a memória de massa (ou secundária) é provida tradicionalmente por um disco rígido (os modelos mais recentes contam com drives de memória sólida). É nessa memória (e a partir dela) que os dados são carregados na RAM — claro que não integralmente, ou não haveria espaço que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). Para saber mais, leia esta sequência de postagens.

 

Costuma-se dizer que um computador é tão rápido quanto seu componente mais lento. No âmbito das memórias, a secundária é milhares de vezes mais lenta que primária, que por sua vez é muito mais lenta que o processador. Assim, uma máquina que dispuser de 8 GB de RAM e de um processador mediano será “mais rápida” do que outra que conte com um chip de topo de linha e míseros 2 GB de RAM. A questão é que a RAM é volátil, daí a necessidade de haver um dispositivo capaz de armazenar o software de forma “persistente”, ou seja, que retenha os dados mesmo depois que o computador for desligado.

 

Em tese, quanto mais memória física o computador tiver, mais "rápido" ele será. Para agilizar ainda mais o trabalho do processador, o cache de memória (ou memória cache, ou simplesmente cache), representado por uma pequena quantidade de memória RAM estática e ultraveloz (e bem mais cara do que a RAM convencional), armazena as informações e instruções que são acessadas mais frequentemente e outros dados que o sistema “prevê” que o processador terá de acessar em seguida.

 

O conceito de memória cache remonta aos tempo dos jurássicos 386, quando se constatou que a lentidão da RAM obrigava a CPU (isto é, o processador; a caixa que abriga os componentes internos do computador se chama "case" ou "gabinete") a desperdiçar preciosos ciclos de clock aguardando a liberação dos dados necessários à execução das tarefas. 


Fica mais fácil de entender se compararmos o computador a uma orquestra e o processador ao maestro. Para uma boa apresentação, não basta um regente competente. Na verdade, músicos qualificados, afinados e entrosados podem até mascarar as limitações de um maestro chinfrim, mas não o contrário. Guardadas as devidas proporções, isso se aplica à performance do computador, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados.

 

Embora pareça um contrassenso, cabe ao gerenciamento de memória do sistema operacional manter o uso da memória o mais alto possível. Primeiro, porque memória é hardware — a gente paga por ela quando compra o aparelho, e não utilizar aquilo pelo que se pagou é desperdício de dinheiro. Segundo, porque, como dito linhas acima, a RAM é muito mais rápida que a memória secundária, e mantê-la ocupada é aproveitar melhor o dinheiro que investimos na compra do aparelho. 

 

Uma CPU de ponta será subutilizada se contar com pouca memória RAM. Para evitar mensagens de “memória insuficiente” (comuns na pré-história da computação pessoal, quando éramos obrigados a encerrar um ou mais aplicativos para que outros pudessem ser carregados e executados), a Intel criou a memória virtual (ou “swap file”, como alguns preferem dizer), que consiste num espaço alocado na memória de massa para o qual o Gerenciador de Memória Virtual (VMM) transfere as seções que não são prioritárias naquele momento e de onde as traz de volta quando necessário.

 

Convém ter em mente que a memória virtual é apenas um paliativo, não um substituto eficiente da RAM, uma vez que (como também já foi mencionado) a memória de massa, mesmo quando representada por um SSD, é muitas vezes mais lenta do que a memória física, e a constante troca de arquivos degrada consideravelmente o desempenho global do sistema.

 

Continua na próxima postagem.

quarta-feira, 16 de fevereiro de 2022

AINDA SOBRE BATERIAS, REDE ELÉTRICA E QUE TAIS — CARREGADORES

POR MAIS DESAGRADÁVEIS QUE SEJAM, AS COISAS QUE NOSSOS INIMIGOS NOS DIZEM NA CARA NEM SE COMPARAM COM AS QUE NOSSOS AMIGOS DIZEM DE NÓS PELAS COSTAS.

Todo dispositivo computacional utiliza diversos tipos de memória, mas é na RAM que são carregados o sistema operacional, os aplicativos e demais arquivos — não integralmente, ou não haveria RAM que bastasse, mas, sim, divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). 

Quando rodamos um programa qualquer, seu executável é copiado da memória de massa (HDD ou SSD) — que, por ser “persistente”, preserva os dados depois que o aparelho é deligado — para a RAM, juntamente com algumas DLLs e arquivos de dados com os quais vamos trabalhar.

Por ser uma memória eletrônica de acesso aleatório, a RAM é muitas vezes mais “veloz” do que os discos eletromecânicos (nos quais a gravação e o acesso aos dados são feitos por cabeças eletromagnéticas). O problema é que ela é volátil, ou seja, só consegue preservar o conteúdo enquanto permanece energizada.

Por uma série de fatores que não vem ao caso detalhar nesta postagem, reinicializar o computador “esvazia” a RAM, pondo fim a instabilidades, travamentos e outros aborrecimentos que tendem a se manifestar quando o aparelho fica muito tempo ligado. E o mesmo raciocínio se aplica ao smartphone — que, em última análise, é um PC ultraportátil —, como também a modems, roteadores, impressoras, decodificadores de TV etc.

Muita gente  não desliga o celular — e depois reclama de conexão lenta, demora na execução de apps e instabilidades generalizadas. Considerando que não é recomendável usar o aparelho enquanto a bateria está sendo recarregada (quando mais não seja porque o consumo energético aumenta o tempo de recarga), sugiro desligá-lo sempre que ele for posto para carregar. Ninguém morre se ficar um hora sem ler mensagens no WhatsApp, sem mencionar que já existem carregadores ultrarrápidos (detalhes nesta postagem) que recarregam a bateria em alguns minutos.

Se seu aparelho não exibe uma mensagem ou emite um alerta sonoro de “carga completa”, monitore a recarga e desligue o carregador assim que o ícone da bateria indicar 100%. Carregadores originais (e modelos não originais, mas homologados pelos fabricantes de smartphones) reduzem a corrente ao mínimo quando a bateria está quase cheia e ativam um modo chamado “trickle charge”, que mantém o nível em 100% até que o carregador seja removido. 

Mal comparando, isso funciona como a boia de uma caixa d’água, que fecha a passagem quando o reservatório está cheio, evitando o transbordamento.

Continua.

quinta-feira, 14 de fevereiro de 2019

DE VOLTA À MEMÓRIA RAM - PARTE 7


É PRECISO MANTER A PÓLVORA SECA PARA O CASO DE SE PRECISAR DELA.

Vimos que o sistema e os aplicativos não são carregados integralmente na memória RAM, mas divididos em páginas ou em segmentos (pedaços do mesmo tamanho e pedaços de tamanhos diferentes, respectivamente), ou não haveria memória que bastasse. Isso só é possível porque os sistemas operacionais são construídos de forma modular, e cada módulo (Kernel, EscalonadorGerenciador de Arquivos, etc.) é carregado individual e seletivamente, conforme as necessidades.

Toda vez que ligamos o computador, o BIOS faz o POST (autoteste de inicialização), procura os arquivos de BOOT (conforme a sequência declarada no CMOS Setup), “carrega” o sistema na memória RAM e exibe a tradicional tela de boas-vindas. 

BIOS é a primeira camada de software do computador e fica gravado numa pequena porção de memória não volátil integrada à placa-mãe. O CMOS é um componente de hardware composto de um relógio permanente, uma pequena porção de memória volátil e uma bateria, que mantém essa memória volátil energizada, ou as informações que ela armazena se perderiam toda vez que o computador fosse desligado. O BOOT é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS e realiza o POST (autoteste de inicialização).Só então, e se tudo estiver nos conformes, o Windows é carregado e assume o comando da máquina.

Fazer o Setup nada mais é que configurar os parâmetros armazenados na memória do CMOS, de modo a permitir que o BIOS reconheça e gerencie adequadamente os componentes instalados, dê o boot e adote outros procedimentos básicos que envolvem o funcionamento do PC. Essa configuração consiste em oferecer respostas a uma longa sequência de perguntas num sistema de múltipla escolha, mas a boa notícia é que ela e feita na etapa final da montagem do computador e só é necessário refazê-la em situações específicas (após um upgrade abrangente de hardware, por exemplo). Claro que é possível reconfigurar o Setup para resolver problemas e/ou incrementar o desempenho do computador, mas isso só deve ser feito usuários avançados, pois modificações indevidas ou malsucedidas podem comprometer o funcionamento da máquina.

ObservaçãoBoot significa bota ou botina, mas virou sinônimo de inicialização devido à expressão “pulling oneself up by his own bootstraps” (içar a si mesmo pelos cordões das botinas), que, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”. Segundo alguns autores, isso vem do tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções mais complexas, e esse processo era conhecido como bootstrapping.

Voltando à influência da RAM no desempenho global do PC, vale relembrar uma analogia que eu faço desde que publiquei meus primeiros artigos sobre hardware na mídia impressa, lá pelo final do século passado: 

Se o computador fosse uma orquestra, o processador seria o maestro. Mas uma boa apresentação não depende apenas de um regente competente, mas também de músicos qualificados e entrosados entre si. Bons músicos podem até suprira as limitações de um maestro meia-boca, mas o contrário não é possível: por mais que o regente se descabele, a incompetência da equipe fatalmente embotará o brilho do concerto. Guardadas as devidas proporções, o mesmo se dá em relação ao PC, que depende de uma configuração equilibrada, com componentes adequados e balanceados

Em outras palavras, uma CPU de primeiríssima não será capaz de muita coisa se for assessorada por um subsistema de memórias subdimensionado. Mas não é só. PCs da mesma marca, modelo e idêntica configuração de hardware podem apresentar comportamentos diversos, pois o desempenho de cada depende também da configuração do Windows, da quantidade de aplicativos instalados, da maneira como eles são inicializados, da regularidade com que o usuário realiza manutenções preventivo-corretivas, e por aí vai. 

Máquinas de entrada de linha (leia-se baixo custo) costumam integrar processadores chinfrins, pouca memória e módulos genéricos, o que impacta negativamente no desempenho global do sistema. Isso sem mencionar o software fica mais exigente a cada dia. Para se ter uma ideia, enquanto o Win95 rodava com míseros 8 MB de RAM (isso mesmo, oito megabytes) o Windows 10 precisa de algo entre 6 e 8 GB para rodar com folga (a Microsoft, modesta quando lhe convém, fala em 1 GB para as versões de 32-bit2 GB para as de 64-bit, mas aí não sobra quase nada para os aplicativos).

Outra analogia de que gosto muito remete à dinâmica entre o processador, a RAM e o HDD. Vamos a ela:

Imagine o PC como um escritório e o processador como um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, esse incansável colaborador atende ligações, recebe informações, transmite instruções, elabora cartas e relatórios, responde emails e por aí afora, tudo praticamente ao mesmo tempo. No entanto, se algum elemento indispensável ao trabalho não estiver sobre a mesa, o já assoberbado funcionário perderá um bocado de tempo escarafunchando gavetas abarrotadas e estantes desarrumadas (quem mandou não desfragmentar o HDD?). E a situação fica ainda pior quando ele precisa abrir espaço sobre a mesa atulhada para acomodar mais livros e pastas. Isso sem falar que terá de arrumar tudo de novo antes de retornar à tarefa interrompida. 

Se você ainda não ligou os pontos, a escrivaninha corresponde à memória cache, as gavetas à memória física (RAM), as estantes à memória de massa (HDD) e a “abertura de espaço”, ao swap-file (ou arquivo de troca, ou ainda memória virtual). Para mais detalhes sobre cada uma dessas memórias, reveja as postagens anteriores).

Vejo agora que esse apanhado de informações conceituais ocupou um bocado de espaço, o que me obriga a deixar as dicas práticas para a próxima postagem. Até lá.

quinta-feira, 18 de abril de 2019

DE VOLTA AO READYBOOST


NÃO EXISTE O CERTO NEM O ERRADO; SÓ EXISTE A VERDADE.

Quem segue este blog sabe que a memória RAM é essencial para o funcionamento de qualquer dispositivo computacional (de uma calculadora de bolso a um poderoso servidor), e que um sistema com fartura de memória e um processador chinfrim pode ter melhor desempenho do que outro com uma CPU mais poderosa e pouca memória, porque é na RAM que são carregados o sistema operacional, os aplicativos e todos os arquivos com que trabalhamos no computador — claro não integralmente, ou não haveria RAM que bastasse; eles são divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes).

Quando rodamos um programa qualquer, os respectivos executáveis são copiados da memória de massa (disco rígido), que é persistente (ou seja, que mantém os dados mesmo quando o computador é deligado) para a memória física (RAM), que é volátil, além de algumas DLLs e os arquivos de dados com os quais vamos trabalhar. A RAM é uma memória eletrônica de acesso aleatório, o que a torna milhares de vezes mais rápida que os discos eletromecânicos (nos quais a gravação e o acesso aos dados são feitos por cabeças eletromagnéticas). Seu grande problema, por assim dizer, é que os dados “evaporam” quando o fornecimento de energia elétrica é suspenso, daí ser necessário carregar tudo novamente quando religamos o computador. Além disso, o megabyte de RAM custa muito mais caro do que a memória de massa, daí a razão de os PCs de entrada de linha contarem com até 1 terabyte (ou mais) de espaço no HDD e apenas 2 gigabytes de RAM.

A Microsoft, modesta quando lhe convém, informa que o Windows 10 de 32 bits roda numa máquina com 1 GB de RAM (para a versão de 64 bits, a quantidade mínima é de 2 GB), mas o desempenho só será satisfatório com algo entre 6 e 8 GB — quantidade que só vem de fábrica em máquinas mais caras. Volto a salientar que falta de memória se resolve instalando mais memória. O resto é paliativo. Mas é possível melhorar a performance de uma máquina de configuração chinfrim eliminando todos os inutilitários e programas pouco usados, faxinando regularmente o disco rígido, corrigindo erros e desfragmentando os arquivos. Tudo isso pode ser feito com as ferramentas nativas do Windows (detalhes nesta postagem), mas os resultados serão melhores se você recorrer a suítes de manutenção como o CCleaner, o IObit Advanced System Care e outras, que estão disponíveis em versões pagas e gratuitas, sendo estas últimas satisfatórias para o uso doméstico.

Outra maneira de espremer mais algumas gotas de desempenho de um PC com pouca memória é habilitar o ReadyBoost — recurso do Windows que utiliza um dispositivo de memória externo para “acelerar” o sistema. Ele não faz milagres, mas pode proporcionar ganhos de até 75% no carregamento de aplicativos em máquinas algo entre 2 e 4 GB de RAM e HDD lento (como os de 5400 RPM usados em notebooks).

ReadyBoost usa o dispositivo removível para ampliar o cache do Windows (por “cache”, entenda-se uma memória “intermediária”, destinada a armazenar arquivos de forma inteligente, deixando-os prontos para utilização na hora oportuna), além de liberar a quantidade correspondente de memória RAM. Para que haja um aumento significativo de desempenho, a Microsoft recomenda usar dispositivos removíveis com capacidade de duas a quatro vezes maior que a quantidade de memória física instalada (ou seja, se seu PC tem 4 GB de RAM, use um pendrive/cartão de 16 GB).

Você pode usar qualquer tipo de memória flash, desde que seja compatível com o padrão USB 2.0 (ou superior) e que tenha pelo menos 1 GB de espaço livre. Melhores resultados serão obtidos formatando a unidade em NTFS, a menos que a capacidade seja inferior a 4 GB, caso em que você pode usar o sistema de arquivos FAT32 (para saber mais sobre formatação de pendrives e sistemas de arquivos, reveja a sequência de postagens iniciada por esta aqui). Em tese, é possível usar até oito dispositivos de até 32 GB cada, já que o limite do ReadyBoost é de 256 GB, mas, na prática, você dificilmente terá 8 portas USB livres no seu computador, e o uso de hubs (multiplicadores) não é recomendável.

Para ativar o ReadyBoost, conecte a unidade externa na portinha USB (no caso do pendrive; o cartão requer uma interface específica ou, na falta dela, um adaptador), clique em Este Computador (ou Computador, ou ainda Meu Computador, conforme a versão do seu Windows), dê um clique direito no ícone que representa o dispositivo removível e clique na aba ReadyBoost. Para usar todo o espaço disponível no drive, marque a Dedicar este dispositivo ao ReadyBoost; para configurar manualmente o espaço a ser alocado, marque Usar este dispositivo e mova a barra deslizante para a direita até que a janelinha exiba o espaço desejado. Ao final, é só clicar 
em Aplicar e em OK (vale reiniciar o computador, embora isso não seja exigido explicitamente).

Para saber mais sobre o ReadyBoost, clique aqui.

quinta-feira, 22 de agosto de 2019

AINDA SOBRE A EVOLUÇÃO TECNOLÓGICA

QUEM VIVE DE ESPERANÇA MORRE DE FOME.

Computadores são formados por dois subsistemas distintos, mas interdependentes: o hardware e o software. O primeiro é tudo aquilo que a gente chuta, e o segundo, o que a gente só pode xingar. Ou, numa definição mais elaborada: o hardware compreende os componentes físicos do aparelho — gabinete, processador, placas de sistema e de expansão, monitor etc. —, e o software, o sistema operacional, aplicativos, utilitários, enfim, àquilo que, no léxico da informática, se convencionou chamar de "programas" (conjuntos de instruções em linguagem de máquina que descrevem uma tarefa a ser realizada pelo computador, e podem referenciar tanto o código fonte, escrito em alguma linguagem de programação, quanto o arquivo executável que contém esse código).  

Combinada com a evolução tecnológica, a interdependência entre o hardware e o software origina um círculo vicioso (ou virtuoso). Componentes cada vez mais poderosos estimulam o desenvolvimento de programas ainda mais exigentes, e estes, cada vez mais capacidade de processamento, espaço em disco e na memória RAM, levando a indústria do hardware a robustecer ainda mais seus produtos — eis a razão pela qual PCs de última geração se tornam ultrapassados em questão de meses e obsoletos em dois ou três anos.

Devido à arquitetura modular, os "micros" das primeiras safras eram vendidos em kit, cabendo aos usuários montá-los ou recorrer a integradores especializados (Computer Guy). Operá-los também não era tarefa fácil, sobretudo quando não havia disco rígido nem sistema operacional (cada tarefa exigia que os comandos fossem introduzidos manualmente via teclado). Mais adiante, os programas seriam gravados em fita magnética (como as populares cassete que a gente usava antigamente para gravar e ouvir música) e depois em disquinhos magnéticos finos e flexíveis, conhecidos como disquete ou Floppy Disk.

Observação: A título de curiosidade, meu primeiro 286, além de uma winchester com capacidade para armazenar umas poucas centenas de megabytes, contava com um drive para disquetes de 5 ¼” e dois para modelos de 3 ½”, o que facilitava sobremaneira a cópia de arquivos e de programas — como os inevitáveis joguinhos, que se tornariam o principal meio de disseminação dos ainda incipientes vírus eletrônicos, e estes, o mote dos meus primeiros escritos sobre informática e segurança digital. Mas isso já é outra conversa.

Foi também graças à evolução tecnológica que o custo do megabyte baixou de assustadores US$ 200 para alguns centavos, permitindo que os HDDs, que levaram décadas para quebrar a barreira do gigabyte, se tornassem verdadeiros latifúndios. Hoje em dia, qualquer desktop ou notebook de configuração chinfrim conta com algo entre 500 GB e 1 TB de espaço em disco.

É importante não confundir espaço em disco com memória RAM. No jargão da informática, "memória" remete a qualquer meio destinado ao armazenamento de dados, mas, por convenção, sempre que falamos "genericamente" em memória estamos nos referindo à RAM, que é a memória física do computador e principal ferramenta de trabalho do processador. É nela que o sistema, aplicativos e demais arquivos são carregados — a partir do HDD, SSD ou outro dispositivo de armazenamento persistente — para serem processados/editados. Claro que eles não são carregados integralmente (ou não haveria RAM que bastasse), mas divididos em páginas (pedaços do mesmo tamanho) ou em segmentos (pedaços de tamanhos diferentes). Além das memórias física (RAM) e de massa (discos rígidos e drives de memória sólida), o computador utiliza outras tecnologias com finalidades específicas, como as memórias ROM, de vídeo, cache, flash etc., mas isso já é outra conversa.

Criado pela Sony no final dos anos 1960 e lançado comercialmente em 1971, o disquete embarcou na crescente popularização dos PCs e se tornou a solução primária para armazenamento externo e transporte de arquivos digitais. Mas nem tudo eram flores: além de oferecerem espaço miserável, os disquinhos eram frágeis e emboloravam e desmagnetizavam com facilidade. Os primeiros modelos, de 8 polegadas (cerca de 20 cm), comportavam míseros 8 KB. Nos de 5 ¼ polegadas, a capacidade inicial de 160 KB chegou a 1,2 MB em 1984, quando eles deixaram de ser produzidos. As versões de 3 ½ polegadas foram extremamente populares, a despeito de sua capacidade medíocre (1,44 MB). Versões de 2,88 MB e 5,76 MB chegaram a ser lançadas, mas por alguma razão não se popularizaram.

Observação: Considerando que seriam necessários cerca de 700 disquetes de 1.44 MB para armazenar 1 GB de dados, para gravar nesse tipo de mídia os arquivos de instalação do Win7 seriam necessários 11.000 disquinhos (que formariam uma pilha da altura de um edifício de 9 andares).

Com o advento das mídias ópticas (CD, DVD e Blu-ray), os disquetes se tornaram "coisa do passado". Mesmo assim, a Sony a fabricá-los até 2011, quando finalmente jogou a toalha. Deveria tê-lo feito bem antes: a virada do século trouxe o pendrive e, mais adiante, o HD externo  dispositivos de memória flash com interface USB que oferecem latifúndios de espaço. Somados aos drives virtuais (armazenamento em nuvem), essas tecnologias levaram os fabricantes de PC, que já tinham excluídos o drive de disquete de suas planilhas de custo, a eliminar também o drive de mídia óptica.

O resto fica para o próximo capítulo.

segunda-feira, 4 de julho de 2022

A IRRITANTE DEMORA NA INICIALIZAÇÃO DO PC

O PODER ATRAI O PIOR E CORROMPE O MELHOR.

Os PCs evoluíram muito desde os anos 1970, mas ainda não “ligam” tão rapidamente quanto uma lâmpada. A energia elétrica é fundamental em ambos os casos, mas, no caso do computador, o boot e a inicialização do sistema vão muito além de simplesmente incandescer um filamento. 

 

Os PCs são formados por dois subsistemas distintos, mas complementares. No pré-história da computação pessoal, definia-se o hardware como aquilo que o usuário podia chutar, e o software, como o que ele só podia xingar.

 

O tempo que a máquina leva para inicializar depende de diversos fatores. Depois de migrar para o Win11, meu Dell Inspiron passou demorar mais de 1 minuto para exibir a tela de boas-vindas e outros 4 ou 5 minutos para me deixar começar a trabalhar. No meu Mac Pro, a tela inicial surge em poucos segundos e basta eu digitar a senha para ter total controle sobre o sistema e os aplicativos. 


Observação: O “problema” do portátil é o jurássico HDD (de 2 TB e 5400 RPM), muito mais lento que o SSD PCI Express com NVMe do Mac.

 

A demora na inicialização do Windows sempre me incomodou. A Microsoft prometia maior agilidade toda santa vez que lançava uma nova versão, mas o software foi se agigantando e uma configuração de hardware responsável custa os olhos da cara (rodar o Win11 sem SSD e pelo menos 6 GB de RAM é uma teste de paciência).

 

Muita coisa acontece do momento em que ligamos o computador até o instante o software se torna “operável”. Nesses preciosos segundos (ou longos minutos, conforme o caso), o BIOS (ou o UEFI, também conforme o caso) realiza um autoteste de inicialização (POST, de Power On Self Test), busca os arquivos de inicialização (respeitando a sequência declarada no CMOS Setup), e “carrega” na RAM os drivers, as DLLs e outros arquivos essenciais ao funcionamento do computador, bem como o sistema na RAM (não integralmente, ou não haveria memória que bastasse). 


O BIOS (de Basic Input/Output System) é primeira camada de software do computador. Trata-se de um programinha de “baixo nível” gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe. O UEFI (de Unified Extensible Firmware Interface) faz basicamente a mesma coisa, mas muito mais rapidamente. Já o CMOS (de Complementary Metal Oxide Semiconductor) é componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria — que mantém essa memória energizada para que as informações não se percam quando desligamos o computador.

 

O “boot” é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema assuma o comando da máquina e o usuário, o comando do sistema. Numa tradução direta do inglês, boot significa bota ou botina, mas seu uso no âmbito da informática remete à expressão “pulling oneself up by his own bootstraps”, que podemos traduzir por “içar a si mesmo pelas alças das botinas” e, por extensão, por “fazer sozinho algo impossível de ser feito sem ajuda externa”. 

 

Observação: Fazer o Setup” consiste em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.


Continua...

segunda-feira, 15 de junho de 2020

MAIS SOBRE NAVEGADORES — PARTE XX


NÃO É POLIDO CALAR UM IDIOTA, MAS É CRUEL DEIXÁ-LO PROSSEGUIR.

Navegadores são vorazes consumidores de memória, e isso se torna um problema em PCs de entrada de linha (de baixo custo), cuja quantidade de RAM não dá nem para a cova do dente (como dizia minha finada avó).

Em atenção aos recém-chegados, relembro que um computador utiliza memórias de diversas tecnologias (RAM, ROM, cache, de vídeo, de massa etc.), mas é na RAM — memória física e principal ferramenta de trabalho da CPU (processador principal) — que o sistema operacional, os aplicativos e demais programas são carregados a partir da memória de massa (HDD, SSD, pendrive, HD USB, etc.). Claro que os programas não são carregados integralmente (ou não haveria RAM que bastasse), mas divididos em páginas (pedaços do mesmo tamanho) ou em segmentos (pedaços de tamanhos diferentes).

Nos primórdios da computação pessoal, os usuários compravam os componentes e montavam eles próprios o aparelho (ou pagavam a um computer guy para executar o trabalho). Hoje, a vantagem da integração caseira consiste em permitir escolher a dedo a configuração de hardware e privilegiar determinados aspectos — como os módulos de memória RAM, p.ex. — em detrimento de outros — caixas de som sofisticadas, placa gráfica offboard com GPU e memória dedicada etc.

Observação: Muita gente não levava em conta que quanto mais equilibrada fosse a configuração de hardware, tanto melhor seria o desempenho do conjunto — investir 80% do orçamento num processador ultra veloz e instalar RAM genérica e em quantidade insuficiente, por exemplo, era uma péssima ideia, mas bastante comum entre marinheiros de primeira viagem.

Com a popularização da computação pessoal e, mais adiante, do acesso à Internet por usuários "comuns", o preço das máquinas "de grife" tornou-se mais palatável, e com as facilidades do pagamento parcelado e os atrativos do software pré-carregado e da garantia do fabricante, as integrações domésticas foram relegadas a nichos de usuários (como gamers, hackers etc.). E a pá de cal foi a popularização dos portáteis e sua utilização também como substituto do PC de mesa. O detalhe é que montar um desktop ou realizar procedimentos de manutenção que envolvam a troca de componentes é uma coisa, e fazer o mesmo com um note ou um modelo all-in-one é outra bem diferente.   

Caso esteja pensando em trocar seu PC velho de guerra, assegure-se de que o modelo novo conte com pelo menos de 4 GB de RAM (o ideal é 8 GB) e dê preferência a processadores Intel da família Core (i3, i5 e i7 de 10ª geração) e drives de memória sólida.

Observação: Note que o gerenciamento de memória é um compromisso conjunto do processador e do sistema operacional. Portanto, de nada adianta você entupir o PC de RAM se a CPU for de 32 bits (limitada pelo Virtual Address Space a endereçar algo entre 3 GB e 3,5 GB de RAM). E tenha em mente que chips de 64 bits são capazes de rodar versões do Windows tanto de 32-bit quanto de 64-bit; portanto, se o sistema pré-carregado pelo fabricante do aparelho não for o Windows 64-bit, nada feito.

Se o dinheiro andar curto, drives híbridos são a escolho ideal, pois custam menos que os SSD puros e oferecem memória sólida em quantidade suficiente para abrigar o sistema e os aplicativos. À luz do custo x benefício, drives com 128 GB de memória flash e 1 TB em mídia magnética (como nos HDDs eletromecânicos convencionais) são os mais indicados.

Observação: Você até pode fazer um upgrade a posteriori, mas aí o molho costuma sair mais caro que o peixe.

Veremos na próxima postagem mais algumas dicas para melhorar o desempenho do navegador. Até lá.

terça-feira, 12 de fevereiro de 2019

DE VOLTA À MEMÓRIA RAM — PARTE 5


LULA É COMO UMA MELECA QUE A GENTE NÃO CONSEGUE DESGRUDAR DO DEDO.

Usuários de computador menos familiarizados com hardware tendem a confundir a capacidade do HDD com o tamanho da RAM, já que a unidade de medida utilizada em ambos os casos é um múltiplo do byte (MB, GB, TB). Isso porque tudo é memória — termo que, no jargão da informática, designa qualquer meio destinado ao armazenamento de dados —, a exemplo dos pendrives e SD Cards, das mídias ópticas (CD/DVD), etc.

Um PC utiliza memórias de diversas tecnologias e finalidades distintas. A ROM, por exemplo, é uma espécie de RAM não volátil, daí ela ser usada no armazenamento permanente de dados (como no BIOS). Ou a memória cache*, que também é um tipo de RAM, só que estática (e ultrarrápida), o que a torna ideal para o armazenamento de dados acessados com maior frequência (visando otimizar o desempenho do sistema como um todo.

(*) Quando falamos em memória cache, logo nos vem à mente o processador, que se vale dessa tecnologia desde os jurássicos 386.Inicialmente formado por chips soldados à placa mãe, a partir dos 486 o cache passou a ser embutido (sempre em pequenas quantidades, devido ao preço elevado) no núcleo da CPU, dando origem à distinção entre os caches L1 L2 (este último continuava fazendo parte da placa mãe). Alguns chips da AMD, como o K6-III, incluíam ainda um terceiro nível de cache (L3), mas, por motivos que ora não vêm ao caso, essa solução não se popularizou. Mais adiante, o cache passou a ser usado também em HDsservidoresplacas de sistema, e até mesmo em softwares.

Há ainda a memória de vídeo, as mídias removíveis, e por aí vai, mas o mote desta postagem são as memórias física e de massa do computador, representadas respectivamente pela RAM e pelo drive de HD — que será substituído pelo de memória sólida (SSD) assim que os modelos de grandes capacidades forem comercializados a preços palatáveis (para mais informações, clique aqui).

Sempre que falamos “genericamente” em memória, estamos nos referindo à RAM, que é a memória física do computador e a principal ferramenta de trabalho do processador. É nela que o sistema, os aplicativos e os demais arquivos são carregados e processados — note que eles não são carregados integralmente, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes), do contrário não haveria RAM que bastasse. E se são carregados na RAM, eles provém de algum outro lugar, e esse lugar é a memória de massa, responsável por armazenar o software de modo “persistente” — não confundir com “permanente”; embora os dados salvos na memória de massa sobrevivam ao desligamento do computador, eles não são imutáveis.

Explicando melhor: Quando rodamos um programa, seus executáveis são copiados do disco rígido para a memória RAM, juntamente com algumas DLLs e os arquivos de dados com os quais vamos trabalhar. A RAM é uma memória de acesso aleatório, o que a torna milhares de vezes mais rápida que o drive de disco rígido (embora não tão mais rápida que os SSD, mas isso já é outra conversa). O grande “problema” da RAM, por assim dizer, é sua volatilidade, ou seja, o fato de ela só preservar os dados enquanto estiver energizada. Além disso, o megabyte de RAM custa bem mais do que o megabyte de espaço no HDD, daí os fabricantes de PC serem miseráveis com a RAM (somente modelos de configuração superior e preço idem contam com desejáveis 8 GB dessa memória), mas integrarem HDDs de 500 GB a 1 TB mesmo nos modelos de entrada de linha (leia-se mais baratos)

Voltando aos drives de memória sólida (SSD na sigla em inglês), eles ainda não aposentaram seus antecessores eletromecânicos porque unidades de grande capacidade custam muito caro. Mas as vantagens são muitas. Por eles serem compostos basicamente de células de memória flash e uma controladora — que gerencia o cache de leitura e gravação dos dados, criptografa informações, mapeia trechos defeituosos da memória, etc. —, a ausência de motor, pratos, braços, agulhas eletromagnéticas ou qualquer outra peça móvel os torna menores, mais resistentes e milhares de vezes mais rápidos que o disco rígido tradicional, sem mencionar que, por consumirem menos energia, são uma excelente opção para equipar notebooks.

Continua na próxima postagem.

segunda-feira, 8 de março de 2021

WINDOWS — INICIALIZAÇÃO LENTA — COMO RESOLVER

SER DE ESQUERDA OU DE DIREITA SÃO MANEIRAS DE ESCOLHER SER UM IMBECIL, POIS AMBAS SÃO FORMAS DE HEMIPLEGIA MORAL.

O ideal seria ligarmos o computador e ele responder prontamente, como uma lâmpada responde ao comando do interruptor. Mas o mundo em que vivemos está longe de ser o ideal. Demais disso, é preciso ter em mente que um sistema computacional é composto por dois subsistemas sistemas distintos — mas complementares e interdependentes —, que são o hardware (aquilo que o usuário chuta) e o software (aquilo que ele xinga). E que, a despeito da evolução tecnológica havida nas últimas décadas, as limitações do pré-histórico BIOS e do jurássico disco rígido eletromecânico retardam a inicialização do Windows e impactam negativamente o desempenho global do PC (*).

hardware é a parte física do computador (gabinete, teclado, monitor, placa-mãe, placas de expansão, memórias etc.) e o software, a porção “lógica”, representada pelos programas (sistema operacional, aplicativos, utilitários etc.). No léxico da informática, “programa” remete a um conjunto de instruções (em linguagem de máquina) que descrevem uma tarefa a ser realizada, e pode referenciar tanto o código fonte (escrito em linguagem de programação) quanto o executável que o contém.

Qualquer dispositivo computacional (de mesa, portátil ou ultraportátil) é comandado por um sistema operacional, que embora seja essencialmente um programa, destaca-se dos demais por ser o responsável, dentre outras atribuições, pelo gerenciamento do hardware e do software, por prover a interface usuário/máquina e por servir como base para a execução dos aplicativos.

Toda vez que ligamos o computador, o BIOS realiza um autoteste de inicialização (POST, de power on self test), busca os arquivos de boot (respeitando a sequência declarada no CMOS Setup), “carrega” o sistema na memória RAM (não integralmente, ou não haveria memória que bastasse, mas  exibe a tradicional tela de boas-vindas. 

BIOS é a primeira camada de software do sistema computacional, ou seja, um programinha de “baixo nível”, como se costuma dizer, mas sem a conotação pejorativa com que essa expressão costuma ser utilizada. Ele é gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe.

CMOS é um componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria, que é responsável por manter essa memória energizada (para que não perca as informações toda vez que o computador é desligado).

Convencionou-se chamar boot ao processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema operacional assuma o comando da máquina. Numa tradução direta do inglês, boot significa bota ou botina, mas, no jargão da TI, é sinônimo de inicialização. Essa acepção advém da expressão “pulling oneself up by his own bootstraps” (“içar a si mesmo pelas alças das botinas”), e, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”. 

Observação: Segundo alguns autores, a adoção desse termo remota ao tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções progressivamente mais complexas, num processo conhecido como bootstrapping.

"Fazer o Setup" consiste, por sua vez, em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.

(*) A exemplo de "focar", "impactar" é um verbo transitivo direto, mas uma confusão — bastante comum, aliás — costuma ocorrer nas construções em que se emprega o substantivo, que requer o complemento preposicionado (assim: focar o afeto, mas [ter] foco no afeto).  Além de repelir a preposição (na condição de verbo intransitivo, como em A greve impactou bastante), impactar pode ainda ser  transitivo direto (a greve impactou o serviço bancário), mas jamais "transitivo indireto", dependente da preposição "em", sendo errôneas, portanto, as frases: "O estudo impactou no resultado"; "As provas impactaram no julgamento da lide". Por outro lado, aquilo que causa impacto, causa impacto em, donde se admite, com acerto, em locução verbal, as frases: "O estudo causou impacto no resultado"; "As provas causaram impacto no julgamento da lide". Portanto, o erro de regência causa um grande e negativo "impacto".

Continua no próximo capítulo.

sexta-feira, 22 de novembro de 2019

DILMA DISCURSAVA EM DILMÊS; TOFFOLI VOTA EM TOFFOLÊS


O voto tamanho XGG de Dias Toffoli — cuja leitura, na sessão da última quarta-feira, levou quase cinco horas — me fez pensar se o presidente da nossa mais alta Corte não teria sido "tomado" pelo espírito de Abelardo Barbosa, mais conhecido como "Chacrinha", que se notabilizou pela frase: "Eu não vim para explicar, vim para confundir". Tanto é que a maioria do togados supremos deixaram a sessão sem entender o que, de fato, seu presidente quis dizer naquele interminável pregação (talvez a mais longa de toda a história centenária do STF).

Sem citar a liminar que concedeu monocraticamente a Flávio Bolsonaro, Toffoli acatou o recurso extraordinário do MP no processo sub-judice, anulando a decisão do desembargador José Marcos Lunardelli (que havia tornado ilegal o compartilhamento de dados da Receita com o MP, sem autorização judicial, na condenação do casal Hilario e Toyoka Hashimoto pelo crime de sonegação fiscal), e reafirmou que o UIF (ex-Coaf) pode compartilhar relatórios de inteligência financeira, mas desde que incluam somente informações de movimentações globais das pessoas físicas ou jurídicas e que não haja “encomenda” contra determinada pessoa. Disse ainda o nobre ministro que, em relação ao compartilhamento de representações fiscais da Receita com o MP, este deve instaurar uma investigação ao receber as informações e encaminhar o caso para a Justiça, que, a partir da instauração da investigação, possa acompanhar todo o desdobramento do caso.

O voto quilométrico surpreendeu a todos, tanto pelo tamanho e pela linguagem tortuosa quanto por abrir caminho para a retomada do compartilhamento de dados entre os órgãos de fiscalização e os de investigação. Mas a cereja do bolo foi tentar convencer a todos de que em momento algum ele, Toffoli, teria impedido que os inquéritos prosseguissem, atribuindo essa "fake news" a agentes públicos mal intencionados e a órgãos de imprensa que divulgaram essas informações de forma "terrorista". A pergunta que fica é: se foi mesmo assim, por que o ministro levou tanto tempo para se explicar? Se constatou que sua liminar estava sendo usada indevidamente para lhe atribuir a obstrução das investigações de lavagem de dinheiro e corrupção, por que, então, não expediu prontamente uma nota oficial ou convocou uma coletiva para dar conta do "equívoco" e acabar com o “terrorismo” da imprensa?

No que diz respeito ao hoje senador Flavio Bolsonaro, sujeito não tão oculto nesse julgamento, a defesa do filho do presidente alega que o repasse dos dados ao MP sem autorização da Justiça caracterizaria quebra de sigilo, mas o fato é que a quebra do sigilo fora autorizada pela Justiça, e uma proibição do uso desses dados significaria impedir ad aeternum a investigação de zero um. Como bem observou um desembargador do TRF-2 a propósito de outro assunto, “se tem rabo de jacaré; couro de jacaré, boca de jacaré, então não pode ser um coelho branco”.

Josias de Souza, com o humor cáustico que caracteriza seus comentários no Jornal da Gazeta, explicou que o Toffoli se expressou num idioma muito parecido com o português, só que muito mais confuso: o toffolês. Quem conseguiu ouvir toda a explanação sem cochilar ficou com a impressão de que ele votou a favor da imposição de condições para o compartilhamento de dados sigilosos sem autorização judicial. O ex-Coaf não poderia entregar aos investigadores senão dados genéricos. Detalhamentos, só com autorização judicial. A continuidade dos inquéritos congelados desde julho — o de Flávio Bolsonaro e outras 935 investigações — ficaria condicionada a uma análise caso a caso. As restrições seriam ainda maiores para a Receita Federal. Após apalpar os dados enviados pelo Fisco, o MP seria obrigado a comunicar imediatamente a abertura de uma investigação ao juiz, que supervisionaria o inquérito.

As explicações soaram claras como a gema. Munidos de todas as informações transmitidas por Toffoli, os repórteres tiraram suas próprias confusões e, um tanto constrangidos, cercaram o orador no início da noite para lhe pedir que trocasse em miúdos o voto que começara a ler no expediente da manhã. "Em relação ao Coaf, pode sim compartilhar informações", declarou Toffoli. "Mas ele é uma unidade de inteligência. O que ele compartilha não pode ser usado como prova. É um meio de obtenção de prova." Então, não haveria nada de novo sob o Sol, pois a coisa já funciona exatamente assim. Mais tarde, em novo esforço de tradução do toffolês para o português, o gabinete de Toffoli informou que, no caso do Coaf, não há novas limitações. Como assim? Considerando-se que os relatórios produzidos pelo órgão não incluem documentos detalhados, poderiam continuar circulando no formato atual. Se é assim, por que diabos o descongelamento do inquérito contra Flávio Bolsonaro e os outros 935 dependeriam de análises posteriores? Nada foi dito sobre esse paradoxo.

Em seu voto-latifúndio, Toffoli disse que o MP não poderia, em hipótese nenhuma, "encomendar relatórios" ao UIF (novo nome do Coaf). Na tradução do gabinete, procuradores e promotores podem requisitar complementos de informações recebidas da unidade de inteligência. Toffoli repetiu várias vezes a expressão "lenda urbana". Fez isso, por exemplo, ao assegurar que o julgamento iniciado nesta quarta não tem nada a ver com Flávio Bolsonaro, reiterando a doutrina Saci-Pererê ao sustentar que a liminar que concedera em julho, a pedido da defesa do primogênito do presidente, havia paralisado "poucos processos".

Faltou explicar por que considera o congelamento de 935 inquéritos pouca coisa. Alguns ministros esforçaram-se para reprimir uma risadinha enquanto ouviam Toffoli. Com a ironia em riste, um dos colegas de presidente do Supremo referiu-se ao voto dele como "uma grande homenagem ao Dia da Consciência Negra." Num flerte com o politicamente incorreto, o ministro declarou: "O voto do relator foi um autêntico samba do crioulo doido". Vivo, Sérgio Porto, o magistral criador do samba, discordaria. Seu crioulo entoou: "Joaquim José / Que também é / Da Silva Xavier / Queria ser dono do mundo / E se elegeu Pedro II". Não dizia coisa com coisa, mas era taxativo. Dias Toffoli, por gelatinoso, terá de explicar-se novamente diante dos seus pares, pois vários deles foram dormir ruminando dúvidas sobre o voto de dimensões amazônicas.

O fato é que Toffoli começou com dois pés esquerdos a leitura do seu voto. Logo de início, o presidente do STF produziu duas pérolas. A primeira: "Aqui não está em julgamento o senador Flávio Bolsonaro". A segunda: "poucos processos foram paralisados por sua decisão; seus críticos é que tentaram criar um "clima de terrorismo".

Foi graças a um habeas corpus da defesa de Flávio Bolsonaro que Toffoli enfiou o Coaf dentro de um processo que envolvia apenas a Receita Federal. Foi por conta do mesmo recurso que Toffoli congelou o inquérito que corre contra o filho do presidente e outros 935 processos fornidos com dados do Coaf. Toffoli jura que o vínculo do filho do presidente com o processo, assim como o Saci-Pererê, jamais existiu. Mas o advogado do zero um estava presente na sessão da Suprema Corte. Assim como as autoridades que cuidam dos outros 935 processos travados por Toffoli, o defensor de Flávio Bolsonaro esfregava as mãos, na perspectiva de que o caso contra seu cliente seria anulado. Quer dizer: Ao contrário do Saci, o interesse dos encrencados é real e tem múltiplas pernas. Dependendo da decisão a ser tomada pelo Supremo, o UIF é que pode sair do julgamento como uma "lenda urbana", um órgão de controle mudo e sem pernas.

AtualizaçãoA sessão suprema de ontem foi dedicada integralmente à complementação (ou tentativa de explicação) do voto de Toffoli e ao voto do ministro Alexandre de Moraes. Para os que não sabem, depois do relator, que é o primeiro a votar, os ministros se pronunciam por ordem de antiguidade, do mais recente para o mais antigo. Pelo que se pôde entender do voto de Toffoli — que fica mais difícil de interpretar a cada vez que seu autor tenta explicá-lo —, Moraes, que votou pela validade do compartilhamento de dados financeiros do UIF (antigo Coaf) e da Receita Federal com o Ministério Público sem autorização judicial, teria aberto a divergência, ainda que parcial, levado o placar a 1 a 1. Na sequência, o julgamento foi suspenso, devendo ter prosseguimento na sessão da próxima quarta-feira (27). Considerando que ainda faltam os votos de 9 ministros e que o Judiciário entre em recesso no dia 20 de dezembro, não está afastada a possibilidade de o resultado final ser conhecido somente em fevereiro do ano que vem.