Mostrando postagens classificadas por relevância para a consulta VOLÁTIL. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta VOLÁTIL. Ordenar por data Mostrar todas as postagens

quinta-feira, 14 de fevereiro de 2019

DE VOLTA À MEMÓRIA RAM - PARTE 7


É PRECISO MANTER A PÓLVORA SECA PARA O CASO DE SE PRECISAR DELA.

Vimos que o sistema e os aplicativos não são carregados integralmente na memória RAM, mas divididos em páginas ou em segmentos (pedaços do mesmo tamanho e pedaços de tamanhos diferentes, respectivamente), ou não haveria memória que bastasse. Isso só é possível porque os sistemas operacionais são construídos de forma modular, e cada módulo (Kernel, EscalonadorGerenciador de Arquivos, etc.) é carregado individual e seletivamente, conforme as necessidades.

Toda vez que ligamos o computador, o BIOS faz o POST (autoteste de inicialização), procura os arquivos de BOOT (conforme a sequência declarada no CMOS Setup), “carrega” o sistema na memória RAM e exibe a tradicional tela de boas-vindas. 

BIOS é a primeira camada de software do computador e fica gravado numa pequena porção de memória não volátil integrada à placa-mãe. O CMOS é um componente de hardware composto de um relógio permanente, uma pequena porção de memória volátil e uma bateria, que mantém essa memória volátil energizada, ou as informações que ela armazena se perderiam toda vez que o computador fosse desligado. O BOOT é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS e realiza o POST (autoteste de inicialização).Só então, e se tudo estiver nos conformes, o Windows é carregado e assume o comando da máquina.

Fazer o Setup nada mais é que configurar os parâmetros armazenados na memória do CMOS, de modo a permitir que o BIOS reconheça e gerencie adequadamente os componentes instalados, dê o boot e adote outros procedimentos básicos que envolvem o funcionamento do PC. Essa configuração consiste em oferecer respostas a uma longa sequência de perguntas num sistema de múltipla escolha, mas a boa notícia é que ela e feita na etapa final da montagem do computador e só é necessário refazê-la em situações específicas (após um upgrade abrangente de hardware, por exemplo). Claro que é possível reconfigurar o Setup para resolver problemas e/ou incrementar o desempenho do computador, mas isso só deve ser feito usuários avançados, pois modificações indevidas ou malsucedidas podem comprometer o funcionamento da máquina.

ObservaçãoBoot significa bota ou botina, mas virou sinônimo de inicialização devido à expressão “pulling oneself up by his own bootstraps” (içar a si mesmo pelos cordões das botinas), que, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”. Segundo alguns autores, isso vem do tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções mais complexas, e esse processo era conhecido como bootstrapping.

Voltando à influência da RAM no desempenho global do PC, vale relembrar uma analogia que eu faço desde que publiquei meus primeiros artigos sobre hardware na mídia impressa, lá pelo final do século passado: 

Se o computador fosse uma orquestra, o processador seria o maestro. Mas uma boa apresentação não depende apenas de um regente competente, mas também de músicos qualificados e entrosados entre si. Bons músicos podem até suprira as limitações de um maestro meia-boca, mas o contrário não é possível: por mais que o regente se descabele, a incompetência da equipe fatalmente embotará o brilho do concerto. Guardadas as devidas proporções, o mesmo se dá em relação ao PC, que depende de uma configuração equilibrada, com componentes adequados e balanceados

Em outras palavras, uma CPU de primeiríssima não será capaz de muita coisa se for assessorada por um subsistema de memórias subdimensionado. Mas não é só. PCs da mesma marca, modelo e idêntica configuração de hardware podem apresentar comportamentos diversos, pois o desempenho de cada depende também da configuração do Windows, da quantidade de aplicativos instalados, da maneira como eles são inicializados, da regularidade com que o usuário realiza manutenções preventivo-corretivas, e por aí vai. 

Máquinas de entrada de linha (leia-se baixo custo) costumam integrar processadores chinfrins, pouca memória e módulos genéricos, o que impacta negativamente no desempenho global do sistema. Isso sem mencionar o software fica mais exigente a cada dia. Para se ter uma ideia, enquanto o Win95 rodava com míseros 8 MB de RAM (isso mesmo, oito megabytes) o Windows 10 precisa de algo entre 6 e 8 GB para rodar com folga (a Microsoft, modesta quando lhe convém, fala em 1 GB para as versões de 32-bit2 GB para as de 64-bit, mas aí não sobra quase nada para os aplicativos).

Outra analogia de que gosto muito remete à dinâmica entre o processador, a RAM e o HDD. Vamos a ela:

Imagine o PC como um escritório e o processador como um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, esse incansável colaborador atende ligações, recebe informações, transmite instruções, elabora cartas e relatórios, responde emails e por aí afora, tudo praticamente ao mesmo tempo. No entanto, se algum elemento indispensável ao trabalho não estiver sobre a mesa, o já assoberbado funcionário perderá um bocado de tempo escarafunchando gavetas abarrotadas e estantes desarrumadas (quem mandou não desfragmentar o HDD?). E a situação fica ainda pior quando ele precisa abrir espaço sobre a mesa atulhada para acomodar mais livros e pastas. Isso sem falar que terá de arrumar tudo de novo antes de retornar à tarefa interrompida. 

Se você ainda não ligou os pontos, a escrivaninha corresponde à memória cache, as gavetas à memória física (RAM), as estantes à memória de massa (HDD) e a “abertura de espaço”, ao swap-file (ou arquivo de troca, ou ainda memória virtual). Para mais detalhes sobre cada uma dessas memórias, reveja as postagens anteriores).

Vejo agora que esse apanhado de informações conceituais ocupou um bocado de espaço, o que me obriga a deixar as dicas práticas para a próxima postagem. Até lá.

quinta-feira, 26 de maio de 2022

AINDA SOBRE APLICATIVOS, MEMÓRIA RAM E TASK KILLERS

PARA O TRIUNFO DO MAL, BASTA QUE OS BONS FIQUEM DE BRAÇOS CRUZADOS.

Computadores integram memórias de diversas tecnologias em quantidades variáveis, mas sempre expressas em múltiplos do byte. Assim, é comum as pessoas confundirem a RAM (memória física ou primária) com o HDD/SSD (memória de massa, ou secundária, ou ainda "armazenamento") do sistema. 

 

A título de contextualização, relembro que o bit (de “BInary digiT”) é a menor unidade de informação manipulada pelo computador. Oito bits formam um byte; 1 kB (quilobyte) equivale a 1024 bytes (ou meia página de texto); 1024 kB, a um megabyte (espaço suficiente para armazenar um quinto da obra de Shakespeare). Um gigabyte corresponde a 1024 MB (espaço suficiente para gravar um filme de uma hora de duração); 1.000 GB formam 1 terabyte (15 terabytes são suficientes para digitalizar toda a biblioteca do congresso dos EUA); 1024 TB perfazem 1 Petabyte (1/5 do conteúdo de todas as cartas distribuídas pelo correio norte-americano), e assim por diante. 

 

A RAM (de Random Access Memory) é a memória física (ou primária) do computador. Isso vale para desktops, notebooks, smartphones e tablets. É nela que que o software é carregado e os dados, processados. Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.  

 

Nos PCs, a memória de massa (ou secundária) é provida tradicionalmente por um disco rígido (os modelos mais recentes contam com drives de memória sólida). É nessa memória (e a partir dela) que os dados são carregados na RAM — claro que não integralmente, ou não haveria espaço que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). Para saber mais, leia esta sequência de postagens.

 

Costuma-se dizer que um computador é tão rápido quanto seu componente mais lento. No âmbito das memórias, a secundária é milhares de vezes mais lenta que primária, que por sua vez é muito mais lenta que o processador. Assim, uma máquina que dispuser de 8 GB de RAM e de um processador mediano será “mais rápida” do que outra que conte com um chip de topo de linha e míseros 2 GB de RAM. A questão é que a RAM é volátil, daí a necessidade de haver um dispositivo capaz de armazenar o software de forma “persistente”, ou seja, que retenha os dados mesmo depois que o computador for desligado.

 

Em tese, quanto mais memória física o computador tiver, mais "rápido" ele será. Para agilizar ainda mais o trabalho do processador, o cache de memória (ou memória cache, ou simplesmente cache), representado por uma pequena quantidade de memória RAM estática e ultraveloz (e bem mais cara do que a RAM convencional), armazena as informações e instruções que são acessadas mais frequentemente e outros dados que o sistema “prevê” que o processador terá de acessar em seguida.

 

O conceito de memória cache remonta aos tempo dos jurássicos 386, quando se constatou que a lentidão da RAM obrigava a CPU (isto é, o processador; a caixa que abriga os componentes internos do computador se chama "case" ou "gabinete") a desperdiçar preciosos ciclos de clock aguardando a liberação dos dados necessários à execução das tarefas. 


Fica mais fácil de entender se compararmos o computador a uma orquestra e o processador ao maestro. Para uma boa apresentação, não basta um regente competente. Na verdade, músicos qualificados, afinados e entrosados podem até mascarar as limitações de um maestro chinfrim, mas não o contrário. Guardadas as devidas proporções, isso se aplica à performance do computador, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados.

 

Embora pareça um contrassenso, cabe ao gerenciamento de memória do sistema operacional manter o uso da memória o mais alto possível. Primeiro, porque memória é hardware — a gente paga por ela quando compra o aparelho, e não utilizar aquilo pelo que se pagou é desperdício de dinheiro. Segundo, porque, como dito linhas acima, a RAM é muito mais rápida que a memória secundária, e mantê-la ocupada é aproveitar melhor o dinheiro que investimos na compra do aparelho. 

 

Uma CPU de ponta será subutilizada se contar com pouca memória RAM. Para evitar mensagens de “memória insuficiente” (comuns na pré-história da computação pessoal, quando éramos obrigados a encerrar um ou mais aplicativos para que outros pudessem ser carregados e executados), a Intel criou a memória virtual (ou “swap file”, como alguns preferem dizer), que consiste num espaço alocado na memória de massa para o qual o Gerenciador de Memória Virtual (VMM) transfere as seções que não são prioritárias naquele momento e de onde as traz de volta quando necessário.

 

Convém ter em mente que a memória virtual é apenas um paliativo, não um substituto eficiente da RAM, uma vez que (como também já foi mencionado) a memória de massa, mesmo quando representada por um SSD, é muitas vezes mais lenta do que a memória física, e a constante troca de arquivos degrada consideravelmente o desempenho global do sistema.

 

Continua na próxima postagem.

quinta-feira, 11 de novembro de 2010

CMOS Setup

Em atenção ao pedido do Herberth no post do último dia 4, resolvi dedicar mais algumas linhas ao CMOS Setup – que já foi abordado de passagem aqui no Blog e mereceu um capítulo inteiro no volume 8 da CGFI (Windows XP – Nível Avançado).

O termo BIOS é o acrônimo de Basic Input/Output System e remete a um firmware – conjunto de instruções programadas pelo fabricante de um equipamento eletrônico – que funciona como uma “ponte” entre o hardware e o sistema operacional. Embora seja um programa – a primeira camada de software do computador – ele não fica armazenado no HDD (drive de disco rígido), mas sim num chip de memória não volátil instalado na própria placa-mãe.

Já CMOS (Complementary Metal Oxide Semiconductor) é um componente de hardware composto por dois circuitos que incluem um relógio permanente, uma pequena porção de memória volátil e uma bateria destinada a mantê-los energizados. “Fazer o CMOS Setup”, por sua vez, significa configurar os parâmetros armazenados na memória do CMOS, de modo a permitir que o BIOS reconheça e gerencie adequadamente os componentes instalados, dê o boot e adote outros procedimentos básicos que envolvem o funcionamento do PC.

Observação: Ao invés de dizer que “entrou no BIOS”, prefira dizer que você "acessou o CMOS Setup" (ou “fez o Setup”) para configurar o BIOS. “Setup” significa “ajuste”, em português, e essa configuração não surte efeito no CMOS (que é hardware), mas sim no BIOS (que é software).

Fazer o Setup consiste em oferecer respostas a uma longa sequência de perguntas num sistema de múltipla escolha, e essa providência costuma ser exigida somente ao final da montagem do PC ou de um upgrade abrangente. Todavia, há casos em que precisamos acessar o Setup para modificar a sequência de boot e inicializar o sistema através de um disquete, de um CD ou de um pendrive (assunto que veremos em detalhes mais adiante). Vale lembrar que também é possível resolver problemas e/ou incrementar o desempenho do computador mediante incursões pelas configurações avançadas do Setup, mas isso só deve ser empreendido por técnicos e usuários avançados, já que modificações indevidas ou mal sucedidas podem comprometer ou inviabilizar o funcionamento da máquina.

A AMI e a Phoenix-Award dominam o mercado de BIOS para a plataforma PC, e a despeito de haver diferenças entre seus produtos, a tela inicial do Setup sempre exibe um menu com a relação de páginas e recursos do programa, bem como um esquema de teclas para navegar pelas opções e fazer as configurações. Para acessá-la, devemos ligar (ou reiniciar) o computador e, tão logo o POST termine a contagem da memória, pressionar repetidamente a tecla Delete (ou Esc, F1, F2, F8, F10, ou ainda combinações como Ctrl+Esc, Ctrl+Alt+Enter ou Ctrl+Alt+F2, por exemplo; para saber como proceder no seu caso específico, consulte o manual do equipamento ou atente para as informações exibidas rapidamente no pé da tela, durante o boot).

Em PCs antigos, fazer o Setup era bem mais complicado. Hoje em dia, só precisamos configurar alguns itens da página “Standard CMOS Setup” (ou “Main”, conforme o caso) que aparece selecionada por default e, ao contrário das demais, não têm opção de autoconfiguração. Depois de ajustar o calendário e o relógio do computador, devemos declarar o drive A (FDD ou “Legacy Diskette A/B” em alguns programas de Setup) como 1.44MB 3.5 in, e o drive B como “none” ou “disabled” (a menos que exista um segundo Floppy Drive, evidentemente). Caso haja a opção Floppy3 Mode Support, devemos deixá-la desabilitada.

Observação: Apesar de pouco utilizado (pelo menos em micros novos) o drive de disquete pode ser útil em alguns casos, como para carregar drivers da porta SATA ou RAID ao instalar o Windows XP, por exemplo. Esse problema foi resolvido nas versões posteriores do Windows, nas quais os drivers podem ser carregados também a partir de um CD-ROM ou pendrive.

Antigamente, a detecção de HDs IDE/ATA tinha de ser configurada manualmente ou mediante a opção "IDE HDD Auto Detection", presente no menu principal do Setup, mas atualmente ela é feita de forma automática durante o POST. Já configuração de drives padrão SATA varia conforme a marca e modelo da placa-mãe, de modo que o ideal é obter as informações na documentação da placa ou no site do fabricante. No entanto, só precisamos nos preocupar com isso no caso de uma montagem ou de um upgrade de placa ou de HD.

A configuração da sequência de boot costuma ser disponibilizada na seção "Advanced Setup" ou algo de nome semelhante, onde definimos a ordem dos dispositivos em que os arquivos de inicialização devem ser procurados. Até algum tempo atrás, era comum darmos prioridade ao drive de disquete, embora fosse igualmente comum o BIOS travar quando não encontrava um sistema de inicialização no primeiro dispositivo. Como os programas mais recentes são mais “inteligentes”, podemos tranquilamente configurar o CD-ROM e o HDD como opções primária e secundária (algumas placas permitem utilizar também pendrives, HDDs externos e outras unidades de armazenamento removível), dispensando, assim, alterações na hora de reinstalar o Windows ou de rodar uma distribuição Linux diretamente do CD, por exemplo.

Cumpridas essas etapas, salvamos as configurações, retornamos à tela inicial, selecionamos “Load Setup Defaults”, “Load Optmized Defaults” ou algo semelhante (para que os demais parâmetros sejam implementados automaticamente) e seguimos as instruções na tela para salvar as configurações, encerrar o Setup e reiniciar o computador com os parâmetros otimizados devidamente carregados.

Observação: A opção “Load Defaults...” implementa parâmetros bastante funcionais, embora não tanto quando os ajustes finos feitos manualmente por usuários experientes. “Load Fail...” reduz drasticamente o desempenho da máquina (as caches são desativadas, o clock da CPU é reduzido, e o tempo de acesso da memória é o mais elevado possível), mas pode ser útil na hora de pesquisar a causa de eventuais problemas. A opção “Load Original Value”, quando disponível, recarrega a configuração padrão, desfazendo as modificações implementadas pelo usuário.

Para concluir, vale lembrar que as demais seções do Setup oferecem uma vasta gama de configurações que só devem ser modificadas em caso de real necessidade e, mesmo assim, por alguém que saiba o que está fazendo. Vale lembrar também que todo programa passa por atualizações durante seu ciclo de existência, e o BIOS não é exceção – à medida que surgem novos dispositivos e padrões, ele precisa "evoluir" para reconhecê-los. 

Note que um upgrade do BIOS (veja mais detalhes em http://fernandomelis.blogspot.com/2008/04/atualizao-do-bios.html) não é uma operação para ser levada a efeito por principiantes, pois uma gravação feita a partir de um arquivo errado, por exemplo, pode inutilizar a Flash ROM, que precisará ser trocada por outra igual, com o BIOS correto já gravado. No entanto, se o BIOS gravado na ROM estiver errado, não será possível executar um boot, e sem o boot, não será possível usar o programa gravador para reprogramar o BIOS correto.

Por último, mas não menos importante, aviso aos interessados que, se me mandarem um e-mail com “CMOS Setup” no campo do assunto, receberão de volta o PDF com um texto detalhado sobre as demais possibilidades do CMOS Setup.

Tenham todos um ótimo dia.

segunda-feira, 4 de julho de 2022

A IRRITANTE DEMORA NA INICIALIZAÇÃO DO PC

O PODER ATRAI O PIOR E CORROMPE O MELHOR.

Os PCs evoluíram muito desde os anos 1970, mas ainda não “ligam” tão rapidamente quanto uma lâmpada. A energia elétrica é fundamental em ambos os casos, mas, no caso do computador, o boot e a inicialização do sistema vão muito além de simplesmente incandescer um filamento. 

 

Os PCs são formados por dois subsistemas distintos, mas complementares. No pré-história da computação pessoal, definia-se o hardware como aquilo que o usuário podia chutar, e o software, como o que ele só podia xingar.

 

O tempo que a máquina leva para inicializar depende de diversos fatores. Depois de migrar para o Win11, meu Dell Inspiron passou demorar mais de 1 minuto para exibir a tela de boas-vindas e outros 4 ou 5 minutos para me deixar começar a trabalhar. No meu Mac Pro, a tela inicial surge em poucos segundos e basta eu digitar a senha para ter total controle sobre o sistema e os aplicativos. 


Observação: O “problema” do portátil é o jurássico HDD (de 2 TB e 5400 RPM), muito mais lento que o SSD PCI Express com NVMe do Mac.

 

A demora na inicialização do Windows sempre me incomodou. A Microsoft prometia maior agilidade toda santa vez que lançava uma nova versão, mas o software foi se agigantando e uma configuração de hardware responsável custa os olhos da cara (rodar o Win11 sem SSD e pelo menos 6 GB de RAM é uma teste de paciência).

 

Muita coisa acontece do momento em que ligamos o computador até o instante o software se torna “operável”. Nesses preciosos segundos (ou longos minutos, conforme o caso), o BIOS (ou o UEFI, também conforme o caso) realiza um autoteste de inicialização (POST, de Power On Self Test), busca os arquivos de inicialização (respeitando a sequência declarada no CMOS Setup), e “carrega” na RAM os drivers, as DLLs e outros arquivos essenciais ao funcionamento do computador, bem como o sistema na RAM (não integralmente, ou não haveria memória que bastasse). 


O BIOS (de Basic Input/Output System) é primeira camada de software do computador. Trata-se de um programinha de “baixo nível” gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe. O UEFI (de Unified Extensible Firmware Interface) faz basicamente a mesma coisa, mas muito mais rapidamente. Já o CMOS (de Complementary Metal Oxide Semiconductor) é componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria — que mantém essa memória energizada para que as informações não se percam quando desligamos o computador.

 

O “boot” é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema assuma o comando da máquina e o usuário, o comando do sistema. Numa tradução direta do inglês, boot significa bota ou botina, mas seu uso no âmbito da informática remete à expressão “pulling oneself up by his own bootstraps”, que podemos traduzir por “içar a si mesmo pelas alças das botinas” e, por extensão, por “fazer sozinho algo impossível de ser feito sem ajuda externa”. 

 

Observação: Fazer o Setup” consiste em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.


Continua...

segunda-feira, 8 de março de 2021

WINDOWS — INICIALIZAÇÃO LENTA — COMO RESOLVER

SER DE ESQUERDA OU DE DIREITA SÃO MANEIRAS DE ESCOLHER SER UM IMBECIL, POIS AMBAS SÃO FORMAS DE HEMIPLEGIA MORAL.

O ideal seria ligarmos o computador e ele responder prontamente, como uma lâmpada responde ao comando do interruptor. Mas o mundo em que vivemos está longe de ser o ideal. Demais disso, é preciso ter em mente que um sistema computacional é composto por dois subsistemas sistemas distintos — mas complementares e interdependentes —, que são o hardware (aquilo que o usuário chuta) e o software (aquilo que ele xinga). E que, a despeito da evolução tecnológica havida nas últimas décadas, as limitações do pré-histórico BIOS e do jurássico disco rígido eletromecânico retardam a inicialização do Windows e impactam negativamente o desempenho global do PC (*).

hardware é a parte física do computador (gabinete, teclado, monitor, placa-mãe, placas de expansão, memórias etc.) e o software, a porção “lógica”, representada pelos programas (sistema operacional, aplicativos, utilitários etc.). No léxico da informática, “programa” remete a um conjunto de instruções (em linguagem de máquina) que descrevem uma tarefa a ser realizada, e pode referenciar tanto o código fonte (escrito em linguagem de programação) quanto o executável que o contém.

Qualquer dispositivo computacional (de mesa, portátil ou ultraportátil) é comandado por um sistema operacional, que embora seja essencialmente um programa, destaca-se dos demais por ser o responsável, dentre outras atribuições, pelo gerenciamento do hardware e do software, por prover a interface usuário/máquina e por servir como base para a execução dos aplicativos.

Toda vez que ligamos o computador, o BIOS realiza um autoteste de inicialização (POST, de power on self test), busca os arquivos de boot (respeitando a sequência declarada no CMOS Setup), “carrega” o sistema na memória RAM (não integralmente, ou não haveria memória que bastasse, mas  exibe a tradicional tela de boas-vindas. 

BIOS é a primeira camada de software do sistema computacional, ou seja, um programinha de “baixo nível”, como se costuma dizer, mas sem a conotação pejorativa com que essa expressão costuma ser utilizada. Ele é gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe.

CMOS é um componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria, que é responsável por manter essa memória energizada (para que não perca as informações toda vez que o computador é desligado).

Convencionou-se chamar boot ao processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema operacional assuma o comando da máquina. Numa tradução direta do inglês, boot significa bota ou botina, mas, no jargão da TI, é sinônimo de inicialização. Essa acepção advém da expressão “pulling oneself up by his own bootstraps” (“içar a si mesmo pelas alças das botinas”), e, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”. 

Observação: Segundo alguns autores, a adoção desse termo remota ao tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções progressivamente mais complexas, num processo conhecido como bootstrapping.

"Fazer o Setup" consiste, por sua vez, em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.

(*) A exemplo de "focar", "impactar" é um verbo transitivo direto, mas uma confusão — bastante comum, aliás — costuma ocorrer nas construções em que se emprega o substantivo, que requer o complemento preposicionado (assim: focar o afeto, mas [ter] foco no afeto).  Além de repelir a preposição (na condição de verbo intransitivo, como em A greve impactou bastante), impactar pode ainda ser  transitivo direto (a greve impactou o serviço bancário), mas jamais "transitivo indireto", dependente da preposição "em", sendo errôneas, portanto, as frases: "O estudo impactou no resultado"; "As provas impactaram no julgamento da lide". Por outro lado, aquilo que causa impacto, causa impacto em, donde se admite, com acerto, em locução verbal, as frases: "O estudo causou impacto no resultado"; "As provas causaram impacto no julgamento da lide". Portanto, o erro de regência causa um grande e negativo "impacto".

Continua no próximo capítulo.

sexta-feira, 28 de julho de 2017

POR QUE REINICIAR O COMPUTADOR? ― Conclusão.

DIGA-ME COM QUEM ANDAS E EU DIREI SE VOU CONTIGO.

Complementando o que foi explicado no post anterior, mas sem descer a detalhes técnicos que transcenderiam o escopo as possibilidades desta matéria ― e mais complicariam do que esclareceriam o assunto ―, vale dizer que:

Alguns dos principais arquivos do Windows (dentre os quais o Registro) ficam bloqueados quando o sistema está carregado, e uma vez que diversos procedimentos ― como a instalação de drivers ou as atualizações do próprio sistema operacional, apenas para ficar nos exemplos mais notórios ― precisam acessar esses arquivos, a reinicialização do computador é necessária para a validação das alterações.

Na hipótese de problemas meramente pontuais, reiniciar o aparelho é mais prático e rápido do que tentar descobrir as causas da anormalidade ― aliás, se o aborrecimento não se repetir, sua causa é irrelevante, embora erros recorrentes devam ser investigados a fundo, mas isso já outra história. 

Tanto o sistema quanto os aplicativos e arquivos que manipulamos quando operamos o computador, o smartphone, etc. são carregados na memória RAM, e mesmo que o Windows, em suas edições mais recentes e em determinadas versões, seja capaz de reconhecer e gerenciar centenas de gigabytes de memória RAM, a maioria dos PCs dispõe de algo entre 6 GB e 8 GB, e à medida que esse espaço vai sendo ocupado, a memória virtual entra em ação para evitar as aborrecidas mensagens de memória insuficiente (que eram recorrentes nas edições antigas do Windows). No entanto, a memória virtual é apenas um paliativo, e por ser baseada no disco rígido (que é muito mais lento que a RAM), ela reduz drasticamente o desempenho global do sistema. Então, para restabelecer o status quo ante, encerre os programas ociosos. Caso isso não resolva o problema, reinicie o computador, pois a RAM é volátil e os dados que armazena “evaporam” no instante em que o fornecimento energia é interrompido.

Observação: Todo programa em execução ocupa espaço na memória, mas alguns não liberam esse espaço quando são finalizados. Outros, ainda, tornam-se gulosos durante a sessão e vão se apoderando de mais e mais memória. O resultado é lentidão generalizada e, em situações extremas, travamentos, às vezes acompanhados de uma tela azul da morte. A boa notícia é que na maioria das vezes o computador volta ao normal após ser desligado e religado depois de um ou dois minutos.

Costuma-se dizer que reinicializações frequentes reduzem a vida útil do HD, o que não deixa de fazer sentido. No entanto, esse dispositivo é dimensionado para suportar milhares de ciclos liga/desliga. De modo geral, na improvável hipótese de você reiniciar sua máquina 20 vezes por dia, seu HD só deve dar os primeiros sinais de fadiga depois de uns cinco ou seis anos, ou seja, quando já estiver mais que na hora de você comprar um PC novo.

Observação: Ainda que deixar o computador em standby ou em hibernação seja vantajoso em determinadas circunstâncias, até porque a máquina "desperta" mais rapidamente do quando é religada depois de um desligamento total, prolongar uma sessão do Windows por dias a fio (mesmo que ela seja seccionada por suspensões e/ou hibernações) resultará fatalmente em lentidão ou instabilidades que acabarão levando a um crash total. Portanto, não se acanhe em reiniciar a máquina ao menor sinal de problemas iminentes.

Conforme foi dito em outras postagens, DLL é a sigla de Dynamic Link Library e remete a uma solução (desenvolvida pela Microsoft) mediante a qual as principais funções usadas pelos aplicativos são armazenadas em "bibliotecas" pré-compiladas e compartilhadas pelos executáveis. Assim, quando um programa é encerrado, os arquivos DLL que ele utilizou permanecem carregados na memória, dada a possibilidade de esse mesmo aplicativo voltar a ser aberto ou de o usuário executar outros programas que compartilham as mesmas bibliotecas. Mas isso acarreta um desperdício significativo de RAM e, consequentemente, aumenta o uso do swap-file (arquivo de troca da memória virtual). Como a RAM é volátil, a reinicialização “limpa” os chips de memória, fazendo com que o sistema ressurja lépido e fagueiro (ou nem tanto, dependendo do tempo de uso e da regularidade com que o usuário executa os indispensáveis procedimentos de manutenção).

Observação: Reiniciar um aparelho consiste basicamente em desligá-lo e tornar a ligá-lo logo em seguida. O termo reinicializar não significa exatamente a mesma coisa, mas o uso consagra a regra e eu não pretendo encompridar este texto discutindo questões semânticas. Interessa dizer é que desligar o computador interrompe o fornecimento da energia que alimenta os circuitos e capacitores da placa-mãe e demais componentes, propiciando o "esvaziamento" das memórias voláteis. Já quando recorremos à opção "Reiniciar" do menu de desligamento do Windows, o intervalo entre o encerramento do sistema e o boot subsequente pode não ser suficiente para o esgotamento total das reservas de energia, razão pela qual, para não errar, desligue o computador e torne a ligá-lo depois de alguns minutos sempre que uma reinicialização se fizer necessária.

O que foi dito nesta sequência de postagens se aplica ao PC, mas, guardadas as devidas proporções, vale também para smartphones, tablets e outros dispositivos eletroeletrônicos comandados por um sistema operativo, por mais simples que ele seja.

TEMER, O INCANSÁVEL TRABALHADOR

Desde maio do ano passado, quando assumiu o timão da nau dos insensatos, Michel Temer nunca trabalhou tanto como nas últimas semanas. Pena que esse afã não visasse aos interesses da nação, mas apenas a evitar a abertura do inquérito no supremo que pode torná-lo mais um candidato a hóspede do sistema penitenciário tupiniquim com escala no gabinete mais cobiçado do Palácio do Planalto. Afinal, Lula já está bem encaminhado nessa direção, Dilma deve segui-lo em breve e os atuais presidentes da Câmara e do Senado não tardam a seguir pela mesma trilha, já que ambos são investigados na Lava-Jato e ainda não se tornaram réus porque, no STF, as denúncias avançam a passo de cágado perneta.

E o pior é que, no Supremo, as coisas se arrastam mesmo depois da condenação. Prova disso é o fato de Paulo Maluf continuar livre, leve e solto, a despeito de ter sido condenado pela 1ª Turma a 7 anos, 9 meses e 10 dias de prisão por lavagem de dinheiro (com início da pena em regime fechado), além de pagamento de multa e perda do mandato de deputado federal. A decisão foi proferida em maio, mas até agora não surtiu qualquer efeito.

Talvez os ministros estejam confiantes de que Maluf seja preso pela Interpol ― vale lembrar que a Corte de Apelações de Paris condenou o conspícuo deputado a três anos de prisão e pagamento de multa de 200 mil euros, além de determinar o confisco de 1,84 milhão de euros. Sua esposa, Silvia Lutfalla Maluf, também foi condenada a três anos, com multa de 100 mil euros. Mas para isso o turco lalau terá de sair do país, já que o Brasil não extradita seus cidadãos. Muito conveniente, né?

Voltando a Michel ma belle: para comprar o voto das marafonas do parlamento, que se vendem como prostitutas em bordéis da boca-do-luxo, somente neste mês o presidente liberou cerca de R$ 2 bilhões em emendas (valor equivalente ao total de todo o primeiro semestre). Isso quando a previsão é de que as contas públicas fechem o ano com um rombo de R$ 140 bilhões ― ou um pouco menos, já que, para fazer caixa, sua insolência resolveu se espelhar em sua abilolada antecessora e tascar um tarifaço de impostos nos combustíveisA liminar do juiz federal Renato Borelli, que anulava o aumento, já foi derrubada pelo desembargador Hilton Queiroz, presidente do TRF1. Cabe recurso, naturalmente, mas aí a decisão final fica sabe lá Deus para quando, e mesmo que a medida presidencial seja cassada, o governo certamente encontrará maneiras de escorchar o contribuinte e forçá-lo a pagar a conta de sua incompetência, até porque, pelo visto, cortar gastos está fora de cogitação.

Da sociedade, Temer e seus comparsas esperam boa vontade, solidariedade e compreensão. Faz sentido: se o cidadão já é assaltado por bandidos cotidianamente, por que não ser assaltado também por um Estado inchado, ineficiente e incapaz?

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

sábado, 21 de outubro de 2006

Fragmentação dos dados - Primeira parte

Para completar a faxina que iniciamos nas postagens anteriores, falta fazer a desfragmentação do HD. Esse procedimento é simples e exige uns poucos cliques do mouse (e uma boa dose de paciência, especialmente se você nunca rodou ou raramente roda o defrag). Note que a fragmentação não é exatamente um problema, mas uma decorrência natural da forma como o Windows gerencia o espaço no disco. Todavia, quando se torna excessiva, ela deixa o HD mais ou menos como um quarto de adolescente em dia de folga da faxineira, e acaba degradando o desempenho do sistema. Vejamos, ainda que em rápidas pinceladas, por que isso acontece:
O disco rígido (ou HD, ou Winchester), a despeito de ser tratado com descaso por muita gente que se atém apenas ao seu "tamanho", é um dos grandes responsáveis pela performance do computador. Aliás, não seria incorreto a gente se referir a ele como "memória", já que esse termo remete a qualquer meio destinado ao armazenamento de dados. A questão é que o PC utiliza diversas memórias (de tipos, tecnologias e aplicações distintas), dentre as quais a RAM (memória física) e o HD (memória de massa)... Vejamos isso melhor:
A RAM é um tipo de memória volátil e de acesso aleatório. Volátil, porque perde os dados quando o PC é desligado; de acesso aleatório, porque as informações podem ser lidas e gravadas a partir de qualquer de seus endereços - o que a torna especialmente veloz (se comparada ao HD), e faz dela a principal ferramenta de trabalho do processador (que, como todos sabemos, é o cérebro do computador).
É na RAM que são carregados e manipulados todos os programas e dados - desde o sistema operacional e os demais aplicativos, até um simples documento de texto como este que eu estou redigindo agora. Claro que o sistema o os programas não são carregados inteiros - ou não haveria espaço que chegasse -, mas divididos, conforme suas características, em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes) que são remetidos para a RAM conforme sejam requisitados pelo processador.
O HD, por sua vez, faz o papel de "memória de massa" do sistema. Apesar de ser milhares de vezes mais lento que a RAM - do ponto de vista da leitura, escrita e transferência de dados - ele grava as informações de maneira "persistente" (não confundir com "permanente"). Assim, os arquivos são preservados depois que desligamos o computador e novamente carregados para a RAM, via programa de boot, quando reiniciamos a máquina.
Por hoje, chega. Enquanto você digere essas informações, eu vou cuidar de outros assuntos e preparar a próxima postagem.
Bom sábado a todos.

segunda-feira, 6 de junho de 2022

DO ÁBACO AO SMARTPHONE (CONTINUAÇÃO)

VIVEMOS COM NOSSOS DEFEITOS COMO COM O CHEIRO QUE TEMOS; NÓS NÃO O SENTIMOS, ELE SÓ INCOMODA OS OUTROS.


O iPhone transformou em computador ultraportátil um aparelho que nasceu telefone sem fio de longo alcance. Com sistema operacional e uma profusão de aplicativos, a demanda energética do dispositivo cresceu para além da capacidade da bateria, e a autonomia passou a disputar com o tamanho da tela o topo do ranking das características mais valorizadas pelos usuários. 


No que tange ao display, há aparelhos do tamanho de tábuas de carne. Quanto à energia, ou se paga mais por um modelo com bateria de 5.000 mAh ou superior, que dure pelo menos um dia inteiro, ou se é obrigado a fazer um pit stop entre as recargas.


É possível aumentar a capacidade das baterias; difícil é fazê-lo sem que tamanho, peso e custo de fabricação cresçam na mesma medida. Traçando um paralelo meramente ilustrativo com os veículos elétricos, enquanto o iPhone 11 Pro Max integra uma bateria de 3.969 mAh (equivalente a 0,01504 kWh), BMW i3 de 2015 já usava um modelo com capacidade de 22 kWh, que lhe garantia uma autonomia de até 135 km. Quatro anos depois, uma "usina" de 98,7 kWh permitiu ao Ford Mustang Mach Extended Range rodar até 610 km sem recarrega. 

 

Observação: Os veículos elétricos surgiram no final do século XIX, mas deixaram de ser fabricados em 1915, quando Henry Ford lançou o modelo T. Quando a ideia voltou à baila, muitos anos depois, a Gurgel Motores S/A lançou o primeiro carro elétrico da América Latina. Com um motor de 3,2 kWh (potência equivalente a 4,2 cv) e pesando 460 kg (320 kg só das baterias), o Itaipu E150 atingia 30 km/h de velocidade máxima nas primeiras versões; as últimas já alcançavam 70 km/h na descida e com vento a favor, mas sua autonomia média era de 70 kmAntes de baixar as portas (em 1996), o engenheiro João Augusto Conrado do Amaral Gurgel apostou as últimas fichas no furgão elétrico Itaipu E400, com motor de 11 cv e autonomia de apenas 80 km (a bateria levava até 10 horas para recarregar). O tempo provaria que Gurgel mirou o alvo certo, apenas não dispunha da arma adequada para atingi-lo. Atualmente, os carros da Tesla são os que oferecem maior autonomia — o Tesla Model S Long Range Plus lidera o ranking, com autonomia de 647 km, contrapondo-se ao MINI Cooper SE, que roda apenas 177 km. 

 

Enquanto buscam uma solução factível e comercialmente viável, os fabricantes de baterias se valem de paliativos, como sistemas de “carregamento rápido” e softwares que otimizam o consumo (mais detalhes na sequência de postagem iniciada aqui). Mas as limitações dos ultraportáteis (e dos computadores em geral) vão bem além da autonomia.


O desempenho de qualquer dispositivo computacional é limitado pelo hardware que o integra. Claro que o sistema (Windows, macOS, Linux, Android, iOS etc.) também impacta, positiva ou negativamente, a performance global: rodar o Win11 numa máquina com disco rígido eletromecânico é um verdadeiro teste de paciência.

Para além da capacidade de armazenamento de energia (que dita a autonomia dos ultraportáteis), há ainda limitações impostas pelo processador, pelas memórias e pelas interfaces de vídeo, áudio e rede, entre outras. Segundo Mestre Morimoto, “todo computador é tão rápido quanto seu componente mais lento”.

Um PC com processador ultraveloz e pouca memória RAM tende a ser mais lento do que seria se dispusesse de uma CPU mediana e fartura de RAM. Claro que a importância de cada componente é relativa. As limitações de uma placa de rede 10/100, por exemplo, só são sentidas quando a tarefa depende diretamente da largura de banda nos downloads e uploads. Da mesma forma, vídeo e áudio chinfrins não incomodam um usuário que se limita a assistir a clipes no YouTube, também por exemplo.

No que concerne ao processador e às memórias, o buraco é mais embaixo. Todo computador usa memórias de diversas tecnologias (RAMROMHDD/SSDcache, etc.), mas é na RAM (memória física ou primária) que o sistema operacional, os aplicativos e os demais arquivos são carregados e processados — geralmente a partir da memória de massa, que nos PCs corresponde ao drive de disco rígido (ou de memória sólida, conforme o caso) e nos ultraportáteis, ao armazenamento interno. 

A RAM é uma memória volátil e de acesso aleatório. Volátil, porque só retém os dados quando está energizada; de acesso aleatório, porque grava e lê dados a partir de quaisquer endereços, de forma não sequencial. O acesso aleatório a torna milhares de vezes mais rápida do que os drives de disco rígido (HDD) e suas taxas de transferência e velocidade de escrita e gravação são superiores às dos drives de memória sólida (SSD). Por outro lado, devido à volatilidade, é preciso haver uma memória “persistente” (não confundir com permanente) que preserve o conteúdo mesmo com o computador desligado.

 

Quando ligamos o computador, arquivos do sistema e dos aplicativos que pegam carona na inicialização são carregados para a RAM a partir da memória de massa (ou secundária), que é representada pelo HDD e/ou SSD em desktops e notebooks, e pelo armazenamento interno em smartphones e tablets. A quantidade de RAM influencia diretamente o desempenho do aparelho: quando ela é insuficiente, o uso da memória virtual  evita a exibição das antigas mensagens de "memória insuficiente", mas deixa o sistema muuuuuuuito lento.  

 

O Gerenciador de Memória Virtual libera espaço na RAM enviando para um "arquivo de troca" (swap file) as sessões "não prioritárias" naquele momento, e trazendo-as de volta mais adiante, se e quando necessário. O problema é que esse arquivo é baseado na memória de massa, que é muito mais lenta do que a já relativamente lenta RAM


Se você observar as especificações do seu aparelho, verá que o HDD, SSD ou armazenamento interno são "latifúndios" de centenas (ou milhares) de gigabytes, ao passo que RAM só ultrapassa 4 GB nos modelos mais caros, embora o recomendável seja atualmente 8 GB. 


Continua...

sexta-feira, 24 de abril de 2020

SOBRE A RENÚNCIA DE MORO E DE VOLTA À RENÚNCIA DE JÂNIO, SUAS CONSEQUÊNCIAS E OUTRAS CURIOSIDADES — PARTE IV


Ontem, após ficar bastante volátil com notícias envolvendo o remédio Remdesivir, o Ibovespa passou a cair mais de 2% com a informação divulgada pela FOLHA, no meio da tarde, de que o ministro Sergio Moro havia pedido demissão após ser informado por Bolsonaro da iminente troca da diretoria-geral da Polícia Federal, atualmente ocupada por Maurício Valeixo. Ainda segundo a notícia, Bolsonaro estaria tentando reverter a situação e os ministros Braga Netto (Casa Civil) e Luiz Eduardo Ramos (Secretaria de Governo) foram escalados para convencer Moro a recuar da decisão.  Cerca de uma hora depois, a GloboNews noticiou que Moro não chegou a pedir demissão, mas ameaçou deixar o cargo caso o presidente realizasse a troca na PF. Oficialmente, o ministério da Justiça disse que o ministro não se demitiu.

ATUALIZAÇÃO: Bolsonaro demitiu Valeixo em plena madrugada. A exoneração foi publicada na manhã desta sexta-feira no D.O.U. Nela, consta que a demissão se deu "a pedido", mas não foi decisão de Valeixo deixar o cargo neste momento. Nos bastidores, comenta-se que dessa forma a demissão evitaria ainda mais desgastes a Sergio Moro, que deve se pronunciar sobre sua permanência ou não no cargo ainda nesta manhã (as 11h desta manhã). Especula-se que Moro tenha ficado extremamente incomodado com a ida de Bolsonaro à manifestação do último domingo e de o presidente abrir as portas de seu gabinete aos líderes do Centrão. A ingerência do capitão na PF foi apenas a gota que fez transbordar o copo. Especula-se também que o ministro ficará no governo caso possa escolher o substituto do agora ex-diretor-geral da PF.

Pelo visto (e pelos filhos), Bolsonaro é capaz de tudo. Até de pôr seu próprio governo em xeque (para o bem do Brasil, tomara que seja xeque-mate). Mas o presidente não terá vida fácil diante da PF depois de demitir seu diretor-geral. Sobretudo porque o verdadeiro motivo, como é público e notória, foi a PF cumprir seu trabalho em vez de proteger a família do presidente de investigações incômodas. A intenção do capitão é nomear um lambe-botas sob medida para seus objetivos. O problema é que, pela tradição da PF, o diretor-geral que sai indica uma série de nomes (em geral seus assessores mais próximos, superintendentes regionais ou adidos no exterior) ao ministro da Justiça, que leva o seu escolhido ao presidente da República, que chancela a indicação. A ideia de subverter esse jogo e a nomeação vir diretamente de Bolsonaro não é só uma humilhação (mais uma) que Moro não parece disposto a aceitar — mas é também algo que a corporação deve rejeitar com vigor.

Internamente, os delegados mais graduados lembram o desastre de uma tentativa recente de mudar a tradição na nomeação do diretor-geral. No início de 2018, Fernando Segóvia foi demitido do comando da PF, pelo recém empossado ministro Raul Jungmann, depois de apenas 99 dias no cargo. Segóvia fora escolhido por Michel Temer, atendendo à indicação de emedebistas enrolados na Lava-Jato e passando por cima da opinião do então ministro da Justiça, Torquato Jardim. Já na cerimônia de posse disse a que veio: botou em dúvida fatos das investigações sobre Rodrigo Rocha Loures, aquele assessor de Temer que foi filmado recebendo uma mala com R$ 500 mil das mãos de um diretor da JBS. A partir daí, foi crise em cima de crise. Segóvia tentou, mas nunca conseguiu liderar a PF nos três meses que esteve à frente dela. Durante o seu tempo como diretor-geral, não conseguiu controlar a PF do jeito que Temer e parte do MDB queriam.

Vamos aguardar para ver que bicho dá.

Quando cursava o primário — como eram denominados os primeiros quatro anos do que hoje se chama ensino fundamental —, aprendi uma forma verbal chamada "condicional", que mais adiante seria rebatizada de "futuro do pretérito", já que expressa tanto uma situação quanto uma condição. Um exemplo do primeiro caso é: “eu compraria aquele carro, se o preço fosse mais baixo”; e do segundo: “anos atrás eu não tinha certeza se compraria o carro que tenho hoje”.

Em ambos os casos o verbo se comporta da mesma forma, mas com sentidos diversos, o que não deixa dúvidas acerca da exatidão das duas designações. Ainda assim, há quem entenda que o condicional não indica uma condição

No primeiro exemplo, temos duas orações, e a condicional não é a primeira, onde está o verbo no modo condicional, mas a segunda, indicada pela conjunção subordinativa condicional ou causal “se”. Na esteira desse raciocínio, parece-me realmente mais apropriado chamar o tempo verbal em questão de “futuro do pretérito”.

Embora o termo pretérito seja usado como sinônimo de passado, ele não remete ao presente em que vivemos, mas a um presente em que viveríamos se, por exemplo, numa encruzilhada do passado, tivéssemos virado à esquerda em vez de à direita, ou retrocedido até a encruzilhada anterior. 

Nessa linha de raciocínio, a pergunta que se impõe é: como seria o Brasil de hoje se Tancredo tivesse tomado posse, governado pelos cinco anos que a Constituição de então lhe garantia e, ao final, passado a faixa para (aí, sim) o primeiro presidente escolhido pelo voto popular desde a eleição de Jânio em 1960 (que seria... ???). The answer, my friends, is blowing in the wind.

Muita coisa poderia dar errado no capítulo final da novela da transição da ditadura militar para a democracia. Em 1984, em conversa com o ex-secretário de Estado norte-americano Henry Kissinger, o então presidente-general Figueiredo teria dito que, naquele momento, “as Forças Armadas estavam divididas em dois grupos: um que apoiava fortemente a volta do governo civil e outro que estava disposto a impedir o que via como um avanço da esquerda”. Kissinger questionou se algo poderia acontecer antes ou depois das eleições, em janeiro de 1985. Figueiredo respondeu: “Sim, dependendo do desenrolar dos acontecimentos”, e salientou que “as Forças Armadas não falhariam ao compromisso de impedir, nas palavras dele, que esquerdistas tomassem o país, e que, se os militares tivessem que intervir, o país poderia ser levado a uma guerra civil”. Figueiredo via Tancredo como “uma pessoa capaz e moderada”, mas “cercada e apoiada por muitos radicais de esquerda”, e tinha receio de que, quando assumisse o poder, se eleito fosse, o político mineiro “não conseguisse controlá-los”.

Muito se cogitou da hipótese de Tancredo ser assassinado, mas — eis aí a gargalhada do capeta —, pelo menos até onde eu sei, ninguém previu que ele seria internado 12 horas antes da cerimônia de posse e morresse 38 dias (e sete cirurgias) depois. Mesmo assim, essa ironia do destino deu margem a um sem-número de teorias conspiratórias, a exemplo do ocorrido com o Papa João Paulo I em 1978 — 33 dias depois de ser nomeado papa, o cardeal Albino Luciani foi encontrado morto em seus aposentos, na manhã do dia 28 de setembro daquele ano, depois de ter tomado uma inocente chávena de chá na noite anterior.

A posse de Sarney soou como a “gargalhada do diabo” nos estertores da ditadura militar (na prática, a Nova República só teria início três anos depois, com a promulgação da Constituição Cidadã — criada durante a ressaca dos 21 anos de ditadura; portanto, compreensivelmente apinhada de direitos em seus 250 artigos que são não apenas o obelisco da prolixidade, mas uma colcha de retalhos.

A Carta Magna promulgada em 1988 foi remendada mais de uma centena de vezes (a título de comparação, a constituição norte-americana, promulgada em 1787, tem apenas 7 artigos e recebeu 27 emendas nos últimos 220 anos), e distribuiu diretos a rodo, mas sem apontar de onde viriam os recursos para bancá-los. A propósito: a palavra “Direito” é mencionada 76 vezes, enquanto "Dever" surge apenas 4 oportunidades e "Produtividade” e “Eficiência” aparecem duas e uma vez, respectivamente. Daí a pergunta: o que esperar de um país que tem 76 direitos, quatro deveres, duas produtividades e uma eficiência? A resposta: na melhor das hipóteses, uma política pública de produção de leis, regras e regulamentos que quase nunca guardam relação com o mundo real.

Com a morte de Tancredo, o vice José Sarney — que estava no lugar certo na hora certa — assumiu a presidência, a despeito de Figueiredo se recusar a lhe passar a faixa (por considerar traição ele ter abandonado a ARENA e se filiado ao MDB para integrar a chapa de Tancredo). Como se vê, a mosca azul não perdoa ninguém. Mas o político maranhense jamais imaginou o tamanho da encrenca em que se metera ao assumir a presidência sem ter indicado os ministros ou tido qualquer tipo de ingerência no plano de governo, sem contar com o apoio do Congresso, e (a cereja do bolo) com o país amargando uma inflação galopante de 200% ao ano.

Cinco anos e quatro planos econômicos mais adiante, Sarney passou o cetro e a coroa ao caçador de marajás de araque, juntamente com uma inflação 80% ao mês (quase 1.800% ao ano, considerando os doze meses finais do seu governo). Durante sua desditosa gestão, enfrentou mais de 12 mil greves, foi vítima de pelo menos um atentado e, certa vez, um sequestrador tentou jogar um Boeing sobre o palácio. Mas teve jogo de cintura e sempre manteve diálogo com os militares, o Congresso e a oposição. Em recente entrevista a Veja, declarou: Na história do Brasil, muitos presidentes foram eleitos para ser depostos — e eu não podia ser mais um”.

Tivesse feito essa profecia durante seu governo, Sarney teria se revelado um profeta, pois seu vaticínio se materializaria dali a poucos anos, com impeachment de seu sucessor, Fernando Collor de Mello. Mas isso já é conversa para o próximo capítulo.

terça-feira, 30 de setembro de 2008

Defeitos no HD

Reza um velho ditado da informática que usuários de computador se dividem em duas categorias: aqueles que já perderam um HD e aqueles que ainda vão perder.
A maioria dos problemas no disco rígido decorre de desgastes cumulativos, mas, antes de morrer de vez, o drive costuma avisar o usuário de que alguma coisa está errada, seja com a redução (progressiva) no desempenho, seja com um ruído de "castanhola" durante o boot, que vai se tornando mais e mais freqüente (esse barulhinho indica problemas de posicionamento das cabeças eletromagnéticas causados pelo envelhecimento da mídia ou por danos cumulativos nas próprias cabeças).

Observação: é normal o HD emitir um “click” ao ser ligado ou quando retorna do modo de economia de energia, mas clicks repetidos sugerem problemas.

Sintomas menos evidentes podem ser monitoradas pela própria placa lógica do drive. Todos os HDs atuais contam com sistema chamado S.M.A.R.T., que gera um relatório e o armazena numa área de memória não volátil do disco. Embora esse recurso não tenha o condão de prever defeitos súbitos - como os causados por picos de tensão, por exemplo -, ele costuma ser eficiente na hora de alertar sobre o risco de defeitos mecânicos. Você pode acessar o relatório utilizando programas como o HDTune (http://www.hdtune.com/) e o SmartExplorer (http://adenix.net/downloads.php), ambos freeware.
Qualquer computador de fabricação recente - mesmo um modelo barato, de entrada de linha - já traz um HD de 60 ou mais Gibabytes (o que não é muita coisa, visto que existem modelos de 500 GB, mas pode parecer um "absurdo" para quem usava PCs no final do século passado, quando discos de 3 ou 4 GB eram considerados mais do que suficientes para um usuário doméstico).
Claro que espaço nunca é demais, não só devido ao "inchaço" dos sistemas e programas recentes, mas também por conta da vocação que muita gente tem para armazenar toneladas de arquivos (especialmente multimídia). Entretanto, é preciso avaliar outros parâmetros além do tamanho - tais como a interface de comunicação com a placa-mãe (se sua placa não oferecer suporte nativo ao SATA, fique com um disco ATA 100 ou ATA 133); a rotação do motor (opte por um modelo cujo motor opere a pelos menos 7.200 RPM, de preferência com rolamentos FDBM, para reduzir o nível de ruído); o tamanho do cache de memória (quanto maior, melhor) e o tempo de acesso (quanto menor, melhor a perforamance do HD).
Para mais informações, visite http://www.maxtor.com/, www.wdc.com/pt/ e www.sansung.com/br/.

Bom dia a todos e até mais ler.

terça-feira, 11 de julho de 2017

VOCÊ CONHECE SEU PC? ― Parte VI

NEURASTENIA É DOENÇA DE GENTE RICA. POBRE NEURASTÊNICO É MALCRIADO.

Embora o termo "memória" designe, no jargão da informática, qualquer meio destinado ao armazenamento de dados, quando usado genericamente ele remete à RAM, que é a memória física do sistema e principal ferramenta de trabalho do processador. Nenhum computador é capaz de funcionar sem memórias, e o PC as utiliza em diversos formatos e tecnologias.

Observação: RAM é a sigla de Random Access Memory, ou “memória de acesso aleatório”. Trata-se de um tipo de memória volátil ― ou seja, que só retém os dados quando energizada (daí o boot precisar ser refeito toda vez que ligamos o computador) ―, mas que permite o acesso a qualquer dos seus endereços aleatoriamente, o que lhe confere tempos de resposta e taxas de transferência que deixam os drives de HD eletromecânicos no chinelo.

Tanto o sistema operacional quanto os aplicativos e demais arquivos são carregados na RAM a partir da memória de massa (HDD ou SSD, conforme o caso), onde os dados são armazenados de forma persistente, e novamente salvos no disco depois de manipulados (de outra forma, as modificações seriam perdidas sempre que o computador fosse desligado).

A RAM é comercializada em pentes (ou módulos) compostos por diversos chips soldados numa placa de circuito. Diversas tecnologias foram criadas desde a pré-história da informática (FPM, EDO, SDR, RAMBUS, DDR, DDR2, DDR3 e DDR4) e disponibilizadas em módulos de vários formatos (SIMM, DIMM, RIMM, etc.), mas a maioria dos PCs atuais integra memórias DDR3 em módulos com 240 pinos. As DDR4, lançadas em 2014, ainda não são massivamente utilizadas em máquinas de entrada de linha, embora o padrão DDR5 deva ser lançado comercialmente já no próximo ano.

Continuamos na próxima postagem. Até lá.

O INFERNO ASTRAL DE TEMER

Enquanto Lula posa de candidato ― como se não fosse penta-réu na Lava-Jato e não estivesse prestes a receber sua primeira condenação ― e a caterva vermelha colhe assinaturas (?!) para anular o impeachment da anta incompetenta ― como se não bastasse a roubalheira e a destruição que mestre e pupila promoveram durante mais de uma década ―, o governo agoniza, o país anda de lado, Rodrigo Maia cresce e Michel Temer se apequena.

Michel, ma belle, sont les mots qui vont très bien ensemble, tres bien ensemble: Não foi Deus quem o colocou na presidência. Foi Lula. Como vice da anta vermelha, vossa excelência se beneficiou do financiamento espúrio das campanhas milionárias, foi conivente e cúmplice de toda sorte de malfeitos e, por estar no lugar certo na hora certa, subiu de posto, deixando passar uma excelente oportunidade de pedir o boné, voltar para Câmara, ou para onde bem entendesse, e tocar sua vida como se nada tivesse acontecido.

Mas não seria mesmo de se esperar esse ato de grandeza de quem tanto fez para “chegar lá”. Só que o sonho de entrar para a história como “o cara que reconduziu o Brasil ao caminho do crescimento” fica mais distante a cada dia, embora se tenha mostrado plausível durante algum tempo, mesmo que os critérios adotados na formação da equipe econômica não tenham sido estendidos a todo o ministério e, pior, a velha política de compadrio ter sido mantida, a despeito de a sociedade clamar por novos moldes. Em pouco tempos, os pífios índices de popularidade de Michel Temer caíram a níveis abissais, quase tão baixos quanto os de Collor no auge do processo de impeachment e os de Sarney nos tempos “áureos” da hiperinflação.

O que já era ruim ficou ainda pior depois da divulgação da conversa nada republicana com certo moedor de carne bilionário, quando, pela segunda vez, a janela de oportunidade da renúncia se descortinou. Mas os argumentos de Eliseu Padilha, Moreira Franco e outros amigos e assessores enrolados com a Justiça ― que seriam igualmente defenestrados e deixariam de ser investigados no Supremo, onde os processos levam décadas para ser julgados e não raro resultam em impunidade, por conta da prescrição da pena ― falaram mais alto, e a renúncia foi abortada.

Em vez da notícia do afastamento, o que se ouviu do presidente foi um pronunciamento indignado, onde, à repudia às suspeitas descabidas, seguiu-se a afirmação enfática de que “o inquérito no STF seria o território onde surgiriam todas as explicações e de que seria feita “uma investigação plena e muito rápida para os esclarecimentos ao povo brasileiro”. Palavras vazias, como se veria mais adiante, quando as ações desmentiram o discurso e o esforço para barrar o processo ganhou vulto.

A tranquilidade do presidente não passa de fleuma: em recentes incursões pela Rússia e Noruega, onde lhe foi dispensado tratamento de chefete de republiqueta de bananas, Temer chegou mesmo a trocar o nome de um país e referir-se ao monarca do outro aludindo a um terceiro ― gafes esperadas de uma besta quadrada e despreparada como sua antecessora, mas não do grande Michel Temer, político experimentado e constitucionalista consagrado. Na semana passada, diante de meia dúzia de gatos pingados, na Alemanha, ele revelou sua vocação para comediante de stand-up ao dizer que não havia crise econômica no Brasil, a despeito de 14 milhões de desempregados desmentirem essa falácia.

Agora, horas antes (*) da leitura do relatório na CCJ da Câmara ― que determinará, ou não, a admissibilidade do inquérito e cuja decisão certamente influenciará o resultado da votação no plenário ―, Temer sabe que o tempo do “está ruim com ele, mas seria pior sem ele” já passou. Agora, seu apelo é para que os deputados olhem para os ganhos obtidos durante seu governo, que supram em muito a gravidade das acusações, como que defendendo o “rouba, mas faz” adotado por políticos como Adhemar de Barros, Paulo Maluf e distinta companhia.

(*) Enquanto eu elaborava este texto, o deputado Sergio Zveiter, relator da denúncia contra Michel Temer na CCJ, defendeu a aceitação pela Câmara da acusação apresentada pela PGR. Apesar de ser do mesmo partido do presidente, o relator já era considerado um parlamentar de atuação independente, o que era motivo de preocupação para a base aliada. Na próxima quarta-feira, iniciam-se os debates, com o direito à fala dos 66 titulares e 66 suplentes. Além destes, os líderes partidários podem se manifestar a qualquer momento. A expectativa é de que a Comissão possa analisar o relatório de Zveiter até a próxima sexta-feira, em votação simbólica que pode influenciar a decisão do plenário. 

Rodrigo Janot quer a cabeça Temer, e precisa consegui-la até setembro, quando termina seu mandato à frente da PGR. Ele já avisou que, enquanto houver bambu, vai ter flecha. Pena não ter tido o mesmo procedimento quando o petralha Aluízio Merdandante, então ministro da Justiça da anta vermelha, foi gravado tentando silenciar o senador preso Delcídio do Amaral. Ou quando a Lava-Jato expôs a própria anta vermelha no centro da maior quadrilha política da história ocidental. Igualmente lamentável é o fato de a imprensa não demonstrado o mesmo empenho para desmontar os discursos falaciosos e trapaceiros dos ex-presidentes Lula e Dilma, mas tudo isso são águas passadas e de nada adianta chorar sobre o leite derramado.

Dizer que a acusação da PGR é uma obra de ficção soa patético, como também a tentativa de se defender acusando o acusador. As acusações feitas pelo presidente são eminentemente revanchistas e baseadas em ilações sem qualquer fundamento. Para piorar, ele não negou ― e nem teria como negar ― seu encontro fortuito com Joesley no Jaburu, nem a conversa mantida entre eles. Disse apenas que não acreditou no que ouviu, que o empresário era um notório falastrão e que achou que ele estaria se vangloriando (?!) de ter subornado juízes, procuradores e comprado o silêncio de Eduardo Cunha e Lucio Funaro ― hoje hóspedes do sistema prisional tupiniquim.

Questionar a validade da gravação como prova não anula seu conteúdo, e o laudo do perito Ricardo Molina, divulgado na mídia como um espetáculo circense, acabou sendo desmontado pela PF, que procedeu a investigações bem mais meticulosas e, além de atestar que não houve quaisquer edições, ainda recuperou trechos inaudíveis da gravação original. E agora, José, digo, Michel?  

Janot vem cozinhado em fogo brando um dos inquéritos que têm com alvo o Presidente da Câmara (prova disso é que a PF concluiu o relatório em fevereiro, mas a PGR ainda não apresentou a denúncia no STF). Maia nega estar conspirando contra Temer, mas o fato é que, nos bastidores, já se fala que o governo está com os dias contados. O senador Cássio Cunha Lima diz que o presidente não dura mais 15 dias no cargo, e o senador Tasso Jereissati, presidente interino do PSDB, vem tentando convencer os tucanos a “descer do muro” e retirar seu apoio ao Planalto.

Como não existe nada ruim que não possa piorar, as possíveis delações premiadas de Eduardo Cunha, Lúcio Funaro, Rodrigo Rocha Loures e Geddel Vieira Lima devem complicar ainda mais a situação de Temer, sem mencionar que mais hora, menos hora, o presidente da Câmara terá de dar andamento a pelo menos um dos mais de 20 pedidos de impeachment que vem engavetando desde o vazamento da delação de Joesley e companhia. A lua-de-mel entre Michel Temer e Rodrigo Maia acabou depois que Maia resolveu votar em separado as duas outras denúncias que Janot ainda deverá apresentar, em vez de juntar tudo e fazer uma votação única. O resultado será mais desgaste para um governo que já enfrenta dificuldades para reunir votos contrários à abertura do processo.

Segundo levantamento da revista Época, 330 deputados disseram que participarão da votação, a despeito do esforço do Planalto em esvaziar a sessão. A ausência dos parlamentares causa menos desgaste político do que o apoio expresso ao presidente, já que, como no impeachment de Dilma, o voto será aberto, declarado em pé, ao microfone, e transmitido em tempo real para todo o Brasil. Temer e os poucos aliados que lhe restam sabem que é pesado demais para um parlamentar que disputará eleições no ano que vem declarar abertamente seu apoio a um presidente acusado de corrupção passiva e que tem míseros 7% de popularidade.

Ainda de acordo com a reportagem, dos 513 deputados federais, 153 declararam que votarão a favor da denúncia e 51, contra (os 308 restantes estão indecisos ou não responderam, e o presidente da Casa não precisa votar, a não ser em caso de empate). Claro que sempre existe a possibilidade de pressões e ofertas de verbas e cargos produzirem algumas mudanças, mas o governo já liberou R$ 1,8 bilhão em verbas e agora, às vésperas de votação, pouco resta para investir. E se as dificuldades já são grandes para barrar a primeira denúncia, repetir o feito outras duas vezes, com novas negociações, barganhas e convencimento dos parlamentares... Sei não.

Observação: Às vésperas da votação do impeachment de Dilma, o molusco eneadáctilo abancou-se num hotel em Brasília para oferecer cargos e verbas em troca do apoio dos parlamentares. E deu no que deu. Temer tem feito basicamente a mesma coisa, mas errou ao comprar a fidelidade dos parlamentares cedo demais. Uma burrice imperdoável de quem participou ativamente das negociações em 2016, quando ele Eduardo Cunha se mobilizaram para cobrir as ofertas feitas por Lula e Dilma aos parlamentares. Agora, Temer age como Dilma, e Rodrigo Maia, como Temer na ocasião, prometendo, inclusive, manter os cargos que os aliados têm no governo, para ganhar equilíbrio e evitar ataques.

Parece um jogo sórdido ― e é ―, mas é assim que se faz política no presidencialismo de coalização tupiniquim. Para Jereissati, o país está no limiar da ingovernabilidade, e urge costurar um acordo que permita chegar às eleições de 2018. Maia, por sua vez, já se comprometeu a manter a equipe econômica, e esta já pensa no cenário “pós-Temer”: no mês passado, Henrique Meirelles declarou a investidores em Paris que seguiria no cargo, mesmo que Temer caísse.

Pelo andar da carruagem, falta pouco para o consenso de que Temer é tão útil quanto um engraxate nas areias da praia se cristalizar, e isso é péssimo para um presidente impopular, enrolado na Justiça, desprestigiado no Congresso e que precisa lutar para se manter no cargo.  

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/