UM BATE-PAPO INFORMAL SOBRE INFORMÁTICA, POLÍTICA E OUTROS ASSUNTOS.
quinta-feira, 14 de fevereiro de 2019
DE VOLTA À MEMÓRIA RAM - PARTE 7
quinta-feira, 26 de maio de 2022
AINDA SOBRE APLICATIVOS, MEMÓRIA RAM E TASK KILLERS
PARA O TRIUNFO DO MAL, BASTA QUE OS BONS FIQUEM DE BRAÇOS CRUZADOS.
Computadores integram memórias de diversas tecnologias em quantidades variáveis, mas sempre expressas em múltiplos do byte. Assim, é comum as pessoas confundirem a RAM (memória física ou primária) com o HDD/SSD (memória de massa, ou secundária, ou ainda "armazenamento") do sistema.
A título de contextualização, relembro que o bit (de “BInary digiT”) é a menor unidade de informação manipulada pelo computador. Oito bits formam um byte; 1 kB (quilobyte) equivale a 1024 bytes (ou meia página de texto); 1024 kB, a um megabyte (espaço suficiente para armazenar um quinto da obra de Shakespeare). Um gigabyte corresponde a 1024 MB (espaço suficiente para gravar um filme de uma hora de duração); 1.000 GB formam 1 terabyte (15 terabytes são suficientes para digitalizar toda a biblioteca do congresso dos EUA); 1024 TB perfazem 1 Petabyte (1/5 do conteúdo de todas as cartas distribuídas pelo correio norte-americano), e assim por diante.
A RAM (de Random Access Memory) é a memória física (ou primária) do computador. Isso vale para desktops, notebooks, smartphones e tablets. É nela que que o software é carregado e os dados, processados. Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.
Nos PCs, a memória de massa (ou secundária) é provida tradicionalmente por um disco rígido (os modelos mais recentes contam com drives de memória sólida). É nessa memória (e a partir dela) que os dados são carregados na RAM — claro que não integralmente, ou não haveria espaço que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). Para saber mais, leia esta sequência de postagens.
Costuma-se dizer que um computador é tão rápido quanto seu componente mais lento. No âmbito das memórias, a secundária é milhares de vezes mais lenta que primária, que por sua vez é muito mais lenta que o processador. Assim, uma máquina que dispuser de 8 GB de RAM e de um processador mediano será “mais rápida” do que outra que conte com um chip de topo de linha e míseros 2 GB de RAM. A questão é que a RAM é volátil, daí a necessidade de haver um dispositivo capaz de armazenar o software de forma “persistente”, ou seja, que retenha os dados mesmo depois que o computador for desligado.
Em tese, quanto mais memória física o computador tiver, mais "rápido" ele será. Para agilizar ainda mais o trabalho do processador, o cache de memória (ou memória cache, ou simplesmente cache), representado por uma pequena quantidade de memória RAM estática e ultraveloz (e bem mais cara do que a RAM convencional), armazena as informações e instruções que são acessadas mais frequentemente e outros dados que o sistema “prevê” que o processador terá de acessar em seguida.
O conceito de memória cache remonta aos tempo dos jurássicos 386, quando se constatou que a lentidão da RAM obrigava a CPU (isto é, o processador; a caixa que abriga os componentes internos do computador se chama "case" ou "gabinete") a desperdiçar preciosos ciclos de clock aguardando a liberação dos dados necessários à execução das tarefas.
Fica mais fácil de entender se compararmos o computador a uma orquestra e o processador ao maestro. Para uma boa apresentação, não basta um regente competente. Na verdade, músicos qualificados, afinados e entrosados podem até mascarar as limitações de um maestro chinfrim, mas não o contrário. Guardadas as devidas proporções, isso se aplica à performance do computador, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados.
Embora pareça um contrassenso, cabe ao gerenciamento de memória do sistema operacional manter o uso da memória o mais alto possível. Primeiro, porque memória é hardware — a gente paga por ela quando compra o aparelho, e não utilizar aquilo pelo que se pagou é desperdício de dinheiro. Segundo, porque, como dito linhas acima, a RAM é muito mais rápida que a memória secundária, e mantê-la ocupada é aproveitar melhor o dinheiro que investimos na compra do aparelho.
Uma CPU de ponta será subutilizada se contar com pouca memória RAM. Para evitar mensagens de “memória insuficiente” (comuns na pré-história da computação pessoal, quando éramos obrigados a encerrar um ou mais aplicativos para que outros pudessem ser carregados e executados), a Intel criou a memória virtual (ou “swap file”, como alguns preferem dizer), que consiste num espaço alocado na memória de massa para o qual o Gerenciador de Memória Virtual (VMM) transfere as seções que não são prioritárias naquele momento e de onde as traz de volta quando necessário.
Convém ter em mente que a memória virtual é apenas um paliativo, não um substituto eficiente da RAM, uma vez que (como também já foi mencionado) a memória de massa, mesmo quando representada por um SSD, é muitas vezes mais lenta do que a memória física, e a constante troca de arquivos degrada consideravelmente o desempenho global do sistema.
Continua na próxima postagem.
quinta-feira, 11 de novembro de 2010
CMOS Setup
Observação: Ao invés de dizer que “entrou no BIOS”, prefira dizer que você "acessou o CMOS Setup" (ou “fez o Setup”) para configurar o BIOS. “Setup” significa “ajuste”, em português, e essa configuração não surte efeito no CMOS (que é hardware), mas sim no BIOS (que é software).
Fazer o Setup consiste em oferecer respostas a uma longa sequência de perguntas num sistema de múltipla escolha, e essa providência costuma ser exigida somente ao final da montagem do PC ou de um upgrade abrangente. Todavia, há casos em que precisamos acessar o Setup para modificar a sequência de boot e inicializar o sistema através de um disquete, de um CD ou de um pendrive (assunto que veremos em detalhes mais adiante). Vale lembrar que também é possível resolver problemas e/ou incrementar o desempenho do computador mediante incursões pelas configurações avançadas do Setup, mas isso só deve ser empreendido por técnicos e usuários avançados, já que modificações indevidas ou mal sucedidas podem comprometer ou inviabilizar o funcionamento da máquina.
Em PCs antigos, fazer o Setup era bem mais complicado. Hoje em dia, só precisamos configurar alguns itens da página “Standard CMOS Setup” (ou “Main”, conforme o caso) que aparece selecionada por default e, ao contrário das demais, não têm opção de autoconfiguração. Depois de ajustar o calendário e o relógio do computador, devemos declarar o drive A (FDD ou “Legacy Diskette A/B” em alguns programas de Setup) como 1.44MB 3.5 in, e o drive B como “none” ou “disabled” (a menos que exista um segundo Floppy Drive, evidentemente). Caso haja a opção Floppy3 Mode Support, devemos deixá-la desabilitada.
Observação: Apesar de pouco utilizado (pelo menos em micros novos) o drive de disquete pode ser útil em alguns casos, como para carregar drivers da porta SATA ou RAID ao instalar o Windows XP, por exemplo. Esse problema foi resolvido nas versões posteriores do Windows, nas quais os drivers podem ser carregados também a partir de um CD-ROM ou pendrive.
Antigamente, a detecção de HDs IDE/ATA tinha de ser configurada manualmente ou mediante a opção "IDE HDD Auto Detection", presente no menu principal do Setup, mas atualmente ela é feita de forma automática durante o POST. Já configuração de drives padrão SATA varia conforme a marca e modelo da placa-mãe, de modo que o ideal é obter as informações na documentação da placa ou no site do fabricante. No entanto, só precisamos nos preocupar com isso no caso de uma montagem ou de um upgrade de placa ou de HD.
Para concluir, vale lembrar que as demais seções do Setup oferecem uma vasta gama de configurações que só devem ser modificadas em caso de real necessidade e, mesmo assim, por alguém que saiba o que está fazendo. Vale lembrar também que todo programa passa por atualizações durante seu ciclo de existência, e o BIOS não é exceção – à medida que surgem novos dispositivos e padrões, ele precisa "evoluir" para reconhecê-los.
Tenham todos um ótimo dia.
segunda-feira, 4 de julho de 2022
A IRRITANTE DEMORA NA INICIALIZAÇÃO DO PC
Os PCs evoluíram muito desde os anos 1970, mas ainda não “ligam” tão rapidamente quanto uma lâmpada. A energia elétrica é fundamental em ambos os casos, mas, no caso do computador, o boot e a inicialização do sistema vão muito além de simplesmente incandescer um filamento.
Os PCs são formados por dois subsistemas distintos, mas complementares. No pré-história da computação pessoal, definia-se o hardware como aquilo que o usuário podia chutar, e o software, como o que ele só podia xingar.
O tempo que a máquina leva para inicializar depende de diversos fatores. Depois de migrar para o Win11, meu Dell Inspiron passou demorar mais de 1 minuto para exibir a tela de boas-vindas e outros 4 ou 5 minutos para me deixar começar a trabalhar. No meu Mac Pro, a tela inicial surge em poucos segundos e basta eu digitar a senha para ter total controle sobre o sistema e os aplicativos.
Observação: O “problema” do portátil é o jurássico HDD (de 2 TB e 5400 RPM), muito mais lento que o SSD PCI Express com NVMe do Mac.
A demora na inicialização do Windows sempre me incomodou. A Microsoft prometia maior agilidade toda santa vez que lançava uma nova versão, mas o software foi se agigantando e uma configuração de hardware responsável custa os olhos da cara (rodar o Win11 sem SSD e pelo menos 6 GB de RAM é uma teste de paciência).
Muita coisa acontece do momento em que ligamos o computador até o instante o software se torna “operável”. Nesses preciosos segundos (ou longos minutos, conforme o caso), o BIOS (ou o UEFI, também conforme o caso) realiza um autoteste de inicialização (POST, de Power On Self Test), busca os arquivos de inicialização (respeitando a sequência declarada no CMOS Setup), e “carrega” na RAM os drivers, as DLLs e outros arquivos essenciais ao funcionamento do computador, bem como o sistema na RAM (não integralmente, ou não haveria memória que bastasse).
O BIOS (de Basic Input/Output System) é primeira camada de software do computador. Trata-se de um programinha de “baixo nível” gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe. O UEFI (de Unified Extensible Firmware Interface) faz basicamente a mesma coisa, mas muito mais rapidamente. Já o CMOS (de Complementary Metal Oxide Semiconductor) é componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria — que mantém essa memória energizada para que as informações não se percam quando desligamos o computador.
O “boot” é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema assuma o comando da máquina e o usuário, o comando do sistema. Numa tradução direta do inglês, boot significa bota ou botina, mas seu uso no âmbito da informática remete à expressão “pulling oneself up by his own bootstraps”, que podemos traduzir por “içar a si mesmo pelas alças das botinas” e, por extensão, por “fazer sozinho algo impossível de ser feito sem ajuda externa”.
Observação: “Fazer o Setup” consiste em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.
Continua...
segunda-feira, 8 de março de 2021
WINDOWS — INICIALIZAÇÃO LENTA — COMO RESOLVER
O ideal seria ligarmos o computador e ele responder
prontamente, como uma lâmpada responde ao comando do interruptor. Mas o mundo
em que vivemos está longe de ser o ideal. Demais disso, é preciso ter em mente
que um sistema computacional é composto por dois subsistemas sistemas distintos
— mas complementares e interdependentes —, que são o hardware (aquilo
que o usuário chuta) e o software (aquilo que ele xinga). E que, a
despeito da evolução tecnológica havida nas últimas décadas, as limitações do pré-histórico BIOS e
do jurássico disco rígido eletromecânico retardam a inicialização do Windows
e impactam negativamente o desempenho global do PC (*).
O hardware é a parte física do
computador (gabinete, teclado, monitor, placa-mãe, placas de expansão, memórias
etc.) e o software, a porção “lógica”, representada pelos programas (sistema
operacional, aplicativos, utilitários etc.). No léxico da informática, “programa” remete
a um conjunto de instruções (em linguagem
de máquina) que descrevem uma tarefa a ser realizada, e pode
referenciar tanto o código
fonte (escrito em linguagem de programação) quanto o executável que o
contém.
Qualquer dispositivo computacional (de mesa, portátil
ou ultraportátil) é comandado por um sistema operacional, que embora seja
essencialmente um programa, destaca-se dos demais por ser o responsável, dentre
outras atribuições, pelo gerenciamento do hardware e do software, por prover a
interface usuário/máquina e por servir como base para a execução dos aplicativos.
Toda vez que ligamos o computador, o BIOS
realiza um autoteste de inicialização (POST, de power on self
test), busca os arquivos de boot (respeitando a sequência
declarada no CMOS Setup),
“carrega” o sistema na memória RAM (não integralmente, ou não
haveria memória que bastasse, mas exibe
a tradicional tela de boas-vindas.
O BIOS é a primeira camada de software do
sistema computacional, ou seja, um programinha de “baixo nível”, como se costuma
dizer, mas sem a conotação pejorativa com que essa expressão costuma ser utilizada.
Ele é gravado pelo fabricante num chip de memória não volátil, que depois é
integrado à placa-mãe.
O CMOS é um componente de hardware composto
por um relógio permanente, uma pequena porção de memória volátil e
uma bateria,
que é responsável por manter essa memória energizada (para que não perca as
informações toda vez que o computador é desligado).
Convencionou-se chamar boot ao processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema operacional assuma o comando da máquina. Numa tradução direta do inglês, boot significa bota ou botina, mas, no jargão da TI, é sinônimo de inicialização. Essa acepção advém da expressão “pulling oneself up by his own bootstraps” (“içar a si mesmo pelas alças das botinas”), e, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”.
Observação: Segundo alguns autores, a adoção desse termo remota ao tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções progressivamente mais complexas, num processo conhecido como bootstrapping.
(*) A exemplo de "focar", "impactar" é um verbo transitivo direto, mas uma confusão — bastante comum, aliás — costuma ocorrer nas construções em que se emprega o substantivo, que requer o complemento preposicionado (assim: focar o afeto, mas [ter] foco no afeto). Além de repelir a preposição (na condição de verbo intransitivo, como em A greve impactou bastante), impactar pode ainda ser transitivo direto (a greve impactou o serviço bancário), mas jamais "transitivo indireto", dependente da preposição "em", sendo errôneas, portanto, as frases: "O estudo impactou no resultado"; "As provas impactaram no julgamento da lide". Por outro lado, aquilo que causa impacto, causa impacto em, donde se admite, com acerto, em locução verbal, as frases: "O estudo causou impacto no resultado"; "As provas causaram impacto no julgamento da lide". Portanto, o erro de regência causa um grande e negativo "impacto".
Continua no próximo capítulo.
sexta-feira, 28 de julho de 2017
POR QUE REINICIAR O COMPUTADOR? ― Conclusão.
Complementando o que foi explicado no post anterior, mas sem descer a detalhes técnicos que transcenderiam o escopo as possibilidades desta matéria ― e mais complicariam do que esclareceriam o assunto ―, vale dizer que:
Observação: Todo programa em execução ocupa espaço na memória, mas alguns não liberam esse espaço quando são finalizados. Outros, ainda, tornam-se gulosos durante a sessão e vão se apoderando de mais e mais memória. O resultado é lentidão generalizada e, em situações extremas, travamentos, às vezes acompanhados de uma tela azul da morte. A boa notícia é que na maioria das vezes o computador volta ao normal após ser desligado e religado depois de um ou dois minutos.
Observação: Ainda que deixar o computador em standby ou em hibernação seja vantajoso em determinadas circunstâncias, até porque a máquina "desperta" mais rapidamente do quando é religada depois de um desligamento total, prolongar uma sessão do Windows por dias a fio (mesmo que ela seja seccionada por suspensões e/ou hibernações) resultará fatalmente em lentidão ou instabilidades que acabarão levando a um crash total. Portanto, não se acanhe em reiniciar a máquina ao menor sinal de problemas iminentes.
Conforme foi dito em outras postagens, DLL é a sigla de Dynamic Link Library e remete a uma solução (desenvolvida pela Microsoft) mediante a qual as principais funções usadas pelos aplicativos são armazenadas em "bibliotecas" pré-compiladas e compartilhadas pelos executáveis. Assim, quando um programa é encerrado, os arquivos DLL que ele utilizou permanecem carregados na memória, dada a possibilidade de esse mesmo aplicativo voltar a ser aberto ou de o usuário executar outros programas que compartilham as mesmas bibliotecas. Mas isso acarreta um desperdício significativo de RAM e, consequentemente, aumenta o uso do swap-file (arquivo de troca da memória virtual). Como a RAM é volátil, a reinicialização “limpa” os chips de memória, fazendo com que o sistema ressurja lépido e fagueiro (ou nem tanto, dependendo do tempo de uso e da regularidade com que o usuário executa os indispensáveis procedimentos de manutenção).
Observação: Reiniciar um aparelho consiste basicamente em desligá-lo e tornar a ligá-lo logo em seguida. O termo reinicializar não significa exatamente a mesma coisa, mas o uso consagra a regra e eu não pretendo encompridar este texto discutindo questões semânticas. Interessa dizer é que desligar o computador interrompe o fornecimento da energia que alimenta os circuitos e capacitores da placa-mãe e demais componentes, propiciando o "esvaziamento" das memórias voláteis. Já quando recorremos à opção "Reiniciar" do menu de desligamento do Windows, o intervalo entre o encerramento do sistema e o boot subsequente pode não ser suficiente para o esgotamento total das reservas de energia, razão pela qual, para não errar, desligue o computador e torne a ligá-lo depois de alguns minutos sempre que uma reinicialização se fizer necessária.
sábado, 21 de outubro de 2006
Fragmentação dos dados - Primeira parte
O disco rígido (ou HD, ou Winchester), a despeito de ser tratado com descaso por muita gente que se atém apenas ao seu "tamanho", é um dos grandes responsáveis pela performance do computador. Aliás, não seria incorreto a gente se referir a ele como "memória", já que esse termo remete a qualquer meio destinado ao armazenamento de dados. A questão é que o PC utiliza diversas memórias (de tipos, tecnologias e aplicações distintas), dentre as quais a RAM (memória física) e o HD (memória de massa)... Vejamos isso melhor:
A RAM é um tipo de memória volátil e de acesso aleatório. Volátil, porque perde os dados quando o PC é desligado; de acesso aleatório, porque as informações podem ser lidas e gravadas a partir de qualquer de seus endereços - o que a torna especialmente veloz (se comparada ao HD), e faz dela a principal ferramenta de trabalho do processador (que, como todos sabemos, é o cérebro do computador). É na RAM que são carregados e manipulados todos os programas e dados - desde o sistema operacional e os demais aplicativos, até um simples documento de texto como este que eu estou redigindo agora. Claro que o sistema o os programas não são carregados inteiros - ou não haveria espaço que chegasse -, mas divididos, conforme suas características, em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes) que são remetidos para a RAM conforme sejam requisitados pelo processador.
O HD, por sua vez, faz o papel de "memória de massa" do sistema. Apesar de ser milhares de vezes mais lento que a RAM - do ponto de vista da leitura, escrita e transferência de dados - ele grava as informações de maneira "persistente" (não confundir com "permanente"). Assim, os arquivos são preservados depois que desligamos o computador e novamente carregados para a RAM, via programa de boot, quando reiniciamos a máquina.
Por hoje, chega. Enquanto você digere essas informações, eu vou cuidar de outros assuntos e preparar a próxima postagem.
Bom sábado a todos.
segunda-feira, 6 de junho de 2022
DO ÁBACO AO SMARTPHONE (CONTINUAÇÃO)
VIVEMOS COM NOSSOS DEFEITOS COMO COM O CHEIRO QUE TEMOS; NÓS NÃO O SENTIMOS, ELE SÓ INCOMODA OS OUTROS.
O iPhone transformou em computador ultraportátil um aparelho que nasceu telefone sem fio de longo alcance. Com sistema operacional e uma profusão de aplicativos, a demanda energética do dispositivo cresceu para além da capacidade da bateria, e a autonomia passou a disputar com o tamanho da tela o topo do ranking das características mais valorizadas pelos usuários.
No que tange ao display, há aparelhos do tamanho de tábuas de carne. Quanto à energia, ou se paga mais por um modelo com bateria de 5.000 mAh ou superior, que dure pelo menos um dia inteiro, ou se é obrigado a fazer um pit stop entre as recargas.
É possível aumentar a capacidade das baterias; difícil é fazê-lo sem que tamanho, peso e custo de fabricação cresçam na mesma medida. Traçando um paralelo meramente ilustrativo com os veículos elétricos, enquanto o iPhone 11 Pro Max integra uma bateria de 3.969 mAh (equivalente a 0,01504 kWh), o BMW i3 de 2015 já usava um modelo com capacidade de 22 kWh, que lhe garantia uma autonomia de até 135 km. Quatro anos depois, uma "usina" de 98,7 kWh permitiu ao Ford Mustang Mach Extended Range rodar até 610 km sem recarrega.
Observação: Os veículos elétricos surgiram no final do século XIX, mas deixaram de ser fabricados em 1915, quando Henry Ford lançou o modelo T. Quando a ideia voltou à baila, muitos anos depois, a Gurgel Motores S/A lançou o primeiro carro elétrico da América Latina. Com um motor de 3,2 kWh (potência equivalente a 4,2 cv) e pesando 460 kg (320 kg só das baterias), o Itaipu E150 atingia 30 km/h de velocidade máxima nas primeiras versões; as últimas já alcançavam 70 km/h na descida e com vento a favor, mas sua autonomia média era de 70 km. Antes de baixar as portas (em 1996), o engenheiro João Augusto Conrado do Amaral Gurgel apostou as últimas fichas no furgão elétrico Itaipu E400, com motor de 11 cv e autonomia de apenas 80 km (a bateria levava até 10 horas para recarregar). O tempo provaria que Gurgel mirou o alvo certo, apenas não dispunha da arma adequada para atingi-lo. Atualmente, os carros da Tesla são os que oferecem maior autonomia — o Tesla Model S Long Range Plus lidera o ranking, com autonomia de 647 km, contrapondo-se ao MINI Cooper SE, que roda apenas 177 km.
Enquanto buscam uma solução factível e comercialmente viável, os fabricantes de baterias se valem de paliativos, como sistemas de “carregamento rápido” e softwares que otimizam o consumo (mais detalhes na sequência de postagem iniciada aqui). Mas as limitações dos ultraportáteis (e dos computadores em geral) vão bem além da autonomia.
O desempenho de qualquer dispositivo computacional é limitado pelo hardware que o integra. Claro que o sistema (Windows, macOS, Linux, Android, iOS etc.) também impacta, positiva ou negativamente, a performance global: rodar o Win11 numa máquina com disco rígido eletromecânico é um verdadeiro teste de paciência.
Para além da capacidade de armazenamento de energia (que dita a autonomia dos ultraportáteis), há ainda limitações impostas pelo processador, pelas memórias e pelas interfaces de vídeo, áudio e rede, entre outras. Segundo Mestre Morimoto, “todo computador é tão rápido quanto seu componente mais lento”.
Um PC com processador ultraveloz e pouca memória RAM tende a ser mais lento do que seria se dispusesse de uma CPU mediana e fartura de RAM. Claro que a importância de cada componente é relativa. As limitações de uma placa de rede 10/100, por exemplo, só são sentidas quando a tarefa depende diretamente da largura de banda nos downloads e uploads. Da mesma forma, vídeo e áudio chinfrins não incomodam um usuário que se limita a assistir a clipes no YouTube, também por exemplo.
No que concerne ao processador e às memórias, o buraco é mais embaixo. Todo computador usa memórias de diversas tecnologias (RAM, ROM, HDD/SSD, cache, etc.), mas é na RAM (memória física ou primária) que o sistema operacional, os aplicativos e os demais arquivos são carregados e processados — geralmente a partir da memória de massa, que nos PCs corresponde ao drive de disco rígido (ou de memória sólida, conforme o caso) e nos ultraportáteis, ao armazenamento interno.
A RAM é uma memória volátil e de acesso aleatório. Volátil, porque só retém os dados quando está energizada; de acesso aleatório, porque grava e lê dados a partir de quaisquer endereços, de forma não sequencial. O acesso aleatório a torna milhares de vezes mais rápida do que os drives de disco rígido (HDD) e suas taxas de transferência e velocidade de escrita e gravação são superiores às dos drives de memória sólida (SSD). Por outro lado, devido à volatilidade, é preciso haver uma memória “persistente” (não confundir com permanente) que preserve o conteúdo mesmo com o computador desligado.
Quando ligamos o computador, arquivos do sistema e dos aplicativos que pegam carona na inicialização são carregados para a RAM a partir da memória de massa (ou secundária), que é representada pelo HDD e/ou SSD em desktops e notebooks, e pelo armazenamento interno em smartphones e tablets. A quantidade de RAM influencia diretamente o desempenho do aparelho: quando ela é insuficiente, o uso da memória virtual evita a exibição das antigas mensagens de "memória insuficiente", mas deixa o sistema muuuuuuuito lento.
O Gerenciador de Memória Virtual libera espaço na RAM enviando para um "arquivo de troca" (swap file) as sessões "não prioritárias" naquele momento, e trazendo-as de volta mais adiante, se e quando necessário. O problema é que esse arquivo é baseado na memória de massa, que é muito mais lenta do que a já relativamente lenta RAM.
Se você observar as especificações do seu aparelho, verá que o HDD, SSD ou armazenamento interno são "latifúndios" de centenas (ou milhares) de gigabytes, ao passo que RAM só ultrapassa 4 GB nos modelos mais caros, embora o recomendável seja atualmente 8 GB.
Continua...
sexta-feira, 24 de abril de 2020
SOBRE A RENÚNCIA DE MORO E DE VOLTA À RENÚNCIA DE JÂNIO, SUAS CONSEQUÊNCIAS E OUTRAS CURIOSIDADES — PARTE IV
ATUALIZAÇÃO: Bolsonaro demitiu Valeixo em plena madrugada. A exoneração foi publicada na manhã desta sexta-feira no D.O.U. Nela, consta que a demissão se deu "a pedido", mas não foi decisão de Valeixo deixar o cargo neste momento. Nos bastidores, comenta-se que dessa forma a demissão evitaria ainda mais desgastes a Sergio Moro, que deve se pronunciar sobre sua permanência ou não no cargo ainda nesta manhã (as 11h desta manhã). Especula-se que Moro tenha ficado extremamente incomodado com a ida de Bolsonaro à manifestação do último domingo e de o presidente abrir as portas de seu gabinete aos líderes do Centrão. A ingerência do capitão na PF foi apenas a gota que fez transbordar o copo. Especula-se também que o ministro ficará no governo caso possa escolher o substituto do agora ex-diretor-geral da PF.
Internamente, os delegados mais graduados lembram o desastre de uma tentativa recente de mudar a tradição na nomeação do diretor-geral. No início de 2018, Fernando Segóvia foi demitido do comando da PF, pelo recém empossado ministro Raul Jungmann, depois de apenas 99 dias no cargo. Segóvia fora escolhido por Michel Temer, atendendo à indicação de emedebistas enrolados na Lava-Jato e passando por cima da opinião do então ministro da Justiça, Torquato Jardim. Já na cerimônia de posse disse a que veio: botou em dúvida fatos das investigações sobre Rodrigo Rocha Loures, aquele assessor de Temer que foi filmado recebendo uma mala com R$ 500 mil das mãos de um diretor da JBS. A partir daí, foi crise em cima de crise. Segóvia tentou, mas nunca conseguiu liderar a PF nos três meses que esteve à frente dela. Durante o seu tempo como diretor-geral, não conseguiu controlar a PF do jeito que Temer e parte do MDB queriam.
Vamos aguardar para ver que bicho dá.
Quando cursava o primário — como eram denominados os primeiros quatro anos do que hoje se chama ensino fundamental —, aprendi uma forma verbal chamada "condicional", que mais adiante seria rebatizada de "futuro do pretérito", já que expressa tanto uma situação quanto uma condição. Um exemplo do primeiro caso é: “eu compraria aquele carro, se o preço fosse mais baixo”; e do segundo: “anos atrás eu não tinha certeza se compraria o carro que tenho hoje”.
A Carta Magna promulgada em 1988 foi remendada mais de uma centena de vezes (a título de comparação, a constituição norte-americana, promulgada em 1787, tem apenas 7 artigos e recebeu 27 emendas nos últimos 220 anos), e distribuiu diretos a rodo, mas sem apontar de onde viriam os recursos para bancá-los. A propósito: a palavra “Direito” é mencionada 76 vezes, enquanto "Dever" surge apenas 4 oportunidades e "Produtividade” e “Eficiência” aparecem duas e uma vez, respectivamente. Daí a pergunta: o que esperar de um país que tem 76 direitos, quatro deveres, duas produtividades e uma eficiência? A resposta: na melhor das hipóteses, uma política pública de produção de leis, regras e regulamentos que quase nunca guardam relação com o mundo real.
Cinco anos e quatro planos econômicos mais adiante, Sarney passou o cetro e a coroa ao caçador de marajás de araque, juntamente com uma inflação 80% ao mês (quase 1.800% ao ano, considerando os doze meses finais do seu governo). Durante sua desditosa gestão, enfrentou mais de 12 mil greves, foi vítima de pelo menos um atentado e, certa vez, um sequestrador tentou jogar um Boeing sobre o palácio. Mas teve jogo de cintura e sempre manteve diálogo com os militares, o Congresso e a oposição. Em recente entrevista a Veja, declarou: “Na história do Brasil, muitos presidentes foram eleitos para ser depostos — e eu não podia ser mais um”.
Tivesse feito essa profecia durante seu governo, Sarney teria se revelado um profeta, pois seu vaticínio se materializaria dali a poucos anos, com impeachment de seu sucessor, Fernando Collor de Mello. Mas isso já é conversa para o próximo capítulo.
terça-feira, 30 de setembro de 2008
Defeitos no HD
terça-feira, 11 de julho de 2017
VOCÊ CONHECE SEU PC? ― Parte VI
Observação: RAM é a sigla de Random Access Memory, ou “memória de acesso aleatório”. Trata-se de um tipo de memória volátil ― ou seja, que só retém os dados quando energizada (daí o boot precisar ser refeito toda vez que ligamos o computador) ―, mas que permite o acesso a qualquer dos seus endereços aleatoriamente, o que lhe confere tempos de resposta e taxas de transferência que deixam os drives de HD eletromecânicos no chinelo.
O INFERNO ASTRAL DE TEMER
(*) Enquanto eu elaborava este texto, o deputado Sergio Zveiter, relator da denúncia contra Michel Temer na CCJ, defendeu a aceitação pela Câmara da acusação apresentada pela PGR. Apesar de ser do mesmo partido do presidente, o relator já era considerado um parlamentar de atuação independente, o que era motivo de preocupação para a base aliada. Na próxima quarta-feira, iniciam-se os debates, com o direito à fala dos 66 titulares e 66 suplentes. Além destes, os líderes partidários podem se manifestar a qualquer momento. A expectativa é de que a Comissão possa analisar o relatório de Zveiter até a próxima sexta-feira, em votação simbólica que pode influenciar a decisão do plenário.
Segundo levantamento da revista Época, 330 deputados disseram que participarão da votação, a despeito do esforço do Planalto em esvaziar a sessão. A ausência dos parlamentares causa menos desgaste político do que o apoio expresso ao presidente, já que, como no impeachment de Dilma, o voto será aberto, declarado em pé, ao microfone, e transmitido em tempo real para todo o Brasil. Temer e os poucos aliados que lhe restam sabem que é pesado demais para um parlamentar que disputará eleições no ano que vem declarar abertamente seu apoio a um presidente acusado de corrupção passiva e que tem míseros 7% de popularidade.
Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/