UM BATE-PAPO INFORMAL SOBRE INFORMÁTICA, POLÍTICA E OUTROS ASSUNTOS.
quinta-feira, 14 de fevereiro de 2019
DE VOLTA À MEMÓRIA RAM - PARTE 7
segunda-feira, 2 de fevereiro de 2026
DE VOLTA AO SAUDOSISMO
Muitas pessoas ainda se lembram da época em que a informática era chamada de cibernética e os imensos mainframes, que ocupavam salas inteiras, mas tinham menos poder de processamento que as calculadoras de bolso atuais, atendiam por cérebros eletrônicos. Mas não há nada como o tempo para passar.
Um belo dia os PCs surgiram para resolver todos os problemas que a gente não tinha quando eles não existiam, e logo se tornaram tão comuns, nos lares de classe média, quanto os televisores e fornos de micro-ondas. Mas, de novo, não há nada como o tempo para passar.
CONTINUA DEPOIS DA POLÍTICA
A nota divulgada pelo gabinete de Toffoli para prestar contas sobre o caso Master é flácida e constrangedora. A flacidez decorre do fato de o texto dizer coisas definitivas sem definir muito bem as coisas, e o constrangimento de os os trechos mais relevantes não serem os esclarecimentos mal formulados, mas as respostas que Toffoli não foi capaz de fornecer.
No documento de 524 palavras não há uma mísera menção à transação em que os irmãos do ministro venderam por R$3 milhões parte de um resort no Paraná para o pastor e empresário Fábio Zettel, cunhado do dono Master, Daniel Vorcaro. Nada sobre a casa luxuosa que serve de hospedaria para Toffoli na área do resort paranaense. Nem sinal de esclarecimentos sobre a viagem de Toffoli em jatinho de um empresário amigo, para torcer pelo Palmeiras na final da Copa Libertadores contra o Flamengo na companhia do advogado de um dos executivos do Master investigados no escândalo.
Nos trechos em que as coisas não foram adequadamente definidas, faltou explicar por que o ministro ultrapassou os limites dos sapatos de magistrado, imiscuindo-se no trabalho da Polícia Federal. Num processo marcado por idas e vindas, Toffoli acelerou procedimentos da investigação, criando atritos com a PF ao marcar acareações antes da tomada dos depoimentos de investigados, ordenar à delegada do caso que fizesse a Daniel Vorcaro 80 perguntas elaboradas pelo seu gabinete, tentar trancar no Supremo material recolhido em batidas de busca e apreensão e selecionar por conta própria os peritos que analisarão as provas...
Desde que o processo subiu para o Supremo, a relatoria de Toffoli sofre questionamentos de membros do próprio tribunal, do Ministério Público, da PF e da imprensa. Na nota divulgada nesta quinta-feira, Toffoli admitiu pela primeira vez a hipótese de devolver o inquérito à primeira instância, de onde não deveria ter saído. O diabo é que ele afirma que só fará essa análise após o término das investigações, prorrogadas dias atrás por 60 dias, prolongando o final da novela que abre na imagem do Supremo fendas de difícil reparação.
O número de usuários de desktops e notebooks diminuiu significativamente depois que os smartphones permitiram acessar as redes sociais, gerenciar emails e fofocar pelo WhatsApp. Tanto é assim que a Geração Y (Millennial) domina tecnologias mais recentes, mas ignora funções básicas de informática no bom e velho PC, como formatar um documento no Word ou executar comandos simples, como Ctrl+C e Ctrl+V.
As primeiras matérias sobre TI que publiquei na mídia impressa tinham como tema a segurança digital, e a ideia central da Coleção Guia Fácil Informática era familiarizar os leitores com seus computadores, tanto em nível de hardware quanto de software. O mesmo deu com este blog, que eu criei em 2006 para embasar o volume Blogs & Websites da referida coleção — naquela época, publicações sobre microcomputadores, hardware e Windows vendiam feito pão quente na hora do jantar.
Bill Gates e Paul Allen fundarem a Microsoft em 1975 e criaram o Windows uma década depois, inicialmente como uma interface gráfica que rodava no MS-DOS. Esse cordão umbilical foi cortado em 1995, mas o desmame só se deu em 2001, com o lançamento do WinXP, que era baseado no kernel do WinNT.
Observação: A título de curiosidade, os arquivos de instalação do MS-DOS e das edições 3.x do Windows cabiam em uns poucos disquetes de 1,44 MB. O Win95, já então um sistema semi-autônomo, foi disponibilizado tanto em disquetes (13 unidades) quanto em CD-ROM.
Até o lançamento do Windows 95, a gente ligava o computador, aguardava a conclusão do boot (processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST, carrega o Windows e sai de cena), digitava "win" no prompt de comando, teclava Enter e esperava a máquina se tornar "operável".
Todo dispositivo computacional, seja de mesa, portátil ou ultraportátil, é comandado por um sistema operacional, que gerencia o hardware e o software, provê a interface de comunicação entre o usuário e a máquina e embasa a execução dos aplicativos e utilitários.
O BIOS (sigla de Basic Input/Output System) é a primeira camada de software do computador. Assim que a máquina é ligada, ele realiza um autoteste de inicialização (POST, de power on self test), procura os arquivos de boot seguindo os parâmetros declarados no CMOS Setup), carrega o sistema na memória RAM (não integralmente, ou não haveria memória que bastasse) e exibe a tradicional tela de boas-vindas.
Observação: Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.
O firmware do BIOS é gravado num chip de memória ROM (não volátil) integrado à placa-mãe. O CMOS (sigla de Complementary Metal-Oxide-Semiconductor) é um componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria CR2032, destinada a evitar que os parâmetros do Setup se percam quando o computador é desligado.
Os firmwares estão presentes em diversos equipamentos eletrônicos modernos, como celulares, fornos de micro-ondas, tablets, impressoras, lavadoras, etc. Os smartphones não precisam de uma bateria extra para manter configurações porque usam memórias não voláteis, como EEPROM ou flash NAND, para armazenar as configurações do sistema. Mesmo que o aparelho fique meses desligado, esses dados continuam intactos.
Antigamente, o nome "American Megatrends Inc." e uma série de informações técnicas textuais eram exibidos durante o boot, de modo que a gente podia acompanhar contagem da memória, a detecção de hardware etc. Mas todo projeto passa por atualizações ao longo do seu ciclo de existência, e o firmware do BIOS foi substituído pelo UEFI (sigla de Unified Extensible Firmware Interface), que é mais veloz e seguro, além de oferecer uma interface mais amigável.
Embora essa programação seja tida como imutável — por fornecer as mesmas informações sempre que o aparelho é ligado —, há situações em que é preciso atualizá-la, seja para tornar o aparelho mais rápido, estável e seguro, seja para incluir novas funcionalidades e ampliar sua vida útil. Alguns especialistas sugeriam ignorar as atualizações, já que upgrades malsucedidos são difíceis de reverter, e podem comprometer o funcionamento do computador — ou mesmo impedi-lo de executar o boot e carregar o sistema. Mas isso mudou depois que a atualização passou a ser disponibilizada pelo próprio Windows.
Modems, roteadores e decoders de TV a cabo costumam ser mais amigáveis — geralmente, basta acessar a tela de configuração digitando o endereço de IP no navegador, localizar a opção de atualização de firmware, baixar a nova versão, dar alguns cliques e reiniciar o aparelho para validar o upgrade.
Seja como for, não mexa em nada antes de ler e entender as instruções fornecidas no manual do aparelho ou no site do fabricante, e de ter certeza de que a versão do firmware é a correta. Em caso de dúvida, consulte o suporte técnico ou recorra a um profissional especializado.
quinta-feira, 26 de maio de 2022
AINDA SOBRE APLICATIVOS, MEMÓRIA RAM E TASK KILLERS
PARA O TRIUNFO DO MAL, BASTA QUE OS BONS FIQUEM DE BRAÇOS CRUZADOS.
Computadores integram memórias de diversas tecnologias em quantidades variáveis, mas sempre expressas em múltiplos do byte. Assim, é comum as pessoas confundirem a RAM (memória física ou primária) com o HDD/SSD (memória de massa, ou secundária, ou ainda "armazenamento") do sistema.
A título de contextualização, relembro que o bit (de “BInary digiT”) é a menor unidade de informação manipulada pelo computador. Oito bits formam um byte; 1 kB (quilobyte) equivale a 1024 bytes (ou meia página de texto); 1024 kB, a um megabyte (espaço suficiente para armazenar um quinto da obra de Shakespeare). Um gigabyte corresponde a 1024 MB (espaço suficiente para gravar um filme de uma hora de duração); 1.000 GB formam 1 terabyte (15 terabytes são suficientes para digitalizar toda a biblioteca do congresso dos EUA); 1024 TB perfazem 1 Petabyte (1/5 do conteúdo de todas as cartas distribuídas pelo correio norte-americano), e assim por diante.
A RAM (de Random Access Memory) é a memória física (ou primária) do computador. Isso vale para desktops, notebooks, smartphones e tablets. É nela que que o software é carregado e os dados, processados. Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.
Nos PCs, a memória de massa (ou secundária) é provida tradicionalmente por um disco rígido (os modelos mais recentes contam com drives de memória sólida). É nessa memória (e a partir dela) que os dados são carregados na RAM — claro que não integralmente, ou não haveria espaço que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). Para saber mais, leia esta sequência de postagens.
Costuma-se dizer que um computador é tão rápido quanto seu componente mais lento. No âmbito das memórias, a secundária é milhares de vezes mais lenta que primária, que por sua vez é muito mais lenta que o processador. Assim, uma máquina que dispuser de 8 GB de RAM e de um processador mediano será “mais rápida” do que outra que conte com um chip de topo de linha e míseros 2 GB de RAM. A questão é que a RAM é volátil, daí a necessidade de haver um dispositivo capaz de armazenar o software de forma “persistente”, ou seja, que retenha os dados mesmo depois que o computador for desligado.
Em tese, quanto mais memória física o computador tiver, mais "rápido" ele será. Para agilizar ainda mais o trabalho do processador, o cache de memória (ou memória cache, ou simplesmente cache), representado por uma pequena quantidade de memória RAM estática e ultraveloz (e bem mais cara do que a RAM convencional), armazena as informações e instruções que são acessadas mais frequentemente e outros dados que o sistema “prevê” que o processador terá de acessar em seguida.
O conceito de memória cache remonta aos tempo dos jurássicos 386, quando se constatou que a lentidão da RAM obrigava a CPU (isto é, o processador; a caixa que abriga os componentes internos do computador se chama "case" ou "gabinete") a desperdiçar preciosos ciclos de clock aguardando a liberação dos dados necessários à execução das tarefas.
Fica mais fácil de entender se compararmos o computador a uma orquestra e o processador ao maestro. Para uma boa apresentação, não basta um regente competente. Na verdade, músicos qualificados, afinados e entrosados podem até mascarar as limitações de um maestro chinfrim, mas não o contrário. Guardadas as devidas proporções, isso se aplica à performance do computador, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados.
Embora pareça um contrassenso, cabe ao gerenciamento de memória do sistema operacional manter o uso da memória o mais alto possível. Primeiro, porque memória é hardware — a gente paga por ela quando compra o aparelho, e não utilizar aquilo pelo que se pagou é desperdício de dinheiro. Segundo, porque, como dito linhas acima, a RAM é muito mais rápida que a memória secundária, e mantê-la ocupada é aproveitar melhor o dinheiro que investimos na compra do aparelho.
Uma CPU de ponta será subutilizada se contar com pouca memória RAM. Para evitar mensagens de “memória insuficiente” (comuns na pré-história da computação pessoal, quando éramos obrigados a encerrar um ou mais aplicativos para que outros pudessem ser carregados e executados), a Intel criou a memória virtual (ou “swap file”, como alguns preferem dizer), que consiste num espaço alocado na memória de massa para o qual o Gerenciador de Memória Virtual (VMM) transfere as seções que não são prioritárias naquele momento e de onde as traz de volta quando necessário.
Convém ter em mente que a memória virtual é apenas um paliativo, não um substituto eficiente da RAM, uma vez que (como também já foi mencionado) a memória de massa, mesmo quando representada por um SSD, é muitas vezes mais lenta do que a memória física, e a constante troca de arquivos degrada consideravelmente o desempenho global do sistema.
Continua na próxima postagem.
quinta-feira, 11 de novembro de 2010
CMOS Setup
Observação: Ao invés de dizer que “entrou no BIOS”, prefira dizer que você "acessou o CMOS Setup" (ou “fez o Setup”) para configurar o BIOS. “Setup” significa “ajuste”, em português, e essa configuração não surte efeito no CMOS (que é hardware), mas sim no BIOS (que é software).
Fazer o Setup consiste em oferecer respostas a uma longa sequência de perguntas num sistema de múltipla escolha, e essa providência costuma ser exigida somente ao final da montagem do PC ou de um upgrade abrangente. Todavia, há casos em que precisamos acessar o Setup para modificar a sequência de boot e inicializar o sistema através de um disquete, de um CD ou de um pendrive (assunto que veremos em detalhes mais adiante). Vale lembrar que também é possível resolver problemas e/ou incrementar o desempenho do computador mediante incursões pelas configurações avançadas do Setup, mas isso só deve ser empreendido por técnicos e usuários avançados, já que modificações indevidas ou mal sucedidas podem comprometer ou inviabilizar o funcionamento da máquina.
Em PCs antigos, fazer o Setup era bem mais complicado. Hoje em dia, só precisamos configurar alguns itens da página “Standard CMOS Setup” (ou “Main”, conforme o caso) que aparece selecionada por default e, ao contrário das demais, não têm opção de autoconfiguração. Depois de ajustar o calendário e o relógio do computador, devemos declarar o drive A (FDD ou “Legacy Diskette A/B” em alguns programas de Setup) como 1.44MB 3.5 in, e o drive B como “none” ou “disabled” (a menos que exista um segundo Floppy Drive, evidentemente). Caso haja a opção Floppy3 Mode Support, devemos deixá-la desabilitada.
Observação: Apesar de pouco utilizado (pelo menos em micros novos) o drive de disquete pode ser útil em alguns casos, como para carregar drivers da porta SATA ou RAID ao instalar o Windows XP, por exemplo. Esse problema foi resolvido nas versões posteriores do Windows, nas quais os drivers podem ser carregados também a partir de um CD-ROM ou pendrive.
Antigamente, a detecção de HDs IDE/ATA tinha de ser configurada manualmente ou mediante a opção "IDE HDD Auto Detection", presente no menu principal do Setup, mas atualmente ela é feita de forma automática durante o POST. Já configuração de drives padrão SATA varia conforme a marca e modelo da placa-mãe, de modo que o ideal é obter as informações na documentação da placa ou no site do fabricante. No entanto, só precisamos nos preocupar com isso no caso de uma montagem ou de um upgrade de placa ou de HD.
Para concluir, vale lembrar que as demais seções do Setup oferecem uma vasta gama de configurações que só devem ser modificadas em caso de real necessidade e, mesmo assim, por alguém que saiba o que está fazendo. Vale lembrar também que todo programa passa por atualizações durante seu ciclo de existência, e o BIOS não é exceção – à medida que surgem novos dispositivos e padrões, ele precisa "evoluir" para reconhecê-los.
Tenham todos um ótimo dia.
segunda-feira, 4 de julho de 2022
A IRRITANTE DEMORA NA INICIALIZAÇÃO DO PC
Os PCs evoluíram muito desde os anos 1970, mas ainda não “ligam” tão rapidamente quanto uma lâmpada. A energia elétrica é fundamental em ambos os casos, mas, no caso do computador, o boot e a inicialização do sistema vão muito além de simplesmente incandescer um filamento.
Os PCs são formados por dois subsistemas distintos, mas complementares. No pré-história da computação pessoal, definia-se o hardware como aquilo que o usuário podia chutar, e o software, como o que ele só podia xingar.
O tempo que a máquina leva para inicializar depende de diversos fatores. Depois de migrar para o Win11, meu Dell Inspiron passou demorar mais de 1 minuto para exibir a tela de boas-vindas e outros 4 ou 5 minutos para me deixar começar a trabalhar. No meu Mac Pro, a tela inicial surge em poucos segundos e basta eu digitar a senha para ter total controle sobre o sistema e os aplicativos.
Observação: O “problema” do portátil é o jurássico HDD (de 2 TB e 5400 RPM), muito mais lento que o SSD PCI Express com NVMe do Mac.
A demora na inicialização do Windows sempre me incomodou. A Microsoft prometia maior agilidade toda santa vez que lançava uma nova versão, mas o software foi se agigantando e uma configuração de hardware responsável custa os olhos da cara (rodar o Win11 sem SSD e pelo menos 6 GB de RAM é uma teste de paciência).
Muita coisa acontece do momento em que ligamos o computador até o instante o software se torna “operável”. Nesses preciosos segundos (ou longos minutos, conforme o caso), o BIOS (ou o UEFI, também conforme o caso) realiza um autoteste de inicialização (POST, de Power On Self Test), busca os arquivos de inicialização (respeitando a sequência declarada no CMOS Setup), e “carrega” na RAM os drivers, as DLLs e outros arquivos essenciais ao funcionamento do computador, bem como o sistema na RAM (não integralmente, ou não haveria memória que bastasse).
O BIOS (de Basic Input/Output System) é primeira camada de software do computador. Trata-se de um programinha de “baixo nível” gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe. O UEFI (de Unified Extensible Firmware Interface) faz basicamente a mesma coisa, mas muito mais rapidamente. Já o CMOS (de Complementary Metal Oxide Semiconductor) é componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria — que mantém essa memória energizada para que as informações não se percam quando desligamos o computador.
O “boot” é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema assuma o comando da máquina e o usuário, o comando do sistema. Numa tradução direta do inglês, boot significa bota ou botina, mas seu uso no âmbito da informática remete à expressão “pulling oneself up by his own bootstraps”, que podemos traduzir por “içar a si mesmo pelas alças das botinas” e, por extensão, por “fazer sozinho algo impossível de ser feito sem ajuda externa”.
Observação: “Fazer o Setup” consiste em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.
Continua...
segunda-feira, 8 de março de 2021
WINDOWS — INICIALIZAÇÃO LENTA — COMO RESOLVER
O ideal seria ligarmos o computador e ele responder
prontamente, como uma lâmpada responde ao comando do interruptor. Mas o mundo
em que vivemos está longe de ser o ideal. Demais disso, é preciso ter em mente
que um sistema computacional é composto por dois subsistemas sistemas distintos
— mas complementares e interdependentes —, que são o hardware (aquilo
que o usuário chuta) e o software (aquilo que ele xinga). E que, a
despeito da evolução tecnológica havida nas últimas décadas, as limitações do pré-histórico BIOS e
do jurássico disco rígido eletromecânico retardam a inicialização do Windows
e impactam negativamente o desempenho global do PC (*).
O hardware é a parte física do
computador (gabinete, teclado, monitor, placa-mãe, placas de expansão, memórias
etc.) e o software, a porção “lógica”, representada pelos programas (sistema
operacional, aplicativos, utilitários etc.). No léxico da informática, “programa” remete
a um conjunto de instruções (em linguagem
de máquina) que descrevem uma tarefa a ser realizada, e pode
referenciar tanto o código
fonte (escrito em linguagem de programação) quanto o executável que o
contém.
Qualquer dispositivo computacional (de mesa, portátil
ou ultraportátil) é comandado por um sistema operacional, que embora seja
essencialmente um programa, destaca-se dos demais por ser o responsável, dentre
outras atribuições, pelo gerenciamento do hardware e do software, por prover a
interface usuário/máquina e por servir como base para a execução dos aplicativos.
Toda vez que ligamos o computador, o BIOS
realiza um autoteste de inicialização (POST, de power on self
test), busca os arquivos de boot (respeitando a sequência
declarada no CMOS Setup),
“carrega” o sistema na memória RAM (não integralmente, ou não
haveria memória que bastasse, mas exibe
a tradicional tela de boas-vindas.
O BIOS é a primeira camada de software do
sistema computacional, ou seja, um programinha de “baixo nível”, como se costuma
dizer, mas sem a conotação pejorativa com que essa expressão costuma ser utilizada.
Ele é gravado pelo fabricante num chip de memória não volátil, que depois é
integrado à placa-mãe.
O CMOS é um componente de hardware composto
por um relógio permanente, uma pequena porção de memória volátil e
uma bateria,
que é responsável por manter essa memória energizada (para que não perca as
informações toda vez que o computador é desligado).
Convencionou-se chamar boot ao processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema operacional assuma o comando da máquina. Numa tradução direta do inglês, boot significa bota ou botina, mas, no jargão da TI, é sinônimo de inicialização. Essa acepção advém da expressão “pulling oneself up by his own bootstraps” (“içar a si mesmo pelas alças das botinas”), e, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”.
Observação: Segundo alguns autores, a adoção desse termo remota ao tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções progressivamente mais complexas, num processo conhecido como bootstrapping.
(*) A exemplo de "focar", "impactar" é um verbo transitivo direto, mas uma confusão — bastante comum, aliás — costuma ocorrer nas construções em que se emprega o substantivo, que requer o complemento preposicionado (assim: focar o afeto, mas [ter] foco no afeto). Além de repelir a preposição (na condição de verbo intransitivo, como em A greve impactou bastante), impactar pode ainda ser transitivo direto (a greve impactou o serviço bancário), mas jamais "transitivo indireto", dependente da preposição "em", sendo errôneas, portanto, as frases: "O estudo impactou no resultado"; "As provas impactaram no julgamento da lide". Por outro lado, aquilo que causa impacto, causa impacto em, donde se admite, com acerto, em locução verbal, as frases: "O estudo causou impacto no resultado"; "As provas causaram impacto no julgamento da lide". Portanto, o erro de regência causa um grande e negativo "impacto".
Continua no próximo capítulo.
sexta-feira, 28 de julho de 2017
POR QUE REINICIAR O COMPUTADOR? ― Conclusão.
Complementando o que foi explicado no post anterior, mas sem descer a detalhes técnicos que transcenderiam o escopo as possibilidades desta matéria ― e mais complicariam do que esclareceriam o assunto ―, vale dizer que:
Observação: Todo programa em execução ocupa espaço na memória, mas alguns não liberam esse espaço quando são finalizados. Outros, ainda, tornam-se gulosos durante a sessão e vão se apoderando de mais e mais memória. O resultado é lentidão generalizada e, em situações extremas, travamentos, às vezes acompanhados de uma tela azul da morte. A boa notícia é que na maioria das vezes o computador volta ao normal após ser desligado e religado depois de um ou dois minutos.
Observação: Ainda que deixar o computador em standby ou em hibernação seja vantajoso em determinadas circunstâncias, até porque a máquina "desperta" mais rapidamente do quando é religada depois de um desligamento total, prolongar uma sessão do Windows por dias a fio (mesmo que ela seja seccionada por suspensões e/ou hibernações) resultará fatalmente em lentidão ou instabilidades que acabarão levando a um crash total. Portanto, não se acanhe em reiniciar a máquina ao menor sinal de problemas iminentes.
Conforme foi dito em outras postagens, DLL é a sigla de Dynamic Link Library e remete a uma solução (desenvolvida pela Microsoft) mediante a qual as principais funções usadas pelos aplicativos são armazenadas em "bibliotecas" pré-compiladas e compartilhadas pelos executáveis. Assim, quando um programa é encerrado, os arquivos DLL que ele utilizou permanecem carregados na memória, dada a possibilidade de esse mesmo aplicativo voltar a ser aberto ou de o usuário executar outros programas que compartilham as mesmas bibliotecas. Mas isso acarreta um desperdício significativo de RAM e, consequentemente, aumenta o uso do swap-file (arquivo de troca da memória virtual). Como a RAM é volátil, a reinicialização “limpa” os chips de memória, fazendo com que o sistema ressurja lépido e fagueiro (ou nem tanto, dependendo do tempo de uso e da regularidade com que o usuário executa os indispensáveis procedimentos de manutenção).
Observação: Reiniciar um aparelho consiste basicamente em desligá-lo e tornar a ligá-lo logo em seguida. O termo reinicializar não significa exatamente a mesma coisa, mas o uso consagra a regra e eu não pretendo encompridar este texto discutindo questões semânticas. Interessa dizer é que desligar o computador interrompe o fornecimento da energia que alimenta os circuitos e capacitores da placa-mãe e demais componentes, propiciando o "esvaziamento" das memórias voláteis. Já quando recorremos à opção "Reiniciar" do menu de desligamento do Windows, o intervalo entre o encerramento do sistema e o boot subsequente pode não ser suficiente para o esgotamento total das reservas de energia, razão pela qual, para não errar, desligue o computador e torne a ligá-lo depois de alguns minutos sempre que uma reinicialização se fizer necessária.
sábado, 21 de outubro de 2006
Fragmentação dos dados - Primeira parte
O disco rígido (ou HD, ou Winchester), a despeito de ser tratado com descaso por muita gente que se atém apenas ao seu "tamanho", é um dos grandes responsáveis pela performance do computador. Aliás, não seria incorreto a gente se referir a ele como "memória", já que esse termo remete a qualquer meio destinado ao armazenamento de dados. A questão é que o PC utiliza diversas memórias (de tipos, tecnologias e aplicações distintas), dentre as quais a RAM (memória física) e o HD (memória de massa)... Vejamos isso melhor:
A RAM é um tipo de memória volátil e de acesso aleatório. Volátil, porque perde os dados quando o PC é desligado; de acesso aleatório, porque as informações podem ser lidas e gravadas a partir de qualquer de seus endereços - o que a torna especialmente veloz (se comparada ao HD), e faz dela a principal ferramenta de trabalho do processador (que, como todos sabemos, é o cérebro do computador). É na RAM que são carregados e manipulados todos os programas e dados - desde o sistema operacional e os demais aplicativos, até um simples documento de texto como este que eu estou redigindo agora. Claro que o sistema o os programas não são carregados inteiros - ou não haveria espaço que chegasse -, mas divididos, conforme suas características, em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes) que são remetidos para a RAM conforme sejam requisitados pelo processador.
O HD, por sua vez, faz o papel de "memória de massa" do sistema. Apesar de ser milhares de vezes mais lento que a RAM - do ponto de vista da leitura, escrita e transferência de dados - ele grava as informações de maneira "persistente" (não confundir com "permanente"). Assim, os arquivos são preservados depois que desligamos o computador e novamente carregados para a RAM, via programa de boot, quando reiniciamos a máquina.
Por hoje, chega. Enquanto você digere essas informações, eu vou cuidar de outros assuntos e preparar a próxima postagem.
Bom sábado a todos.
segunda-feira, 6 de junho de 2022
DO ÁBACO AO SMARTPHONE (CONTINUAÇÃO)
VIVEMOS COM NOSSOS DEFEITOS COMO COM O CHEIRO QUE TEMOS; NÓS NÃO O SENTIMOS, ELE SÓ INCOMODA OS OUTROS.
O iPhone transformou em computador ultraportátil um aparelho que nasceu telefone sem fio de longo alcance. Com sistema operacional e uma profusão de aplicativos, a demanda energética do dispositivo cresceu para além da capacidade da bateria, e a autonomia passou a disputar com o tamanho da tela o topo do ranking das características mais valorizadas pelos usuários.
No que tange ao display, há aparelhos do tamanho de tábuas de carne. Quanto à energia, ou se paga mais por um modelo com bateria de 5.000 mAh ou superior, que dure pelo menos um dia inteiro, ou se é obrigado a fazer um pit stop entre as recargas.
É possível aumentar a capacidade das baterias; difícil é fazê-lo sem que tamanho, peso e custo de fabricação cresçam na mesma medida. Traçando um paralelo meramente ilustrativo com os veículos elétricos, enquanto o iPhone 11 Pro Max integra uma bateria de 3.969 mAh (equivalente a 0,01504 kWh), o BMW i3 de 2015 já usava um modelo com capacidade de 22 kWh, que lhe garantia uma autonomia de até 135 km. Quatro anos depois, uma "usina" de 98,7 kWh permitiu ao Ford Mustang Mach Extended Range rodar até 610 km sem recarrega.
Observação: Os veículos elétricos surgiram no final do século XIX, mas deixaram de ser fabricados em 1915, quando Henry Ford lançou o modelo T. Quando a ideia voltou à baila, muitos anos depois, a Gurgel Motores S/A lançou o primeiro carro elétrico da América Latina. Com um motor de 3,2 kWh (potência equivalente a 4,2 cv) e pesando 460 kg (320 kg só das baterias), o Itaipu E150 atingia 30 km/h de velocidade máxima nas primeiras versões; as últimas já alcançavam 70 km/h na descida e com vento a favor, mas sua autonomia média era de 70 km. Antes de baixar as portas (em 1996), o engenheiro João Augusto Conrado do Amaral Gurgel apostou as últimas fichas no furgão elétrico Itaipu E400, com motor de 11 cv e autonomia de apenas 80 km (a bateria levava até 10 horas para recarregar). O tempo provaria que Gurgel mirou o alvo certo, apenas não dispunha da arma adequada para atingi-lo. Atualmente, os carros da Tesla são os que oferecem maior autonomia — o Tesla Model S Long Range Plus lidera o ranking, com autonomia de 647 km, contrapondo-se ao MINI Cooper SE, que roda apenas 177 km.
Enquanto buscam uma solução factível e comercialmente viável, os fabricantes de baterias se valem de paliativos, como sistemas de “carregamento rápido” e softwares que otimizam o consumo (mais detalhes na sequência de postagem iniciada aqui). Mas as limitações dos ultraportáteis (e dos computadores em geral) vão bem além da autonomia.
O desempenho de qualquer dispositivo computacional é limitado pelo hardware que o integra. Claro que o sistema (Windows, macOS, Linux, Android, iOS etc.) também impacta, positiva ou negativamente, a performance global: rodar o Win11 numa máquina com disco rígido eletromecânico é um verdadeiro teste de paciência.
Para além da capacidade de armazenamento de energia (que dita a autonomia dos ultraportáteis), há ainda limitações impostas pelo processador, pelas memórias e pelas interfaces de vídeo, áudio e rede, entre outras. Segundo Mestre Morimoto, “todo computador é tão rápido quanto seu componente mais lento”.
Um PC com processador ultraveloz e pouca memória RAM tende a ser mais lento do que seria se dispusesse de uma CPU mediana e fartura de RAM. Claro que a importância de cada componente é relativa. As limitações de uma placa de rede 10/100, por exemplo, só são sentidas quando a tarefa depende diretamente da largura de banda nos downloads e uploads. Da mesma forma, vídeo e áudio chinfrins não incomodam um usuário que se limita a assistir a clipes no YouTube, também por exemplo.
No que concerne ao processador e às memórias, o buraco é mais embaixo. Todo computador usa memórias de diversas tecnologias (RAM, ROM, HDD/SSD, cache, etc.), mas é na RAM (memória física ou primária) que o sistema operacional, os aplicativos e os demais arquivos são carregados e processados — geralmente a partir da memória de massa, que nos PCs corresponde ao drive de disco rígido (ou de memória sólida, conforme o caso) e nos ultraportáteis, ao armazenamento interno.
A RAM é uma memória volátil e de acesso aleatório. Volátil, porque só retém os dados quando está energizada; de acesso aleatório, porque grava e lê dados a partir de quaisquer endereços, de forma não sequencial. O acesso aleatório a torna milhares de vezes mais rápida do que os drives de disco rígido (HDD) e suas taxas de transferência e velocidade de escrita e gravação são superiores às dos drives de memória sólida (SSD). Por outro lado, devido à volatilidade, é preciso haver uma memória “persistente” (não confundir com permanente) que preserve o conteúdo mesmo com o computador desligado.
Quando ligamos o computador, arquivos do sistema e dos aplicativos que pegam carona na inicialização são carregados para a RAM a partir da memória de massa (ou secundária), que é representada pelo HDD e/ou SSD em desktops e notebooks, e pelo armazenamento interno em smartphones e tablets. A quantidade de RAM influencia diretamente o desempenho do aparelho: quando ela é insuficiente, o uso da memória virtual evita a exibição das antigas mensagens de "memória insuficiente", mas deixa o sistema muuuuuuuito lento.
O Gerenciador de Memória Virtual libera espaço na RAM enviando para um "arquivo de troca" (swap file) as sessões "não prioritárias" naquele momento, e trazendo-as de volta mais adiante, se e quando necessário. O problema é que esse arquivo é baseado na memória de massa, que é muito mais lenta do que a já relativamente lenta RAM.
Se você observar as especificações do seu aparelho, verá que o HDD, SSD ou armazenamento interno são "latifúndios" de centenas (ou milhares) de gigabytes, ao passo que RAM só ultrapassa 4 GB nos modelos mais caros, embora o recomendável seja atualmente 8 GB.
Continua...







