Mostrando postagens com marcador SSD. Mostrar todas as postagens
Mostrando postagens com marcador SSD. Mostrar todas as postagens

segunda-feira, 21 de outubro de 2019

CONHEÇA MELHOR SEU PC — PARTE IV


A VIDA É COMO O GELO FINO SOBRE O QUAL PATINAMOS ATÉ O DIA EM QUE CAÍMOS.

Recapitulando: se você não abre mão de desempenho deve investir num PC de ponta, com CPU poderosa, fartura de RAM e SSD com um latifúndio de espaço, mas tenha em mente que um processador Intel Core i9 Extreme custa mais de R$ 10 mil (note que não estou falando num PC equipado com esse portento, pura e simplesmente no processador).

Quem não está com essa bola toda deve buscar uma configuração que privilegie a memória RAM (atualmente, a quantidade recomendada é de 8 GB), mesmo que isso imponha a escolha de um processador menos poderoso — mas nada inferior a um Intel Core i5. Lembre-se: de nada adianta gastar rios de dinheiro num chip ultraveloz se os subsistemas de memória (física e de massa) não lhe oferecerem a necessária contrapartida.

Observação: Por memória de massa, entenda-se o dispositivo onde os dados são armazenados de forma persistente (não confundir com permanente), e por memória física, a RAM, para onde sistema, aplicativos e arquivos são transferidos (a partir da memória de massa) para serem executados e processados — claro que não integralmente, ou não haveria RAM que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes).

Como vimos, a memória virtual — solução paliativa (desenvolvida pela Intel no tempo dos 386, se bem me lembro) — emula memória física a partir de um arquivo de troca (swap file) criado no disco rígido, para onde o Gerenciador de Memória Virtual remete as sessões que não são prioritárias naquele momento, abrindo espaço na RAM, e as traz de volta quando necessário. Esse recurso foi aprimorado ao longo dos anos e é usado até hoje, mas o problema é que, por ele ser baseado no HDD, que é milhares de vezes mais lento que a já relativamente lenta memória RAM, seu impacto no desempenho global do computador é significativo.

Embora o preço da memória RAM tenha sofrido uma queda expressiva ao longo dos anos — um módulo de 8 GB de memória DDR-4 da Kingston custa, atualmente, pouco mais de US$ 50; no tempo dos vetustos PC 386, que vinham com míseros 2 MB de RAM (você leu certo: megabytes), pelo que se pagaria por 1 Gigabyte de RAM (claro que naquela época ninguém sequer sonhava que módulos com essa capacidade seriam vendidos um dia), daria para comprar, hoje, um carro popular zero quilômetro — PCs de entrada (leia-se de baixo custo) integram míseros 2 ou 3 gigabytes de RAM, o que não dá nem para o começo.   

Também como vimos, não é boa ideia entupir o computador de inutilitários; limite-se a instalar somente aquilo que você realmente for usar faça uma faxina de tempos em tempos. Aplicativos inúteis ou ociosos podem ser removidos com a ferramenta nativa do Windows — no Win10, clique em Iniciar > Configurações > Aplicativos > Aplicativos e Recursos —, mas eu sugiro utilizar ferramentas dedicadas, como o Revo Uninstaller ou o IObit Uninstaller, que eliminam a maioria das sobras que o desinstalador nativo do sistema costuma a deixar para trás.

Terminada a faxina, reinicie o computador e, no Windows 10, clique em Iniciar, expanda as Ferramentas Administrativas do Windows e clique em Limpeza do Disco. Feito isso, supondo que seu drive de armazenamento persistente seja eletromecânico, volte às Ferramentas Administrativas do Windows, clique em Desfragmentar e Otimizar Unidades, selecione a unidade em que o sistema se encontra instalado e dê início ao procedimento (que pode demorar de alguns minutos a horas e horas, dependendo do tamanho do drive, da quantidade de arquivos gravados e do índice de fragmentação dos dados; se você rodar o desfragmentador semanal ou quinzenalmente, as desfragmentações subsequentes demorarão bem menos tempo para ser concluídas).

Observação: Melhores resultados poderão ser obtidos também nesse caso com ferramentas de terceiros, como o Smart Defrag, que integra a suíte de manutenção IObit Advanced SystemCare, mas pode ser baixado e instalado isoladamente. Note que, a despeito de ser possível continuar trabalhando com o computador durante a desfragmentação, prefira executar a ferramenta quando a máquina estiver ociosa, a menos que não se importe em amargar uma lentidão irritante e aumentar expressivamente o tempo necessário para a conclusão da tarefa.

Desinstalados os aplicativos inúteis ou simplesmente dispensáveis e concluídas as etapas complementares sugeridas nos parágrafos anteriores, o próximo passo será checar quais programas remanescentes precisam realmente pegar carona na inicialização do Windows. Veremos isso em detalhes no próximo capítulo.

sexta-feira, 18 de outubro de 2019

CONHEÇA MELHOR SEU PC — PARTE III


OS SONHOS SÃO A FORMA COMO TOCAMOS O MUNDO INVISÍVEL.

Hoje em dia, qualquer PC de mesa ou portátil oferece um latifúndio de espaço em disco (ou memória de massa), mas isso não deve estimular o usuário a esgotá-lo no menor tempo possível. Até porque, para trabalhar com folga, o Windows precisa de pelo menos 20% de espaço livre na unidade em que se encontra instalado. 

Instalar freewares inúteis simplesmente porque você não paga por eles (na verdade, quando não pagamos por um produto é porque o produto somos nós) não é boa política: não bastasse o espaço que eles ocupam e os recursos que alocam (a maioria pega carona com a inicialização do sistema e roda em segundo plano durante toda a sessão do Windows), alguns ainda embutem códigos maliciosos (geralmente spyware). Portanto, a regra é: menos é mais. Quanto menos inutilitários você instalar, menos processos serão executados nos bastidores e menor será o risco de conflitos, instabilidades, lentidão e, em situações extremas, travamento do sistema.

Muita gente ainda confunde memória com espaço em disco. Ambos são "memória", é verdade. Aliás, computadores usam memória de diversos tipos — RAM, Cache, Flash etc. No entanto, quando falamos simplesmente "memória", estamos nos referindo à RAM, que é a memória física do sistema, onde os programas são carregados e as informações, processadas (desde o próprio sistema operacional até um simples documento de texto). 

Nenhum dispositivo computacional atual, de um grande mainframe a uma simples calculadora de bolso, funciona sem uma quantidade mínima de RAM. A questão é que o gigabyte de RAM custa bem mais caro que o gigabyte de memória massa (leia-se espaço no HDD). Assim, máquinas de entrada de linha que oferecem entre 500 GB e 1 TB de espaço no disco costumam trazer míseros 2 ou 3 GB de RAM, quando a quantidade recomendável para os padrões atuais seja de 8 GB

Sem memória física suficiente, o processador desperdiça ciclos e mais ciclos de processamento enquanto espera pelos dados armazenados na memória virtual, que é baseada no HDD e, portanto, milhares e milhares de vezes mais lenta que a já relativamente lenta memória RAM.

Explicando melhor: Até o lançamento do Win95, o MS-DOS era o sistema operacional propriamente dito, e uma de seus maiores inconvenientes era ser monotarefa. Ainda que o Windows se valesse de alguns artifícios para burlar essa limitação, era impossível, por exemplo, o usuário mandar um documento de texto para a impressora e usar a calculadora enquanto a impressão não terminasse. 

O "pulo do gato" da Microsoft (como é considerado o lançamento do Win95) trouxe a multitarefa, e com ela os problemas de falta de memória física. Mas nem tudo são flores nesse jardim. Quando executamos um processador de textos, um editor de imagens, um navegador da Internet e um cliente de e-mail, por exemplo, e nosso antivírus resolve fazer uma varredura em segundo plano, a quantidade de RAM disponível pode ser insuficiente para atender toda essa demanda. 

Vale lembrar que, quando convocamos um app qualquer, a CPU copia para a RAM (a partir da unidade de armazenamento persistente, ou seja, do HDD ou SSD) os respectivos executáveis, DLLs (bibliotecas de ligação dinâmica), arquivos de dados, etc. (se os programas fossem copiados inteiros, não haveria memória física que bastasse). Para evitar as irritantes mensagens de "memória insuficiente" — que eram comuns nas edições vetustas do Windows —, a Intel criou a "memória virtual" (ou swap file, ou arquivo de troca). Mas é preciso ter em mente que se trata de um mero paliativo. A regra é clara: Falta de memória se resolve instalando mais memória, O resto é conversa mole para boi dormir (embora o ReadyBoost possa ajudar em alguns casos).

Continua no próximo capítulo.

quinta-feira, 17 de outubro de 2019

CONHEÇA MELHOR SEU PC — CONTINUAÇÃO


A IDEIA DE QUE DEUS É UM GIGANTE BARBUDO DE PELE BRANCA SENTADO NO CÉU É RIDÍCULA. MAS SE, COM ESSE CONCEITO, VOCÊ SE REFERIR A UM CONJUNTO DE LEIS FÍSICAS QUE REGEM O UNIVERSO, ENTÃO CLARAMENTE EXISTE UM DEUS. SÓ QUE ELE É EMOCIONALMENTE FRUSTRANTE: AFINAL, NÃO FAZ MUITO SENTIDO REZAR PARA A LEI DA GRAVIDADE.

O que se convencionou chamar de microcomputador (ou PC) é a combinação de dois subsistemas distintos, conquanto interdependentes: o hardware e o software. Por hardware, entenda-se o conjunto de componentes físicos — placa de sistema, placas de expansão, processador, memórias, gabinete, etc., além de periféricos como monitor de vídeo, teclado, mouse, entre outros — e por software, o sistema operacional e os aplicativos (além de programas de baixo nível como drivers de dispositivo, firmwares e outros).

Antigamente, os veteranos costumavam dizer aos novatos que hardware era tudo aquilo que eles podiam chutar, e software, aquilo que eles só podiam xingar, mas isso já é outra história.

Como em qualquer "conjunto" — seja uma banda, uma orquestra ou um PC — o desempenho individual influencia, positiva ou negativamente, a performance global. No caso específico do computador, esse conceito tem mais a ver com o hardware que com o software, mas isso não quer dizer que o sistema e os programas não tenham sua parcela de responsabilidade.

Por mais habilidoso que seja o maestro, músicos desafinados e desentrosados dificilmente produzirão um bom espetáculo, da mesma forma que uma CPU de ponta só exibirá seu "poder de fogo" com a contrapartida de um SSD responsável e fartura de memória (claro que os demais componentes também contam, só que em menor escala).

Por outro lado, um processador mediano pode se sair bem se contar com muita memória RAM e um HDD (drive eletromecânico ultrapassado, mas bem mais acessível que os modelos baseados em memória flash) de preço acessível, mas espaçoso e veloz. A conclusão que se tira é que, a menos que dinheiro não seja problema, melhor investir numa máquina de configuração mediana, mas equilibrada (como diziam os antigos, in medio stat virtus), do que num modelo com processador de ponta, mas com pouca memória e HDD chinfrim.

Amanhã trataremos do software.

quinta-feira, 12 de setembro de 2019

SSD PORTÁTIL (USB)


POUCO IMPORTAM AS BATALHAS QUE VOCÊ PERDER SE A GUERRA VOCÊ VENCER.

Dias atrás, vi numa loja de suprimentos de informática um drive externo de memória sólida (SSD), com capacidade de 250 GB. Suas dimensões reduzidas me levaram a imaginar se ele não seria uma alternativa interessante para quem tem um smartphone com pouca memória interna e sem suporte a cartão de memória, mas, infelizmente, a resposta é não.

Primeiro, devido à incompatibilidade do sistema operacional (o dispositivo em questão só funciona com Windows ou Mac OS); segundo, pelo preço salgado (R$ 948) — com mais R$ 50 é possível comprar um smartphone Samsung Galaxy M30 (SM-M305) com 64 GB de memória interna nativa e suporte para cartão MicroSD de até 512 GB.

Ainda que assim não fosse, seria desconfortável andar com o drive externo conectado ao telefone pelo cabinho micro-USB. E se é para deixar o dispositivo em casa e usá-lo apenas para armazenar fotos, vídeos e outros arquivos volumosos, que esgotam rapidamente a memória interna do smartphone, HDDs externos USB de 1 TB já são vendidos por menos de R$ 200.

Talvez valesse a pena investir no SSD para acelerar o PC de casa, já que a memória flash é muito mais rápida do que a magnética (detalhes nesta postagem). Nesse caso, poder-se-ia instalar o sistema operacional e os aplicativos mais usados no SSD e manter no HDD os demais programas e arquivos. Mas também aqui a coisa esbarra no preço: com menos de R$ 500 é possível comprar um SSD interno (interface SATA III) de 500 GB da Western Digital.

Não está mais aqui quem falou.

quinta-feira, 22 de agosto de 2019

AINDA SOBRE A EVOLUÇÃO TECNOLÓGICA

QUEM VIVE DE ESPERANÇA MORRE DE FOME.

Computadores são formados por dois subsistemas distintos, mas interdependentes: o hardware e o software. O primeiro é tudo aquilo que a gente chuta, e o segundo, o que a gente só pode xingar. Ou, numa definição mais elaborada: o hardware compreende os componentes físicos do aparelho — gabinete, processador, placas de sistema e de expansão, monitor etc. —, e o software, o sistema operacional, aplicativos, utilitários, enfim, àquilo que, no léxico da informática, se convencionou chamar de "programas" (conjuntos de instruções em linguagem de máquina que descrevem uma tarefa a ser realizada pelo computador, e podem referenciar tanto o código fonte, escrito em alguma linguagem de programação, quanto o arquivo executável que contém esse código).  

Combinada com a evolução tecnológica, a interdependência entre o hardware e o software origina um círculo vicioso (ou virtuoso). Componentes cada vez mais poderosos estimulam o desenvolvimento de programas ainda mais exigentes, e estes, cada vez mais capacidade de processamento, espaço em disco e na memória RAM, levando a indústria do hardware a robustecer ainda mais seus produtos — eis a razão pela qual PCs de última geração se tornam ultrapassados em questão de meses e obsoletos em dois ou três anos.

Devido à arquitetura modular, os "micros" das primeiras safras eram vendidos em kit, cabendo aos usuários montá-los ou recorrer a integradores especializados (Computer Guy). Operá-los também não era tarefa fácil, sobretudo quando não havia disco rígido nem sistema operacional (cada tarefa exigia que os comandos fossem introduzidos manualmente via teclado). Mais adiante, os programas seriam gravados em fita magnética (como as populares cassete que a gente usava antigamente para gravar e ouvir música) e depois em disquinhos magnéticos finos e flexíveis, conhecidos como disquete ou Floppy Disk.

Observação: A título de curiosidade, meu primeiro 286, além de uma winchester com capacidade para armazenar umas poucas centenas de megabytes, contava com um drive para disquetes de 5 ¼” e dois para modelos de 3 ½”, o que facilitava sobremaneira a cópia de arquivos e de programas — como os inevitáveis joguinhos, que se tornariam o principal meio de disseminação dos ainda incipientes vírus eletrônicos, e estes, o mote dos meus primeiros escritos sobre informática e segurança digital. Mas isso já é outra conversa.

Foi também graças à evolução tecnológica que o custo do megabyte baixou de assustadores US$ 200 para alguns centavos, permitindo que os HDDs, que levaram décadas para quebrar a barreira do gigabyte, se tornassem verdadeiros latifúndios. Hoje em dia, qualquer desktop ou notebook de configuração chinfrim conta com algo entre 500 GB e 1 TB de espaço em disco.

É importante não confundir espaço em disco com memória RAM. No jargão da informática, "memória" remete a qualquer meio destinado ao armazenamento de dados, mas, por convenção, sempre que falamos "genericamente" em memória estamos nos referindo à RAM, que é a memória física do computador e principal ferramenta de trabalho do processador. É nela que o sistema, aplicativos e demais arquivos são carregados — a partir do HDD, SSD ou outro dispositivo de armazenamento persistente — para serem processados/editados. Claro que eles não são carregados integralmente (ou não haveria RAM que bastasse), mas divididos em páginas (pedaços do mesmo tamanho) ou em segmentos (pedaços de tamanhos diferentes). Além das memórias física (RAM) e de massa (discos rígidos e drives de memória sólida), o computador utiliza outras tecnologias com finalidades específicas, como as memórias ROM, de vídeo, cache, flash etc., mas isso já é outra conversa.

Criado pela Sony no final dos anos 1960 e lançado comercialmente em 1971, o disquete embarcou na crescente popularização dos PCs e se tornou a solução primária para armazenamento externo e transporte de arquivos digitais. Mas nem tudo eram flores: além de oferecerem espaço miserável, os disquinhos eram frágeis e emboloravam e desmagnetizavam com facilidade. Os primeiros modelos, de 8 polegadas (cerca de 20 cm), comportavam míseros 8 KB. Nos de 5 ¼ polegadas, a capacidade inicial de 160 KB chegou a 1,2 MB em 1984, quando eles deixaram de ser produzidos. As versões de 3 ½ polegadas foram extremamente populares, a despeito de sua capacidade medíocre (1,44 MB). Versões de 2,88 MB e 5,76 MB chegaram a ser lançadas, mas por alguma razão não se popularizaram.

Observação: Considerando que seriam necessários cerca de 700 disquetes de 1.44 MB para armazenar 1 GB de dados, para gravar nesse tipo de mídia os arquivos de instalação do Win7 seriam necessários 11.000 disquinhos (que formariam uma pilha da altura de um edifício de 9 andares).

Com o advento das mídias ópticas (CD, DVD e Blu-ray), os disquetes se tornaram "coisa do passado". Mesmo assim, a Sony a fabricá-los até 2011, quando finalmente jogou a toalha. Deveria tê-lo feito bem antes: a virada do século trouxe o pendrive e, mais adiante, o HD externo  dispositivos de memória flash com interface USB que oferecem latifúndios de espaço. Somados aos drives virtuais (armazenamento em nuvem), essas tecnologias levaram os fabricantes de PC, que já tinham excluídos o drive de disquete de suas planilhas de custo, a eliminar também o drive de mídia óptica.

O resto fica para o próximo capítulo.

sexta-feira, 16 de agosto de 2019

COMO AUTOMATIZAR O DESLIGAMENTO DO PC E ALGUMAS NOÇÕES SOBRE A EVOLUÇÃO DO COMPUTADOR, OS PADRÕES AT, ATX E DISPOSITIVOS DE ARMAZENAMENTO DE DADOS.


IDEOLOGIA MATA. BURRICE TAMBÉM.

As sutilezas do desligamento do computador foram assunto das últimas 3 postagens. Minha ideia era explicar na de hoje como configurar o Windows para automatizar esse processo, que só se tornou possível depois que o padrão ATX para placas de sistema, gabinetes e fontes de alimentação aposentou o obsoleto AT e introduziu o conceito de fonte inteligente, permitindo o desligamento do aparelho por software — isto é, sem que seja preciso mudar o Power Switch (botão liga/desliga) da posição ligado para desligado depois de o Windows ser finalizado. No entanto, achei por bem tecer algumas considerações conceituais, que eu convido o caro leitor a acompanhar.

Anos-luz de evolução tecnológica separam os desktops e notebooks atuais dos primeiros PCs. Quem trabalhou com os pré-históricos 286, 386 e 486 das décadas de 80/90 mal lhes reconhece o DNA, sobretudo nos smartphones, que são comandados por um sistema operacional, acessam a Internet e rodam aplicativos, o que os torna computadores pessoais ultraportáteis. Raras vezes paramos para pensar nisso, mas, quando o fazemos, custa acreditar que os monstruosos "cérebros eletrônicos dos anos 1950, que ocupavam prédios inteiros e tinham menos poder de processamento que uma calculadora de bolso xing ling atual, diminuíram de tamanho a ponto de caber no bolso ou na bolsa. Isso sem mencionar que seus recursos crescerem em progressão geométrica.

Em meados dos anos 1960, Gordon Moore, um dos fundadores da Intel, profetizou que o número de transistores dos chips dobraria a cada 18 meses sem que isso aumentasse o custo de produção. Já o primeiro HDD (drive de disco rígido) de que se tem notícia, construído pela IBM em 1956, era uma monstruosidade composta de 50 pratos de 24 polegadas de diâmetro, que apesar de ter o tamanho de uma geladeira doméstica e pesar mais de uma tonelada, armazenava míseros 4.36 MB (espaço que mal dá para armazenar uma faixa musical no formato .MP3) e custava mais de US$ 30 mil dólares.

Ao longo das últimas três décadas, o custo do gigabyte de armazenamento despencou de US$ 100 mil para apenas alguns centavos. O tamanho do hardware também diminuiu: em 2005, 0 Toshiba MK2001MTN entrou para o Guinness como "o menor HD do mundo", com capacidade de 2 GB e discos de menos de 2 cm de diâmetro — no ano seguinte, quando ele começou a ser produzido em escala comercial, sua capacidade já havia dobrado. Mais adiante, os pendrives (dispositivos de armazenamento removíveis baseados em memória flash) aposentaram os obsoletos floppy disks (discos flexíveis, mais conhecidos como disquetes) e os SSD prometeram fazer o mesmo como os drives de HD eletromecânicos — se ainda não o fizeram, é porque o preço dos modelos de altas capacidades continua proibitivo. O primeiro disco de estado sólido foi desenvolvido em 1976, mas a tecnologia só começaria a se popularizar mais de 3 décadas depois. Em 2006, a coreana Samsung lançou sua primeira unidade de 2.5 polegadas e 32 GB de capacidade, que podia substituir diretamente o HDD em notebooks, sendo seguida pela norte-americana SanDisk, que lançou um produto semelhante cerca de um ano depois.

Rápidos e silenciosos, esses dispositivos são sopa no mel para quem não se incomoda em pagar mais para ter o que há de melhor: enquanto um drive eletromecânico de 7.200 RPM lê dados a 200 megabits por segundo, modelos de memória sólida podem alcançar taxas de leitura de 550 Mbps ou mais, reduzindo à metade o tempo de carregamento do sistema e dos aplicativos. Demais disso, por não possuírem partes móveis, modelos SSD são menos sujeitos a danos decorrentes de quedas acidentais ou vibrações e não precisam de manutenção frequente — desfragmentação, algo comum em HDs com sistema operacional Windows, não são necessários e podem até prejudicar o drive sólido.

Substituir um HD de 1 TB por um SSD de igual capacidade pode custar mais do que um computador de configuração mediana. Uma alternativa é comprar SSD com algumas dezenas de gigabytes de espaço e instalar nele somente o sistema e os aplicativos mais usados. Outra opção é recorrer a um drive híbrido, que alia o melhor dos dois mundos com uma parte em memória flash e outra que funciona como um disco rígido comum. A vantagem é aliar a velocidade do SSD à grande capacidade de armazenamento do HDD convencional. Modelos com 128 GB em memória sólida e 1 TB em discos magnéticos já são encontrados por menos de R$ 1 mil. Antes de sacar seu poderoso cartão de crédito, assegure-se de que o tamanho do novo drive é compatível com o gabinete do seu desktop ou notebook, bem como se o formato do SSD ou do drive híbrido é suportado pela placa-mãe.

O resto fica para a próxima postagem.

quinta-feira, 21 de fevereiro de 2019

AINDA SOBRE O DESEMPENHO DO PC


O HOMEM É ESSENCIALMENTE GANANCIOSO, TODO HOMEM INVESTIDO DE PODER É TENTADO A ABUSAR DELE.

Eu já disse, mas não custa repetir: um PC de configuração chinfrim é como um veículo popular 1.0: ambos se movem, mas nenhum deles tem um desempenho de tirar o fôlego. 

No caso do computador, minha recomendação sempre foi priorizar uma configuração equilibrada — um processador de ponta só mostra do que é capaz se contar com a contrapartida das memórias (física e de massa). Seria como numa orquestra, onde o maestro só consegue proporcionar um bom espetáculo se contar com músicos competentes, afinados e entrosados entre si. Substitua a orquestra pelo computador, o maestro pelo processador e os músicos pelos demais componentes e você terá uma boa ideia do que eu estou querendo dizer.

Observação: O computador é formado por dois segmentos distintos, mas interdependentes: o hardware e o software. O primeiro é a parte física — ou aquilo que você chuta — e o segundo, a parte “invisível” — ou aquilo que você xinga. Sistemas e programas (isto é, o software) estão cada vez mais exigentes (por recursos de hardware, como processamento, memória, etc.). Comprar um desktop de entrada de linha, daqueles que custam pouco mais de mil reais, e querer rodar programas como o Adobe Photoshop e games radicais, por exemplo, é arrependimento garantido. E ainda que seja possível fazer um upgrade posterior (de memória, HDD, e até de processador), o molho costuma sair mais caro do que o peixe. Então, ao escolher um PC, não se baseie unicamente pelo preço — nem tudo que é caro é bom, mas o que é bom geralmente custa mais caro.

Se você acha que seu PC ainda dá caldo — ou que o momento não é indicado para comprar uma máquina mais adequada às suas expectativas —, reveja as dicas que eu publiquei ao longo das últimas postagens e ponha em prática as que você achar que podem ajudar. Adicionalmente, remova todos os inutilitários, instale uma boa suíte de manutenção, faça uma faxina em regra no sistema, corrija eventuais erros no disco rígido e desfragmente os dados

O Windows dispõe nativamente de um limpador de disco e de ferramentas para corrigir erros e desfragmentar os dados no HDD, mas eu uso e recomendo o Advanced System Care e/ou o CCleaner (detalhes nas postagens anteriores), cuja gama de funções vai bem além dos limitados recursos dos utilitários nativos do sistema.

Manter o Windows e os demais aplicativos atualizados é fundamental. Clique em Configurações > Atualização e segurança > Windows Update > Verificar atualizações e instale todas as atualizações críticas, de segurança e de driver. Os programas "não Microsoft" não são contemplados pelo WU, mas a maioria avisa quando há atualizações disponíveis; para os que não o fazem, ou você faz o trabalho manualmente, ou recorre a ferramentas como o FILEHIPPO APP MANAGER, o OUTDATEFIGHTER, o R-UPDATER e o KASPERSKY SOFTWARE UPDATER, que poupam um boado de tempo e trabalho.

É verdade que um outro patch pode produzir resultados inesperados e indesejados, mas a Microsoft procura solucionar o problema com a possível urgência, e não é por causa de uma laranja podre que você vai jogar fora a caixa inteira. No geral, as atualizações aprimoram a segurança e o funcionamento do sistema como um todo, devendo ser implementadas sempre que estiverem disponíveis.

Desde que começaram a ser usados em PCs domésticos, os antivírus foram eleitos os grandes culpados pela lentidão do computador. É fato que a maioria deles tem um apetite voraz por recursos (processamento, memória, etc.), e que, para piorar, esse é o tipo de programa que precisa ser carregados na inicialização do sistema. Embora seu impacto no desempenho costume ser mais sentido durante as varreduras, é recomendável usar antivírus mais “leves” em máquinas de configurações mais pobres.

Observação: Uma alternativa ao antivírus é a virtualização do sistema (detalhes nesta postagem), mas eu considero essa solução mais adequada a computadores públicos (como os de lanhouses, cibercafés etc.) do que aos domésticos.

Se sua máquina estiver particularmente lenta e você tiver motivos para suspeitar do antivírus, experimente desativá-lo temporariamente e veja como o sistema se comporta. Se a melhora for palpável, substitua a ferramenta por outra que drene menos recursos (eu gosto muito do AVAST PREMIER, mas não tome qualquer decisão sem analisar o TOTAL AV, o PC PROTECT e o KASPERSKY INTERNET SECURITY, além, é claro, dos festejados produtos da SYMANTEC).

Volto a frisar que a influência do drive de disco rígido (memória de massa) no desempenho global do sistema é significativa. Os modelos baseados em memória sólida (SSD) vêm substituindo (a conta-gotas) os eletromecânicos, mas unidades de grandes capacidades ainda custam muito caro. Drives híbridos reúnem o melhor dos dois mundos, combinando um SSD de pequena capacidade (64 GB, p.e.) com um HDD convencional (eletromecânico). Assim, a memória sólida funciona como cache, armazenando os aquivos mais usados e agilizando o acesso a eles, enquanto os pratos magnéticos se encarregam dos demais conteúdos (música, vídeo, imagem, texto, etc.). Note que o processo é transparente e automático, ou seja, tanto o usuário quanto o sistema "enxergam um drive comum”.

Cumpre salientar que a desfragmentação de drives de memória sólida é desnecessária e desaconselhável, mas os modelos convencionais devem ser desfragmentados quinzenal ou mensalmente, conforme o uso do computador. Antes de executar a desfragmentação, veja qual o percentual de espaço livre na unidade. Se mais de 70% do total estiver ocupado, ponha as barbichas de molho (mais detalhes na próxima postagem).

O desfragmentador nativo do Windows 10 cumpre sua função, mas eu uso e recomendo o Smart Defrag, que é rápido, amigável, e oferece recursos como a desfragmentação off-line (feita durante a inicialização, de modo a contemplar arquivos que ficam inacessíveis quando o sistema está carregado), a otimização (que regrava os arquivos do sistema no início do disco para aprimorar o desempenho), a consolidação do espaço livre, e por aí vai.

É o que tínhamos para hoje, pessoal. Volto amanhã com mais dicas sobre o HDD e o desempenho do PC.

quinta-feira, 14 de fevereiro de 2019

DE VOLTA À MEMÓRIA RAM - PARTE 7


É PRECISO MANTER A PÓLVORA SECA PARA O CASO DE SE PRECISAR DELA.

Vimos que o sistema e os aplicativos não são carregados integralmente na memória RAM, mas divididos em páginas ou em segmentos (pedaços do mesmo tamanho e pedaços de tamanhos diferentes, respectivamente), ou não haveria memória que bastasse. Isso só é possível porque os sistemas operacionais são construídos de forma modular, e cada módulo (Kernel, EscalonadorGerenciador de Arquivos, etc.) é carregado individual e seletivamente, conforme as necessidades.

Toda vez que ligamos o computador, o BIOS faz o POST (autoteste de inicialização), procura os arquivos de BOOT (conforme a sequência declarada no CMOS Setup), “carrega” o sistema na memória RAM e exibe a tradicional tela de boas-vindas. 

BIOS é a primeira camada de software do computador e fica gravado numa pequena porção de memória não volátil integrada à placa-mãe. O CMOS é um componente de hardware composto de um relógio permanente, uma pequena porção de memória volátil e uma bateria, que mantém essa memória volátil energizada, ou as informações que ela armazena se perderiam toda vez que o computador fosse desligado. O BOOT é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS e realiza o POST (autoteste de inicialização).Só então, e se tudo estiver nos conformes, o Windows é carregado e assume o comando da máquina.

Fazer o Setup nada mais é que configurar os parâmetros armazenados na memória do CMOS, de modo a permitir que o BIOS reconheça e gerencie adequadamente os componentes instalados, dê o boot e adote outros procedimentos básicos que envolvem o funcionamento do PC. Essa configuração consiste em oferecer respostas a uma longa sequência de perguntas num sistema de múltipla escolha, mas a boa notícia é que ela e feita na etapa final da montagem do computador e só é necessário refazê-la em situações específicas (após um upgrade abrangente de hardware, por exemplo). Claro que é possível reconfigurar o Setup para resolver problemas e/ou incrementar o desempenho do computador, mas isso só deve ser feito usuários avançados, pois modificações indevidas ou malsucedidas podem comprometer o funcionamento da máquina.

ObservaçãoBoot significa bota ou botina, mas virou sinônimo de inicialização devido à expressão “pulling oneself up by his own bootstraps” (içar a si mesmo pelos cordões das botinas), que, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”. Segundo alguns autores, isso vem do tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções mais complexas, e esse processo era conhecido como bootstrapping.

Voltando à influência da RAM no desempenho global do PC, vale relembrar uma analogia que eu faço desde que publiquei meus primeiros artigos sobre hardware na mídia impressa, lá pelo final do século passado: 

Se o computador fosse uma orquestra, o processador seria o maestro. Mas uma boa apresentação não depende apenas de um regente competente, mas também de músicos qualificados e entrosados entre si. Bons músicos podem até suprira as limitações de um maestro meia-boca, mas o contrário não é possível: por mais que o regente se descabele, a incompetência da equipe fatalmente embotará o brilho do concerto. Guardadas as devidas proporções, o mesmo se dá em relação ao PC, que depende de uma configuração equilibrada, com componentes adequados e balanceados

Em outras palavras, uma CPU de primeiríssima não será capaz de muita coisa se for assessorada por um subsistema de memórias subdimensionado. Mas não é só. PCs da mesma marca, modelo e idêntica configuração de hardware podem apresentar comportamentos diversos, pois o desempenho de cada depende também da configuração do Windows, da quantidade de aplicativos instalados, da maneira como eles são inicializados, da regularidade com que o usuário realiza manutenções preventivo-corretivas, e por aí vai. 

Máquinas de entrada de linha (leia-se baixo custo) costumam integrar processadores chinfrins, pouca memória e módulos genéricos, o que impacta negativamente no desempenho global do sistema. Isso sem mencionar o software fica mais exigente a cada dia. Para se ter uma ideia, enquanto o Win95 rodava com míseros 8 MB de RAM (isso mesmo, oito megabytes) o Windows 10 precisa de algo entre 6 e 8 GB para rodar com folga (a Microsoft, modesta quando lhe convém, fala em 1 GB para as versões de 32-bit2 GB para as de 64-bit, mas aí não sobra quase nada para os aplicativos).

Outra analogia de que gosto muito remete à dinâmica entre o processador, a RAM e o HDD. Vamos a ela:

Imagine o PC como um escritório e o processador como um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, esse incansável colaborador atende ligações, recebe informações, transmite instruções, elabora cartas e relatórios, responde emails e por aí afora, tudo praticamente ao mesmo tempo. No entanto, se algum elemento indispensável ao trabalho não estiver sobre a mesa, o já assoberbado funcionário perderá um bocado de tempo escarafunchando gavetas abarrotadas e estantes desarrumadas (quem mandou não desfragmentar o HDD?). E a situação fica ainda pior quando ele precisa abrir espaço sobre a mesa atulhada para acomodar mais livros e pastas. Isso sem falar que terá de arrumar tudo de novo antes de retornar à tarefa interrompida. 

Se você ainda não ligou os pontos, a escrivaninha corresponde à memória cache, as gavetas à memória física (RAM), as estantes à memória de massa (HDD) e a “abertura de espaço”, ao swap-file (ou arquivo de troca, ou ainda memória virtual). Para mais detalhes sobre cada uma dessas memórias, reveja as postagens anteriores).

Vejo agora que esse apanhado de informações conceituais ocupou um bocado de espaço, o que me obriga a deixar as dicas práticas para a próxima postagem. Até lá.