Mostrando postagens com marcador memória de massa. Mostrar todas as postagens
Mostrando postagens com marcador memória de massa. Mostrar todas as postagens

quinta-feira, 22 de agosto de 2019

AINDA SOBRE A EVOLUÇÃO TECNOLÓGICA

QUEM VIVE DE ESPERANÇA MORRE DE FOME.

Computadores são formados por dois subsistemas distintos, mas interdependentes: o hardware e o software. O primeiro é tudo aquilo que a gente chuta, e o segundo, o que a gente só pode xingar. Ou, numa definição mais elaborada: o hardware compreende os componentes físicos do aparelho — gabinete, processador, placas de sistema e de expansão, monitor etc. —, e o software, o sistema operacional, aplicativos, utilitários, enfim, àquilo que, no léxico da informática, se convencionou chamar de "programas" (conjuntos de instruções em linguagem de máquina que descrevem uma tarefa a ser realizada pelo computador, e podem referenciar tanto o código fonte, escrito em alguma linguagem de programação, quanto o arquivo executável que contém esse código).  

Combinada com a evolução tecnológica, a interdependência entre o hardware e o software origina um círculo vicioso (ou virtuoso). Componentes cada vez mais poderosos estimulam o desenvolvimento de programas ainda mais exigentes, e estes, cada vez mais capacidade de processamento, espaço em disco e na memória RAM, levando a indústria do hardware a robustecer ainda mais seus produtos — eis a razão pela qual PCs de última geração se tornam ultrapassados em questão de meses e obsoletos em dois ou três anos.

Devido à arquitetura modular, os "micros" das primeiras safras eram vendidos em kit, cabendo aos usuários montá-los ou recorrer a integradores especializados (Computer Guy). Operá-los também não era tarefa fácil, sobretudo quando não havia disco rígido nem sistema operacional (cada tarefa exigia que os comandos fossem introduzidos manualmente via teclado). Mais adiante, os programas seriam gravados em fita magnética (como as populares cassete que a gente usava antigamente para gravar e ouvir música) e depois em disquinhos magnéticos finos e flexíveis, conhecidos como disquete ou Floppy Disk.

Observação: A título de curiosidade, meu primeiro 286, além de uma winchester com capacidade para armazenar umas poucas centenas de megabytes, contava com um drive para disquetes de 5 ¼” e dois para modelos de 3 ½”, o que facilitava sobremaneira a cópia de arquivos e de programas — como os inevitáveis joguinhos, que se tornariam o principal meio de disseminação dos ainda incipientes vírus eletrônicos, e estes, o mote dos meus primeiros escritos sobre informática e segurança digital. Mas isso já é outra conversa.

Foi também graças à evolução tecnológica que o custo do megabyte baixou de assustadores US$ 200 para alguns centavos, permitindo que os HDDs, que levaram décadas para quebrar a barreira do gigabyte, se tornassem verdadeiros latifúndios. Hoje em dia, qualquer desktop ou notebook de configuração chinfrim conta com algo entre 500 GB e 1 TB de espaço em disco.

É importante não confundir espaço em disco com memória RAM. No jargão da informática, "memória" remete a qualquer meio destinado ao armazenamento de dados, mas, por convenção, sempre que falamos "genericamente" em memória estamos nos referindo à RAM, que é a memória física do computador e principal ferramenta de trabalho do processador. É nela que o sistema, aplicativos e demais arquivos são carregados — a partir do HDD, SSD ou outro dispositivo de armazenamento persistente — para serem processados/editados. Claro que eles não são carregados integralmente (ou não haveria RAM que bastasse), mas divididos em páginas (pedaços do mesmo tamanho) ou em segmentos (pedaços de tamanhos diferentes). Além das memórias física (RAM) e de massa (discos rígidos e drives de memória sólida), o computador utiliza outras tecnologias com finalidades específicas, como as memórias ROM, de vídeo, cache, flash etc., mas isso já é outra conversa.

Criado pela Sony no final dos anos 1960 e lançado comercialmente em 1971, o disquete embarcou na crescente popularização dos PCs e se tornou a solução primária para armazenamento externo e transporte de arquivos digitais. Mas nem tudo eram flores: além de oferecerem espaço miserável, os disquinhos eram frágeis e emboloravam e desmagnetizavam com facilidade. Os primeiros modelos, de 8 polegadas (cerca de 20 cm), comportavam míseros 8 KB. Nos de 5 ¼ polegadas, a capacidade inicial de 160 KB chegou a 1,2 MB em 1984, quando eles deixaram de ser produzidos. As versões de 3 ½ polegadas foram extremamente populares, a despeito de sua capacidade medíocre (1,44 MB). Versões de 2,88 MB e 5,76 MB chegaram a ser lançadas, mas por alguma razão não se popularizaram.

Observação: Considerando que seriam necessários cerca de 700 disquetes de 1.44 MB para armazenar 1 GB de dados, para gravar nesse tipo de mídia os arquivos de instalação do Win7 seriam necessários 11.000 disquinhos (que formariam uma pilha da altura de um edifício de 9 andares).

Com o advento das mídias ópticas (CD, DVD e Blu-ray), os disquetes se tornaram "coisa do passado". Mesmo assim, a Sony a fabricá-los até 2011, quando finalmente jogou a toalha. Deveria tê-lo feito bem antes: a virada do século trouxe o pendrive e, mais adiante, o HD externo  dispositivos de memória flash com interface USB que oferecem latifúndios de espaço. Somados aos drives virtuais (armazenamento em nuvem), essas tecnologias levaram os fabricantes de PC, que já tinham excluídos o drive de disquete de suas planilhas de custo, a eliminar também o drive de mídia óptica.

O resto fica para o próximo capítulo.

sexta-feira, 22 de fevereiro de 2019

PASTAS - TAMANHO E OUTRAS SUTILEZAS

OS FATOS NÃO DEIXAM DE EXISTIR SIMPLESMENTE PORQUE OS IGNORAMOS

Eu fiquei de dar sequência às considerações sobre a influência da memória de massa (disco rígido) no desempenho do computador, bem como publicar outras dicas para espremer as últimas gotas de performance de uma máquina rodada, de configuração meia-boca, mas isso vai ter de ficar para segunda-feira. Segue o post de hoje:

Se você quiser saber o “tamanho” de uma pasta — para ter a certeza de que ela caberá no espaço que lhe resta num CD ou pendrive, por exemplo —, desconsidere a informação exibida na barra de status, pois ela não leva em conta eventuais subpastas, arquivos ocultos e outros que tais. Em vez disso, dê um clique direito no ícone que representa a pasta em questão e clique em Propriedades. Caso a pasta esteja aberta, dê um clique direito num ponto vazio em seu interior — ou no ícone do menu de controle (que fica no canto esquerdo da barra de título, na parte superior da janela) — e selecione Propriedades

Se houver duas informações distintas — “tamanho” e “tamanho em disco” — considere a primeira, pois a segunda representa o espaço ocupado no disco pelo conteúdo da pasta e pode variar conforme o sistema de arquivos (FAT32 ou NTFS) e outras “sutilezas” cuja abordagem foge ao escopo desta postagem.

Falando em pastas e sutilezas, o freeware My Lockbox é um programinha de segurança que permite proteger com senha qualquer pasta do seu computador (ocultando-a até mesmo do administrador, ainda que seja realizada uma busca através da caixa Pesquisar da Barra de Tarefas do Windows).

segunda-feira, 18 de fevereiro de 2019

USO EXCESSIVO DO HDD — COMO RESOLVER


TODO HOMEM É CULPADO DO BEM QUE NÃO FEZ.

Quem acompanha este Blog e leu as últimas postagens viu que a memória RAM — ou mais exatamente a falta dela — pode impactar negativamente o desempenho do computador, embora outros componentes importantes, como o processador e o drive de HD, se subdimensionados, comprometem drasticamente a performance do sistema como um todo. Assim, o segredo para um desempenho substantivo consiste na escolha de um PC de configuração equilibrada (e parruda, se possível), até porque o processador não é capaz de grande coisa sem a contrapartida dos subsistemas de memória física e de massa (RAM e disco rígido, respectivamente).

Feita essa breve introdução, veremos como resolver um problema bastante comum no Windows, que é o uso excessivo do disco. Se você seguiu minha sugestão e instalou o IObit Advanced System Care, poderá conferir facilmente o acesso ao disco através do monitor de desempenho, bastando clicar na setinha que fica à direita dele e selecionar a opção Disco (se o monitor não estiver sendo exibido na tela, acesse as configurações da suíte e marque a caixa de verificação ao lado de Ativar o Monitor de Desempenho e carregar na inicialização do Windows). 

Se o monitor indicar 100% ou algo próximo disso (o que é bastante comum logo após a inicialização do Windows), seu computador deve estar "uma carroça", já que a utilização do disco acima de 50% reduz drasticamente a margem de manobra do sistema para executar outras tarefas que não as do próprio sistema. Antes de qualquer outra providência, porém, convém você checar a “saúde” do seu drive de HD. Para isso:

Abra o Prompt de comando (ou o Windows PowerShell), digite wmic diskdrive get caption,status e pressione a tecla Enter

Se o drive (ou algum deles, se houver mais de um) for listado e seguido de um “OK”, tudo bem, mas se um código de erro for exibido ao lado do status do disco... bem, aí a porta torce o rabo.

Digite chkdsk /f /r na linha de comando, responda S (ou Y) quando lhe for perguntado se deseja agendar uma verificação, reinicie o computador e aguarde a conclusão da varredura (que pode demorar um bocado). 

Aguarde a conclusão da verificação e a reinicialização do computador. Em seguida:

— Pressione Win+R para convocar o menu Executar, digite eventvwr.exe caixa de diálogo, clique em OK e, na janela do visualizador, esquadrinhe os logs de eventos relacionados com seu disco rígido. 

— Recorra ao Google para tentar obter informações de como resolver o problema identificado pela ferramenta. Se encontrar algum tutorial que lhe pareça confiável, siga-o. Ao final, digite novamente wmic diskdrive get caption,status na linha de comando e confira o resultado. 

— Se o problema persistir, faça um backup de seus dados importantes e de difícil recuperação e programe-se para substituir o quanto antes o drive problemático.

Supondo que seu HDD esteja OK, veja (na próxima postagem) como proceder para solucionar o problema de uso excessivo do disco. Até lá.

segunda-feira, 4 de dezembro de 2017

VOLTANDO AOS DRIVES SÓLIDOS (SSDs)

SEJA LÁ O QUE FOR, EU SOU CONTRA!

As principais diferenças entre HDDs eletromecânicos e de estado sólido foram discutidas numa recente sequência de postagens, mas eu achei por bem dedicar mais algumas linhas ao assunto para relembrar que:

― O grande entrave à popularização dos drives sólidos é o custo. Por enquanto, somente máquinas de configuração top e preço nas alturas vêm de fábrica com essa tecnologia, embora versões de menor capacidade, puras ou híbridas, já comecem a equipar notebooks de preços mais acessíveis.

― Do ponto de vista do armazenamento, os discos rígidos utilizam pequenas estruturas magnéticas para informar o valor de cada informação, enquanto os drives sólidos o fazem eletronicamente, como os pendrives e cartões de memória ― e por não terem partes móveis eles são menores, mais leves e rápidos que os HDDs, menos susceptíveis a danos decorrentes de impactos ou quedas e mais comedidos no consumo de energia, o que os torna uma boa alternativa para usuários de notebooks.

― Como a vida útil das células de memória flash é limitada, os SSDs têm a vida útil abreviada pela constante gravação de dados (a leitura não provoca efeitos deletérios), ainda que o usuário provavelmente trocará o computador antes de a unidade de memória sólida apresentar problemas.

― Como a desfragmentação dos arquivos consiste num processo de realocação de dados ― que exige uma longa sequência de regravações para que a unidade seja otimizada ―, não é recomendável desfragmentar SSDs. Além de não melhor o desempenho, a desfragmentação reduz a vida útil do componente. Portanto, use o Defrag para reagrupar dados espalhados ao longo das trilhas dos seus discos magnéticos, mas não nos SSDs, que operam a partir de processos elétricos, e não mecânicos, podendo, portanto, acessar os dados são acessados de qualquer lugar com a mesma rapidez, como acontece na memória RAM.

― Tampouco apague as “áreas vazias” em SSDs ― nos modelos convencionais, isso resulta em ganho de espaço e facilita a recuperação de arquivos excluídos acidentalmente, mas em drives sólidos isso não só é desnecessário como desaconselhável. Sistemas operacionais modernos suportam o TRIM ― tecnologia que “informa” ao drive que determinados arquivos foram apagados e que os blocos onde eles se encontravam armazenados devem ser submetidos a um processo de limpeza para que novas informações possam ser gravadas. Com isso, os arquivos excluídos são prontamente apagados, ao contrário do que se verifica nos HDDs, onde a exclusão pura e simples não os apaga prontamente, apenas marca como disponíveis os clusters que eles ocupavam, daí o fato de um arquivo excluído acidentalmente poder ser recuperado por aplicativos dedicados enquanto os clusters que os abrigavam não forem sobrescritos. Para conferir se o TRIM está ativo no seu computador, reveja a postagem do último dia 14.

― Da mesma forma que a desfragmentação, a formatação completa é desnecessária e prejudicial nos SSDs. Primeiro, porque o TRIM apaga os arquivos definitivamente; segundo, porque o procedimento não proporciona melhorias de desempenho e ainda desperdiça valiosos ciclos de reescrita do dispositivo.

― Edições do Windows anteriores ao Seven não suportam o TRIM, o que torna desaconselhável seu uso com SSDs. Sem o TRIM, além de os arquivos apagados permanecem disponíveis para recuperação, o dispositivo tende a demorar bem mais tempo para gravar os dados, produzindo lentidão no sistema como um todo. Claro que há ferramentas capazes de minimizar esse problema (desenvolvidas pelos próprios fabricantes de drives), mas isso já é outra conversa.

― Também é importante não esgotar totalmente a capacidade de armazenamento dos SSDs ― o que pode ser um problema, já que os modelos mais baratos são espartanos oferecem umas poucas centenas de gigabytes. O ideal é deixar pelo menos 25% de espaço livre, de modo que, se seu PC dispõe de um SSD e um HDD ― ou de um drive híbrido ―, use o componente de memória flash basicamente como unidade de leitura (ao contrário da escrita, a leitura pura e simples não compromete a vida útil das células de memória). Isso significa instalar nele o sistema operacional e os apps que você utiliza com maior frequência e concentrar todo o resto no drive eletromecânico, especialmente os arquivos de mídia, que consomem um absurdo de espaço e podem ser carregados a partir de um HDD interno ou externo sem qualquer problema ou lentidão.

― Não custa relembrar que pode valer a pena desabilitar o arquivo de paginação no drive sólido (desde que você disponha de, pelo menos, 6GB de RAM), pois esse recurso, também conhecido como memória virtual, funciona como uma extensão da memória física e sujeita o drive a constantes regravações. Considere ainda a possibilidade de desativar a restauração do sistema, o Superfetch e o Windows Search (indexação dos dados para agilizar pesquisas).

Era isso, pessoal. Espero ter ajudado.

Visite minhas comunidades na Rede .Link:

quinta-feira, 30 de novembro de 2017

DESEMPENHO ― MEMÓRIA DE MASSA E SUPERFETCH.

AQUELE QUE FAZ E PROMOVE O BEM CULTIVA O SEU PRÓPRIO ÊXITO.

Ao longo dos anos, a Microsoft criou diversas soluções para acelerar o desempenho do Windows, mas elas nem sempre produziram o resultado desejado. O Superfetch, por exemplo, é uma versão revista e atualizada do Prefetch, que por sua vez foi implementado no XP para monitorar as aplicações que o usuário utiliza com maior frequência e mantê-las carregadas num cache de memória, visando abreviar seu tempo de inicialização. A partir do Windows Vista, esse recurso foi aprimorado, renomeado (como Superfetch), e assim continuou a ser nas edições subsequentes do sistema.

Em teoria, tudo muito bonito, mas na prática constatou-se que esse implemento podia provocar o efeito inverso, notadamente a partir do Windows 7, quando ele se revelou um voraz consumidor de memória. Aliás, já no XP era preciso limpar regularmente a pasta Prefetch para melhorar o desempenho ― confira nesta postagem de 2008 ―, até porque os PCs daquela época dispunham de míseras centenas de megabytes de memória RAM.

Hoje o cenário é bem outro ― qualquer máquina de entrada de linha já conta com de 2 ou mais gigabytes de RAM ―, e modificar o funcionamento do Prefetch pode parecer desnecessário ou até contraproducente, já que um aplicativo iniciado a partir da memória de massa do computador (HDD ou SSD) leva mais tempo para carregar do quando é lançado a partir do cache. Além disso, a despeito de consumir memória, o Superfetch gerencia esse cache de maneira mais “inteligente” ―  sempre que algum aplicativo em execução precisa de mais memória, a quantidade reservada anteriormente para o serviço é automaticamente disponibilizada ―, além de ser capaz de se auto desativar ao detectar um disco rígido de alto desempenho (ou um drive sólido), o que torna recomendável deixar que o próprio Windows decida se o utiliza ou não.

O fato é que o Superfetch divide opiniões: enquanto uns acham que desabilitá-lo não traz benefício algum, outros recomendam fazê-lo, notadamente em sistemas com menos de 4 GB de RAM. A meu ver, não custa nada experimentar desabilitá-lo, especialmente se o seu PC dispõe de um SSD, até porque o ajuste é simples e fácil de desfazer. Confira:
 
― Para conferir se o Superfetch está habilitado, pressione a combinação de teclas Win+R, digite services.msc na caixa do menu Executar, tecle Enter, e confira o status do serviço na coluna respectiva (se estiver como Iniciado, é porque ele está operante).

― Para avaliar como o sistema se comporta sem ele, dê um clique direito sobre a entrada respectiva, clique em Propriedades e, em Tipo de inicialização, selecione Desativado, pressione Aplicar, confirme em OK e reinicie o computador.

Para retornar à configuração original, repita os mesmos passos, altere o padrão para Automático e torne a reiniciar o computador.

Até a próxima.

Visite minhas comunidades na Rede .Link:

segunda-feira, 27 de novembro de 2017

MEMÓRIA DE MASSA DO PC ― MAIS DICAS

O MEDÍOCRE DISCUTE PESSOAS. O COMUM DISCUTE FATOS. O SÁBIO DISCUTE IDEIAS.

Dentre outros fatores que podem tornar o Windows instável, destacam-se a ação de malwares, as atualizações malsucedidas do sistema e a instalação de drivers de hardware e/ou aplicativos malcomportados. A boa notícia é que, graças a um recurso que a Microsoft batizou de Restauração do Sistema, o próprio Windows cria pontos de restauração (backups automáticos) que lhe permitem retornar a uma data e horário anterior à ocorrência de um erro grave.

Como nada é perfeito, além de não ser um remédio para todos os males e nem sempre funcionar quando se precisa dela, essa máquina do tempo consome recursos do sistema para permanecer em standby, o que impacta negativamente no desempenho do computador. Mesmo assim, eu recomendo não só manter esse recurso ativo e operante como também criar, manualmente, pontos de restauração antes de instalar aplicativos, atualizar drivers e rodar ferramentas de manutenção que atuam sobre o Registro do Windows. É certo que esses backups ocupam um bocado de espaço, mas é igualmente certo que qualquer PC de fabricação mais ou menos recente já oferece algo entre 500 GB e 1 TB de memória de massa. Além disso, sempre se pode ajustar o espaço destinado ao armazenamento dos pontos de restauração e apagar os mais antigos.

Para acessar a Restauração do Sistema no Windows 10, digite “ponto” (sem aspas) na caixa de pesquisas da Barra de Tarefas, clique na opção Criar ponto de restauração (Painel de Controle). Na tela das Propriedades do Sistema, clique na aba Proteção do Sistema (caso ela não seja exibida por padrão); para ativar/desativar o recurso e configurar o espaço alocado, pressione o botão Configurar... Para criar manualmente um ponto de restauração, pressione o botão Criar e siga as instruções do assistente; para apagar pontos antigos (com exceção do mais recente, que é preservado por motivo de segurança), pressione o botão Excluir ― ou então use o CCleaner, que permite selecionar individualmente os pontos que se deseja apagar.

Por último, mas não menos importante: se for preciso restaurar o sistema, pressione o botão Restauração do Sistema..., siga as instruções do assistente e torça para dar certo.

Voltando ao que foi dito no início deste texto, desativar a Restauração do Sistema deixa a máquina mais rápida e evita escritas desnecessárias ― que não têm efeitos deletérios nos HDDs convencionais, mas abreviam a vida útil das células de memória flash dos drives sólidos. Fica a critério de cada um, portanto, escolher entre a segurança provida por essa “tábua de salvação” e a comodidade de usar um sistema mais ágil e prolongar a vida útil do SSD.

Visite minhas comunidades na Rede .Link:

quarta-feira, 22 de novembro de 2017

AINDA SOBRE DRIVES SÓLIDOS (SSD) ― DICAS

MUITAS VEZES É A FALTA DE CARÁTER QUE DECIDE UMA PARTIDA. NÃO SE FAZ LITERATURA, POLÍTICA E FUTEBOL COM BONS SENTIMENTOS.

Se você instalou um SSD (detalhes na postagem anterior), usar o AHCI (Advanced Host Controller Interface), que está presente na maioria das placas-mãe de fabricação recente e costuma vir ativado por padrão, pois melhora o desempenho do drive em até 15%, é fundamental para garantir o aproveitamento de todos os recursos das unidades que trabalham com o barramento SATA.

O AHCI exige um driver especial, que deve ser adicionado e ativado por ocasião da instalação do Windows. Na falta dele, o sistema usará um driver genérico, que, como sabemos, não proporciona os melhores resultados (mais detalhes na sequência de postagens iniciada por esta aqui).

Observação: AHCI (Advanced Host Controller Interface) está presente nos chips Intel mais modernos. No BIOS, geralmente há 3 configurações disponíveis: IDE, AHCI e RAID. As últimas duas requerem a inclusão de um driver especial, que pode ser feita na instalação do sistema operacional por meio da tecla F6 e o auxílio de um pendrive. Dentre outras vantagens, o modo AHCI permite que as unidades SATA aceitem mais de um comando por vez e os reorganizem dinamicamente para máxima eficiência; oferece suporte à troca a quente (hot plugging) de dispositivos e suporte a rotações escalonadas entre várias unidades no momento da inicialização. Se você instalou o Windows no modo IDE (o que significa que você não usou a tecla F6 nem forneceu um disco de driver), a simples troca da configuração BIOS para o modo AHCI, acompanhada da reinicialização, fará com que o Windows falhe e demandará uma instalação de reparo. Apesar de ser possível instalar o driver em questão a posteriori, a maioria dos especialistas aconselha reinstalar o Windows se a finalidade for ativar o AHCI. Para mais informações, clique aqui.

Para verificar qual driver está instalado e fazer atualizações, você pode acessar o Gerenciador de Dispositivos”, dar um clique direito sobre Controladores IDE/ATA ATAPI (isso lhe permitirá ver informações sobre a versão do driver e outros detalhes). Mas é bem mais prático e seguro recorrer ao Driver Booster ou ao Driver Max, apenas para ficar nos exemplos que eu já analisei no Blog (a propósito, reveja esta postagem).

Outro ajuste recomendável ― independentemente de a unidade de armazenamento de massa ser sólida ou eletromecânica ― pode ser feito através das Opções de Energia. No Windows 10, clique no botão Iniciar > em Configurações > Sistema > Energia e Suspensão e, no Plano de Energia ativo, selecione Alto Desempenho. Notebooks costumam priorizar o consumo de energia para favorecer a autonomia da bateria, mas a despeito de a Microsoft sugerir a opção Equilibrado (recomendável), eu recomendo configurar seu sistema para Alto desempenho ― só não se esqueça de mudar esse ajuste sempre que for usar seu portátil sem uma tomada à mão para plugar a fonte de alimentação.

Até a próxima.

Visite minhas comunidades na Rede .Link:

sexta-feira, 17 de novembro de 2017

AINDA SOBRE OS DRIVES SÓLIDOS (SSD)

MEGLIO TARDI CHE MAI. 

Quase ninguém mais monta PCs por conta própria hoje em dia ― não só porque sai mais barato comprar um modelo de grife, mas também pelo fato de os notebooks serem mais versáteis, substituírem com vantagens o computador de mesa e ainda poderem ser levados de casa para o escritório, para a casa de praia ou de campo, em viagens de trabalho, enfim... 

Ainda assim, algum gato-pingado pode achar que vale a pena investir uma grana na troca do drive de HD do seu desktop velho de guerra por um modelo de estado sólido. Eu, particularmente, acho melhor comprar um PC com essa tecnologia já embarcada, mas se você acha que sua máquina vale o investimento, não deixe de conferir qual a versão do barramento SATA suportado pela placa-mãe, porque instalar um SSD que opera em SATA III num PC cuja placa não vai além do SATA II pode não ser vantajoso do ponto de vista da performance nem justificar o desembolso (voltaremos a esse assunto oportunamente).

Algumas placas trazem essa informação impressa no próprio chassis, mas é mais fácil consultar o manual do aparelho (no caso de um PC de grife) ou da própria motherboard (no caso de uma integração caseira). Caso você não disponha dessa documentação ― ou ela não inclua essa informação ―, faça uma busca no Google a partir da marca e modelo da placa, 

Falando no vil metal, drives sólidos de grandes capacidades custam caro, mas modelos híbridos (SSHD) já são encontrados a preços mais palatáveis. A rigor, esses dispositivos são drives eletromecânicos que dispõem também de chips de memória flash, e assim proporcionam um ganho de performance considerável. Mas tenha em mente que os drives híbridos não são a melhor opção para quem trabalha com softwares pesados ou é fã de games radicais ― situação na qual um SDD “puro” é a melhor solução.

Note também que, se adicionar um drive sólido no seu computador e mantiver o HDD, você não deve ceder ao comodismo e deixar o Windows na unidade eletromecânica. Em outras palavras, ou se reinstala o sistema e todos os drivers no SSD, ou não se usufrui integralmente do potencial que essa unidade tem a oferecer.

Continuamos na próxima postagem.

Visite minhas comunidades na Rede .Link:

terça-feira, 14 de novembro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC ― FINAL

QUEM FALA O QUE QUER OUVE O QUE NÃO QUER.

Se os drives sólidos, (SSD na sigla em inglês) ainda não aposentaram os HDDs eletromecânicos, é porque seu custo de fabricação torna muito caras as unidades com com grande capacidade de armazenamento.

SSDs são compostos basicamente por células de memória flash e uma controladora ― que gerencia o cache de leitura e gravação dos dados, criptografa informações, mapeia trechos defeituosos da memória, e por aí vai. Eles não têm motor, pratos, braços, agulhas eletromagnéticas nem qualquer outra peça móvel, razão pela qual são menores, mais resistentes e milhares de vezes mais rápidos que os discos rígidos tradicionais, sem mencionar que seu baixo consumo de energia os torna uma excelente opção para os fabricantes de notebooks.

Como não há pratos magnéticos formatados em trilhas, setores e cilindros para armazenar os arquivos ― nos SSDs, a gravação/leitura é feita mais ou menos como na memória RAM ―, a fragmentação dos dados não chega a ser um problema. Portanto, embora seja possível desfragmentar esses drives, os fabricantes recomendam não o fazer ― primeiro, por não trazer benefício algum; segundo, porque a desfragmentação consiste numa longa sequência de leituras e regravações, e o número de vezes que uma célula de memória flash pode ser regravada não é infinito.

Observação: Segundo os fabricantes, os SSDs duram entre 5 e 10 anos ― o que pode parecer pouco, mas quem é que ainda não trocou o computador, hoje em dia, depois de 5 anos de uso? Mesmo assim, diante da possibilidade de uma ou outra célula de memória falhar antes do tempo, o controlador do drive é incumbido de remapear as páginas defeituosas (utilizado setores de uma área de armazenamento temporário) conforme os defeitos vão surgindo, o que concede uma "sobrevida" aos drives sólidos.

Como eu disse mais cedo, o grande entrava na popularização dos SSDs é o custo de produção. Daí os modelos de grandes capacidades serem direcionados a notebooks top de linha (e preços estratosféricos) e as máquinas de preços mais acessíveis manterem a tecnologia anterior (mídia eletromagnética) ou combinarem um drive sólido de capacidade modesta com um HDD com profusão de espaço. E como os SSDs funcionam melhor com pelo menos 25% de espaço livre (isso evita que os blocos de memória “encham” e, consequentemente, preservam a performance original do drive), o indicado é instalar neles apenas o sistema operacional e os aplicativos mais usados e manter o restante no HDD.

Como qualquer outro componente do PC, o SSD depende de drivers de hardware para funcionar, sendo importante mantê-los sempre atualizados, notadamente se o drive estiver instalado numa controladora AHCI, que aumenta o desempenho do “disco” em até 15% em relação à IDE (voltaremos a esse assunto em outra oportunidade).

Observação: Drivers (ou controladores) são programinhas de baixo nível (designação que nada tem a ver com o grau de sofisticação do software, mas sim com seu envolvimento com o hardware) que funcionam como uma “ponte” entre o sistema operacional e os dispositivos de hardware que integram ou estão conectados ao computador. Sem o driver da impressora, por exemplo, o sistema não saberia qual é a versão do aparelho, em qual porta ele está conectado, se está ou não funcional, se há papel na bandeja e tinta nos cartuchos, e assim por diante.

Outra maneira de aumentar consideravelmente o desempenho dos SSDs é habilitar o TRIM, que identifica blocos de memória com dados inválidos e apaga o conteúdo automaticamente. Para conferir se esse recurso está ativo e operante, abra o prompt de comando e digite fsutil behavior query DisableDeleteNotify. Se a resposta for 0, o TRIM está ativo; se for 1, digite o comando fsutil behavior set DisableDeleteNotify 0 e o recurso será ativado.

Assista a um comparativo interessante entre o HDD e o SSD (se o vídeo não abrir, siga este link: https://youtu.be/rjCmLJtITK4).


Bom feriado e até quinta-feira.

Visite minhas comunidades na Rede .Link:

sexta-feira, 10 de novembro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC ― Parte 7

LEMBRE-SE DE QUE GRANDES REALIZAÇÕES E GRANDES AMORES ENVOLVEM GRANDES RISCOS.

Recapitulando: conforme a gente cria, edita e deleta arquivos, instala e remove aplicativos e executa determinados procedimentos de manutenção, surgem lacunas ao longo das trilhas do HDD (detalhes no capítulo 4), que o Windows tenta preencher conforme grava novos arquivos. A questão é que esses arquivos nem sempre cabem integralmente nesses espaços, e aí o sistema os fraciona e distribui os “pedaços” pelos clusters livres que vai encontrando ao longo das trilhas.

Essa solução funciona bem quando a máquina é nova e o HDD está vazio, mas o uso do computador torna os arquivos tão “fragmentados” que, na hora de carregá-los na memória RAM, as cabeças magnéticas do drive atuam como se montassem um grande quebra-cabeça, já que os fragmentos podem estar no final da trilha, em outra trilha, em outra face do disco ou até mesmo em outro disco. E quanto mais fragmentados os arquivos estiverem, mais tempo será necessário para remonta-los, daí porque a fragmentação deixa o computador mais lento.

O Windows ganhou um desfragmentador nativo na edição 95, mas até o surgimento do XP que usar a ferramenta era um teste de paciência: além de o procedimento demorar horrores, era preciso executá-lo no modo de segurança ou, no mínimo, encerrar os aplicativos e fechar todos os processos listados no Gerenciador de Tarefas (com exceção do EXPLORER e do SYSTRAY), de modo a evitar que qualquer modificação no conteúdo do drive forçasse o programinha a reiniciar, conferir tudo que havia e feito e só então retomar a tarefa do ponto em que havia parado.

Nas encarnações mais recentes do Windows, é possível agendar o Defrag para rodar num horário em que a máquina estiver ociosa ― ou mesmo executá-lo em segundo plano e continuar trabalhando com o computador. No entanto, como a desfragmentação consiste basicamente em localizar todos os “pedaços” dos arquivos, salvá-los temporariamente na memória, definir o melhor local para acomodá-los em então regravá-los em clusters contíguos, o sistema tende a ficar consideravelmente lento durante o processo. Então, a menos que você tenha uma CPU de responsa e memória RAM de sobra, evite operar a máquina enquanto a desfragmentação está em curso.

Tanto o Defrag quanto os desfragmentadores de varejo evoluíram bastante nos últimos anos. Além disso, o NTFS tornou “mais inteligente” a maneira como o Windows gerencia os arquivos ― para prevenir a fragmentação, eles são gravados no primeiro espaço vago capaz de abrigá-los integralmente, ou seja, os clusters livres que porventura existam no início da trilha são desconsiderados, a menos que sejam suficientes para armazenar o arquivo inteiro. Aliás, isso levou a Microsoft a automatizar o Defrag no Windows Vista e suprimir o comando que até então permitia acionar a ferramenta manualmente, mas a mudança não foi bem aceita pelos usuários e a empresa voltou atrás no Windows 7.

No Windows 10, podemos convocar o Defrag clicando no botão Iniciar e selecionando a opção respectiva sob Ferramentas Administrativas, mas é mais fácil fazê-lo a partir da pasta Computador, dando um clique direito no ícone que representa a unidade que desejamos desfragmentar, selecionando Propriedades, abrindo a aba Ferramentas e pressionando o botão Otimizar.

O resto fica para o próximo capítulo, pessoal. Até lá.

Visite minhas comunidades na Rede .Link:
http://informatica.link.blog.br/
http://cenario-politico-tupiniquim.link.blog.br/
http://acepipes-guloseimas-e-companhia.link.blog.br/

quarta-feira, 8 de novembro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC ― Parte 5

ESPERE O MELHOR, PREPARE-SE PARA O PIOR E VIRE-SE COM O QUE VIER.

Continuando de onde paramos na postagem da última quarta-feira: a FAT 16 opera com, no máximo, 2 GB ― para aplicá-la num drive de 5 GB, por exemplo, ocupar todo o espaço disponível exigiria criar duas partições de 2 GB e uma terceira de 1 GB, também por exemplo. Por conta disso, a Microsoft passou a utilizar a FAT 32 nas edições 95 (versão OSR 2) 98 e ME do Windows, e o (bem mais avançado) NTFS a partir das edições 2000 e XP. Mas vamos por partes.

A FAT trabalha com clusters, que, como vimos, são conjuntos de setores do disco rígido. Na FAT16, cada cluster pode armazenar 2 KB, 4 KB, 8 KB, 16 KB ou 32 KB. Note que esse tamanho é uniforme ― ou seja, não pode haver, na mesma unidade, clusters de tamanhos diferentes. Cada arquivo utiliza tantos clusters quantos forem necessários para contê-lo integralmente; um arquivo com 50 KB, por exemplo, pode ser gravado em 2 clusters de 32 KB cada, mas isso desperdiçaria 16 KB, pois a sobra não pode ser destinada a gravação de dados pertencentes a outro arquivo. Daí se conclui que o maior problema do sistema FAT, além da limitação a 2 GB, é o brutal desperdício de espaço.

Explicando melhor: FAT 16 usa 16 bits para endereçamento dos dados (daí o número 16 na sigla), o que, na prática, significa que ele pode trabalhar com, no máximo, 65536 clusters (216). Então, 65536 clusters de 32 KB cada resulta num espaço total de 2.097.152 KB, que corresponde a 2 GB (note que, quando maior for o cluster, maior será, consequentemente, o desperdício de espaço). Já a FAT 32 utiliza 32 bits no endereçamento de dados e suporta o uso de clusters menores (de 4 KB, p.ex.), reduzindo significativamente o desperdício de espaço.

O limite da FAT 32 é de 2 terabytes (TB). No entanto, se repetirmos o cálculo anterior considerando 32 em vez de 16 (232) e multiplicarmos o resultado pelo tamanho máximo do cluster (também 32), chegaremos a 128 TB. A questão é que, embora cada endereçamento tenha 32 bits, no número máximo de clusters, são considerados apenas 28 bits. Daí termos 228, que dá 268.435.456, ou seja, aproximadamente 268 milhões de clusters, que, multiplicados esse número por 32, resultam em 8 TB.

Ainda faltam 6 TB, mas isso se explica pelo fato de a Microsoft ter limitado a FAT 32 a 232 considerando o número máximo de setores, não de clusters. Como cada setor possui 512 bytes (ou 0,5 kilobyte), a conta a ser feita é 232 (4.294967296) multiplicado por 0,5, que dá 2.147.483.648 KB, ou seja, 2 TB ― de outra forma, poderia haver problemas com a inicialização do sistema operacional devido a limitações na área de boot. 

Observação: Volto a lembrar que setor e cluster são coisas distintas; o primeiro corresponde à menor unidade física do HDD, ao passo que o segundo, que é formado por um conjunto de setores, remete à menor unidade lógica que o SO é capaz de acessar para armazenar dados.

Por hoje está de bom tamanho, pessoal. Continuaremos no próximo capítulo, quando então falaremos formato de arquivos NTFS e (finalmente) da desfragmentação dos dados. Até lá.

Visite minhas comunidades na Rede .Link:

quarta-feira, 1 de novembro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC ― Parte 4

O PATRIOTISMO É O ÚLTIMO REFÚGIO DOS CALHORDAS.

Dizia eu, no finalzinho do capítulo anterior, que o Windows dispõe de uma ferramenta para arrumar a bagunça que ele próprio cria. Trata-se do Defrag.exe (desfragmentador de disco), que, no Ten, fica sob o título Ferramentas administrativas do menu Iniciar.

A fragmentação dos dados tende a ocorrer conforme o espaço no disco vai sendo preenchido por novos arquivos, já que o Windows procura gravá-los nos clusters vagos que encontra a partir do início das trilhas. Todavia, nem sempre as lacunas abertas com a remoção de um arquivo são suficientes para abrigar outro arquivo, dependendo do tamanho de cada um, e assim uma parte dos dados é gravada nesse espaço livre e o restante, distribuído pelos clusters vagos subsequentes, trilha adiante. O problema é que, conforme esse processo se repete ― milhares, milhões de vezes ―, os arquivo ficam segmentados a tal ponto que recuperá-los é como montar um imenso quebra-cabeça. E quanto mais espalhados os dados estiverem, mais tempo o sistema levará para juntá-los e remontar os arquivos em questão, o que acaba degradando o desempenho do computador como um todo.

Vale frisar que a fragmentação foi minimizada com a adoção do NTFS. Isso porque, com esse sistema, sempre que a gravação de um determinado arquivo é solicitada o Windows procura o primeiro espaço vago capaz de abrigá-lo integralmente, desconsiderando os clusters livres que porventura existam no início do disco.  Não só, mas também por isso, a formatação do drive em NTFS é recomendada nas versões mais recentes do Windows. Só para citar algumas de suas vantagens mais notórias em relação à FAT32, esse sistema se recupera automaticamente de alguns erros de disco, oferece suporte para HDDs de grandes capacidades e aprimora a segurança com o uso de permissões e criptografia. Vejamos isso melhor.

Não é possível utilizar um disco rígido ou qualquer outro dispositivo sem antes proceder à formatação lógica, quando é criada a estrutura que permite ao Windows gravar e ler os dados armazenados na mídia, editá-los, copiá-los, renomeá-los e até mesmo apaga-los. Em suma: sem um sistema de arquivos, os dados seriam apenas um monstruoso conjunto de bits sem utilidade. FAT 16 e FAT 32 são sistemas de arquivos (file systems) usados por padrão nas encarnações do Windows anteriores à XP. A FAT ― sigla de File Allocation Table (tabela de alocação de arquivos) ― era padrão no MS-DOS e no Windows 9x/ME, e consiste numa espécie de tabela que indica onde estão os dados de cada arquivo (como vimos, espaço destinado ao armazenamento é dividido em clusters, e cada arquivo gravado pode ocupar vários clusters, mas não necessariamente sequenciais). Com o advento de drives mais sofisticados e de maior capacidade, a FAT 16 foi promovida a FAT 32 e se tornou padrão para os sistemas operacionais da Microsoft por anos a fio.

Por uma questão de espaço, o resto fica para depois do feriadão. Até lá.

Visite minhas comunidades na Rede .Link:

segunda-feira, 30 de outubro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC ― Parte 2

AS MÁS COMPANHIAS SÃO COMO UM MERCADO DE PEIXE; ACABAMOS NOS ACOSTUMANDO AO MAU CHEIRO.

Vimos que o disco rígido é a memória de massa do PC, e que é a partir dele, onde os dados são armazenados de forma persistente, que o sistema, os aplicativos e os demais arquivos são carregados e processados na memória RAM. Claro que eles não são carregados inteiros ― ou não haveria memória que chegasse ―, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes), conforme suas características. A RAM é muito mais rápida que o disco rígido, mas o problema é que, por ser volátil, ela não é capaz de preservar seu conteúdo quando o computador é desligado ― ou, melhor dizendo, quando o fornecimento de energia é interrompido.

Vale lembrar que o PC utiliza memórias de diversas tecnologias (ROM, CACHE, RAM, HDD, SWAP FILE, etc.), mas, de momento, interessa-nos discutir a memória de massa, e como já falamos sobre o disco rígido no capítulo anterior, trataremos agora do SSD, que, de uns tempos a esta parte, vem substituindo o HDD tradicional dos PCs, mas de forma gradativa, pois o custo da memória flash encarece significativamente a produção de drives de estado sólido de grandes capacidades.

SSDs não têm motor, discos ou qualquer outra peça móvel. Seus componentes básicos são a memória flash, que armazena os arquivos de maneira semelhante à da RAM, tornando o processo de leitura e gravação muito mais veloz, e o controlador, que gerencia o cache de leitura e gravação de arquivos, criptografa informações, mapeia trechos defeituosos da memória, e por aí afora. Mas nem tudo são flores nesse jardim.

Embora sejam menores, mais leves, econômicos, resistentes, silenciosos e velozes do que os jurássicos drives eletromecânicos, sua vida útil é limitada pela quantidade de regravações que as células de memória flash são capazes de suportar. Mesmo assim, eles não costumam “micar” antes de 4 ou 5 anos de uso intenso (segundo os fabricantes, sempre otimistas quando lhes convém, sua vida útil pode chegar a 10 anos ― bem maior, portanto, que a dos discos rígidos magnéticos). E considerando que a maioria de nós não fica mais de 5 anos com o mesmo aparelho ― até por conta da obsolescência programada ―, é improvável que o drive de estado sólido dê sinais de fadiga durante a vida útil do computador.

Para amenizar o impacto do custo de produção e tornar seus produtos mais competitivos, fabricantes de PCs de entrada de linha e preços intermediários se valem de drives híbridos, que combinam uma unidade SSD de pequena capacidade com um modelo eletromecânico tradicional, proporcionando melhor desempenho a preço menor. A memória flash funciona como cache, armazenando e garantindo acesso rápido aos arquivos utilizados com frequência (sistema e aplicativos), enquanto os discos magnéticos se encarregam dos demais dados (músicas, vídeos e arquivos pessoais). O processo é transparente e automático, e tanto o usuário quanto o sistema operacional “enxergam” o conjunto como se ele fosse um drive comum.

É importante salientar que a forma como os dados são gravados nos SSDs evita a famigerada fragmentação dos arquivos. E ainda que assim não fosse, a fragmentação não comprometeria o desempenho do drive, já que não há cabeças de leitura e gravação se movendo ao longo da superfície dos discos (e nem discos) para remontar os arquivos como num grande puzzle. Portanto, se o seu computador dispões um drive SSD, você pode aposentar o desfragmentador ― voltarei a esse assunto mais adiante, mas quem quiser mais detalhes irá encontrá-los nesta postagem).

Continua no próximo capítulo.

Visite minhas comunidades na Rede .Link:

sexta-feira, 27 de outubro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC


O AMOR ENTRE DUAS CRIATURAS TALVEZ SEJA A TAREFA MAIS DIFÍCIL QUE NOS FOI IMPOSTA, A MAIOR E ÚLTIMA PROVA, A OBRA PARA A QUAL TODAS AS OUTRAS SÃO APENAS UMA PREPARAÇÃO.

Por armazenar os dados de forma persistente (não confundir com permanente) o HDD constitui a memória de massa (ou secundária) do computador. É a partir dele que os dados são transferidos para a RAM (memória física ou principal), onde os programas são carregados e as informações, processadas, desde o próprio sistema operacional até um simples documento de texto ―  nenhum computador atual, seja um grande mainframe ou uma simples calculadora de bolso, funciona sem uma quantidade mínima de memória RAM.

O primeiro HDD era composto de 50 pratos de 24” de diâmetro, custava absurdos US$ 30 mil e armazenava míseros 4.36 MB ― ou seja, pouco mais que uma faixa musical em .mp3. Hoje, qualquer computador de entrada de linha traz um drive de 500 GB a 1 TB, mas se sobra espaço, falta desempenho: enquanto a velocidade dos processadores aumentou milhões de vezes desde os anos 1980, a taxa de transferência de dados dos HDDs cresceu alguns milhares de vezes, e a rotação dos pratos mal quadruplicou. Como o tempo de acesso é inversamente proporcional ao volume de dados, o disco rígido disputa com o anacrônico BIOS o ranking dos gargalos de desempenho do computador.

Aos poucos, o BIOS vem sendo substituído pelo UEFI, que, dentre outras vantagens, reduz significativamente o tempo de inicialização do sistema. Já os HDDs vêm cedendo espaço aos SSDs (sigla de Solid State Drive), também paulatinamente, devido à dificuldade de conciliar fartura de espaço com preço competitivo. Mas vamos por partes. 

Por mais que tenha evoluído ao longo das últimas 6 décadas, o drive de HD ainda é um conjunto de discos (ou pratos) que, acionados por um motor, giram em alta velocidade (alguns modelos vão além das 10 mil RPM) dentro de uma caixa hermeticamente fechada. Cada prato é recoberto de ambos os lados por uma camada metálica e formatado (fisicamente) na fábrica, quando é dividido em trilhas, setores e cilindros.

As trilhas são "faixas concêntricas" numeradas da borda para o centro e divididas em (milhões de) setores de 512 bytes. Se o drive integrar dois ou mais discos, existe ainda a figura do cilindro, que corresponde ao conjunto de trilhas de mesmo número dos vários pratos (o cilindro 1 é formado pela trilha 1 de cada face de cada disco, o cilindro 2, pela trilha 2, e assim por diante). O primeiro setor ― conhecido como setor de bootsetor zerotrilha zero ou MBR ― abriga o gerenciador de boot, as FATs ― tabelas de alocação de arquivos usadas na formatação lógica das partições inicializáveis ― e outros dados inerentes à inicialização do sistema.

Observação: Note que setor e cluster são coisas distintas: o primeiro corresponde à menor unidade física do HDD, ao passo que o segundo, geralmente formado por um conjunto de setores, remete à menor unidade lógica que o SO é capaz de acessar para armazenar dados.

Os dados são gravados e lidos por cabeças eletromagnéticas posicionadas na extremidade de um braço controlado pelo atuador. Combinando o efeito giratório produzido no disco pelo motor com o movimento do braço, as cabeças podem gravar/ler dados em qualquer ponto da superfície dos discos. A gravação é feita mediante a inversão da polaridade das moléculas do revestimento metálico dos partos, que gera sinais elétricos interpretados pela placa lógica do drive como os bits zero e um que, em linguagem de máquina, compõem os arquivos digitais. Na leitura, a diferença é que as cabeças não alteram a polaridade das moléculas, apenas “leem” os sinais elétricos e os enviam para a placa lógica interpretar.
   
Para não espichar demais esta postagem, vamos deixar o resto para a próxima. Até lá.

Visite minhas comunidades na Rede .Link:

sexta-feira, 7 de agosto de 2015

DRIVES SSD ─ JÁ É HORA DE MIGRAR? (final)

SE TAMANHO FOSSE DOCUMENTO, O ELEFANTE SERIA DONO DO CIRCO.  

IMPORTANTE: Se você está estranhando o fato de a Microsoft ter se tornado tão generosa de repente, a ponto de disponibilizar o Windows 10 de graça para cerca de 1 bilhão de PCs selecionados em 190 países, saiba que isso nada mais é do que uma estratégia de marketing destinada a agilizar a adoção do novo sistema (como sabemos, o Eight não conseguiu desbancar o Seven, e o XP e as edições mais recentes do Windows Server continuam sendo amplamente utilizadas, especialmente no âmbito empresarial). Aproveitando o embalo, a empresa determinou ainda que, por ocasião da evolução para o Ten, o novo EDGE assuma automaticamente o status de navegador padrão. Mas você pode reverter facilmente essa configuração. Para saber como, acesse esta postagem.

Como vimos no post anterior, a popularização do solid state drive (SSD) é mera questão de tempo ─ e de preço, já que um modelo interno com capacidade de 1 TB custa em torno de R$2.800, ou seja, tanto quanto um notebook de configuração mediana.

Mas nem tudo são flores no jardim dos SSDs: embora não tenham componentes móveis e sejam menores, mais leves, econômicos, resistentes, silenciosos e milhares de vezes mais rápidos do que seus jurássicos predecessores, esses drives têm sua vida útil limitada pela quantidade de regravações que suas células de memória flash são capazes de suportar ─ que é de 10.000 ciclos no caso dos chips MLC, onde cada célula armazena 2 bits utilizando 4 níveis de tensão diferentes, o que permite criar chips com o dobro da capacidade dos SLC (tecnologia original de chips de memória flash NAND), embora mais lentos e menos duráveis.

Observação: Para evitar que as áreas mais usadas (como as de swap, por exemplo) falhem prematuramente, sistemas de wear leveling alteram os setores toda vez que arquivos são criados ou modificados, fazendo com que o bloco anterior só seja reutilizado depois que todos os demais sejam usados pelo menos uma vez.

Todavia, mesmo considerando que os SSDs atuais suportam um número de regravações menor do que os mais antigos (entre 3.000 e 5.000 ciclos), os primeiros sinais de que suas células estão perdendo a capacidade de reter os dados não costumam ocorrer antes de 4 ou 5 anos de uso intenso. Já os fabricantes adotam posturas mais conservadoras, estimando a vida útil de seus produtos em algo entre 5 e 10 anos ─ bem maior que a dos discos magnéticos, portanto.

Observação: Diante da possibilidade de uma ou outra célula de memória falhar antes do previsto, o controlador do drive é incumbido de remapear as páginas defeituosas (utilizado setores de uma área de armazenamento temporário chamada de spare área) à medida que os defeitos forem surgindo, concedendo, dessa maneira, uma "sobrevida" ao dispositivo, que só dará seus últimos suspiros quando as páginas problemáticas atingirem cerca de 7% do total.

O volume dos SSDs é medido em valores binários, mas, por uma questão de marketing, os fabricantes se valem da notação decimal. Assim, num drive de 250 GB, cuja capacidade deveria ser de 268.435.456.000 bytes, o usuário "perde" quase 19 GB (para entender melhor essa questão, reveja esta postagem e a complementação subsequente).

Para concluir, duas recomendações importantes:

1)      Ao adquirir um SSD, prefira um modelo cuja memória trabalhe de maneira síncrona ─ eles são um pouco mais caros, mas garantem melhor desempenho na manipulação músicas, fotos e vídeos;

2)      A forma como os arquivos são gravados nos SSDs não propicia a fragmentação dos dados ─ e ainda que assim não fosse, uma eventual fragmentação não acarretaria grande prejuízo para o desempenho, já que, como vimos, não há cabeças se movendo ao longo da superfície dos discos (e nem discos) para remontar os arquivos como num grande quebra-cabeça. Então, não os desfragmente (para evitar repetições desnecessárias, veja mais detalhes a respeito nesta postagem).

Observação: A troca de um HDD por um SSD (ou por uma solução híbrida, como vimos na primeira parte desta matéria) tem mais chances de sucesso se levada a efeito quando da compra de um computador novo, configurado de fábrica e com o sistema operacional devidamente pré-instalado. Mas com alguma expertise, um pouco de paciência e este tutorial apresentado pelo Mestre Gabriel Torres, quem sabe você não se anima a fazer o transplante por sua conta (e risco)?



E como hoje é sexta-feira...

No caminho para sua fazenda nos cafundós de Joaíma (MG), um mineiro comprou um balde, um galão de tinta, dois frangos e um ganso, todos os animais vivos. Quando saiu da loja, ficou matutando como levar as compra para casa. Aí uma mulher apareceu e perguntou como chegar até a Fazenda Baluarte, nos encosto de Filisburgo (MG).
Minha fazenda fica pressas bandas memo. Eu podia te levá até lá, mas ainda não resolvi como vou carregá cum isso tudo aqui diz o mineiro.
Cê coloca o galão de tinta dentro do barde, carrega o barde numa mão, o ganso na outra mão e um frango debaixo de cada braço responde a mulher.
Partiram os dois pela estrada e, mais adiante, diz o mineiro:
Vamo cortá caminho e pegá este ataio pelo mato, que vamo economiza muito tempo.
A mulher, cismada, responde:
Eu tô sozinha e não tenho como me defendê. Como vou sabê se quando a gente entrá no mato ocê não vai avançá em cima de mim e levantá minha saia e abusá de mim?
Eu tô carregano um barde, um galão de tinta, dois frango e um ganso... Como eu ia fazê isso cocê com tantas coisa nas mão? Se eu sortá o ganso e os frango, eles foge tudo!
Muito simples, uai: Cê coloca o ganso no chão, põe o barde invertido em cima dele, coloca o galão de tinta prá pesá em cima do barde..
E os dois frango?
Eu siguro, uai!  

Boa sorte a todos e até a próxima.

quinta-feira, 6 de agosto de 2015

DRIVES SSD ─ O FIM DOS JURÁSSICOS HDDs ELETROMECÂNICOS ─ JÁ É HORA DE MIGRAR?

O PODER ABOMINA O VÁCUO.

A velocidade dos processadores cresceu milhões de vezes desde os anos 80, ao passo que a taxa de transferência dos HDDs (Hard Disk Drives) aumentou apenas alguns milhares de vezes e a rotação dos pratos (que é de importância fundamental para desempenho do drive), menos de quatro vezes. Somando a isso a capacidade astronômica de armazenamento dos drives atuais (que chega a inacreditáveis 10TB!) e o fato de o tempo de acesso ser inversamente proporcional ao volume de dados, fica fácil compreender porque o disco rígido disputa com o anacrônico BIOS o título de principal gargalo de desempenho do PC.

Observação: O primeiro HDD de que se tem notícia foi lançado pela IBM no final da década de 50 ─ um portento de US$ 30 mil, composto por 50 pratos de 24 polegadas de diâmetro, mas que era capaz de armazenar somente 4.36 MB (o que corresponde uma faixa musical de tamanho médio em MP3).

O BIOS deve ser substituído em breve pelo UEFI (que, dentre outras vantagens, reduz sobremaneira o tempo de inicialização do sistema), mas o HDD já vem sendo (lenta e progressivamente) substituído pelos drives de estado sólido (SSDs) ─ solução que ainda não se popularizou mais expressivamente devido ao preço elevado desses componentes, que chegam a custar de 10 a 15 vezes mais que seus correspondentes eletromecânicos.

Numa visão simplista, mas adequada aos propósitos desta matéria, o HDD tradicional é composto por uma câmara selada (carcaça), em cujo interior um ou mais pratos (discos) acionados por um motor giram em alta velocidade. A gravação dos dados fica a cargo de cabeças eletromagnéticas (heads) posicionadas na extremidade de um braço (arm) controlado por um atuador. Essas cabeças alteram a polaridade das moléculas de óxido de ferro do revestimento metálico que recobre os discos, gerando sinais elétricos que a placa lógica interpreta como imensos conjuntos de bits zero e um, que representam os arquivos digitais em linguagem de máquina.  

Observação: Todo HD é formatado fisicamente na fábrica, quando então as superfícies dos pratos são divididas em trilhas, setores e cilindros. As trilhas são "faixas concêntricas" numeradas da borda para o centro e divididas em (milhões de) setores de 512 bytes. Quando o drive é composto por dois ou mais discos, há ainda a figura do cilindro, que corresponde ao conjunto de trilhas de mesmo número dos vários pratos (o cilindro 1 é formado pela trilha 1 de cada face de cada disco, o cilindro 2, pela trilha 2, e assim por diante). O primeiro setor – conhecido como setor de boot, setor zero, trilha zero ou MBR – abriga o gerenciador de boot, as tabelas de alocação de arquivos usadas na formatação lógica (feita pelo próprio usuário quando da instalação do sistema) das partições inicializáveis e outros dados inerentes à inicialização do computador. Note que setor e cluster são coisas diferentes: O primeiro corresponde à menor unidade física do HDD, ao passo que o segundo, geralmente formado por um conjunto de setores, remete à menor unidade lógica que o SO é capaz de acessar para armazenar dados.

Já os SSDs não têm motor, discos, nem quaisquer outras peças móveis. Seus componentes básicos são a memória flash ─ que armazena os arquivos de maneira semelhante à da RAM, tornando o processo de leitura e gravação muito mais veloz ─ e o controlador ─ que gerencia o cache de leitura e gravação de arquivos, criptografa informações, mapeia trechos defeituosos da memória, e por aí afora. Embora já existam HDDs para PCs com até 10TB, os SSDs mal chegam a 10% desse espaço (convenhamos que não é pouco, pois 1TB corresponde a 1.099.511.627.776 bytes; para não se atrapalhar em conversões dessa natureza, é só recorrer a esta tabela).

Observação: Existem também os drives híbridos, que combinam uma unidade SSD de pequena capacidade com um HDD convencional e proporcionam desempenho melhor a preço menor. A memória flash funciona como cache, armazenando e garantindo acesso rápido aos arquivos utilizados com maior frequência (sistema e aplicativos), enquanto os discos magnéticos se encarregam dos demais dados (músicas, vídeos e arquivos pessoais). O processo é transparente e automático, e tanto o usuário quanto o SO "enxergam" o conjunto como se ele fosse um drive comum.

Para não espichar demais esta postagem, o resto fica para amanhã. Abraços e até lá.