quinta-feira, 26 de outubro de 2006

Fragmentação dos dados - continuação

Vamos agora dar prosseguimento às considerações que apresentamos dias atrás sobre o assunto em pauta. Todavia, convém você reler o post original (ou todos os conteúdos do título Desempenho e Manutenção e Fragmentação de Dados) antes de passar a esta continuação.

Em condições ideais, os arquivos deveriam ser armazenados em clusters contíguos e seqüenciais (um cluster corresponde à menor unidade de alocação de dados reconhecida pelo SO, e não pode conter mais do que um arquivo - embora um arquivo grande possa ser fragmentado e distribuído por diversos clusters).
Assim, como estamos constantemente criando, modificando e apagando arquivos enquanto usamos computador, lacunas surgem o tempo todo no HD, e o Windows tenta preenchê-las à medida que novos dados vão sendo gravados. Mas sempre que um novo arquivo não cabe inteiro no espaço deixado pela exclusão do anterior, ele é dividido em "fragmentos" e distribuído pelos próximos cluster livres, trilha adiante - tantos quantos necessários para abrigá-lo integralmente. Não é difícil concluir que quanto mais "espalhados" pelo disco estiverem os fragmentos de um arquivo, mais trabalhoso e demorado será o processo de "remontagem" na RAM, quando o arquivo em questão for novamente solicitado pelo usuário (isso vale tanto para dados como para programas).
Só que o próprio Windows conta com uma ferramenta capaz de reorganizar a bagunça que ele mesmo cria. O desfragmentador do disco, numa visão simplista, é um programinha que junta os pedaços dos diversos arquivos e, como num quebra-cabeças, tenta regravá-los todos em clusters adjacentes e consecutivos, de modo a otimizar o espaço e imprimir maior velocidade à leitura e gravação dos dados.
Na próxima postagem veremos como convocar essa ferramenta para concluir os procedimentos de manutenção.
Até lá.