Mostrando postagens classificadas por relevância para a consulta bits e bytes. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta bits e bytes. Ordenar por data Mostrar todas as postagens

terça-feira, 10 de fevereiro de 2015

FRAGMENTAÇÃO DOS DADOS - O QUE É E POR QUE ACONTECE

ÀQUELE QUE QUER TUDO NÃO SE PODE DAR NADA.

Embora tenham recebido diversos aprimoramentos desde sua criação, em meados do século passado, e continuem sendo usados como memória persistente na maioria dos PCs, os HDs são dispositivos eletromecânicos anacrônicos e devem ser aposentados assim que os SSD de grandes capacidades chegarem ao consumidor final a preços palatáveis (conforme vimos na postagem da última quinta-feira, mesmo os modelos mais modernos são cerca de 4.000 vezes mais lentos do que a memória RAM).
Como ensina Meste Morimoto, na RAM os dados são escritos e lidos eletronicamente de forma aleatória – ou seja, em qualquer dos seus endereços –, o que torna o processo praticamente instantâneo. No HD, todavia, a escrita é feita mediante a inversão da polaridade das cabeças magnéticas que atuam sobre as moléculas da camada de óxido de ferro dos discos (quando a polaridade da cabeça é positiva, ela atrai o polo negativo das moléculas, e vice-versa, resultando nos bits 0 e 1). Na leitura, as cabeças simplesmente "leem" o campo magnético gerado pelas moléculas e criam uma corrente elétrica correspondente, cuja variação é analisada pela controladora do drive para determinar os bits. Vejamos isso melhor:
Os HDs atuais integram de 1 a quatro discos que um motor elétrico faz girar de 5.400 a 10.000 vezes por minuto, enquanto as cabeças de leitura e gravação, posicionadas na extremidade de um braço movido por um atuador, varrem constantemente a área de armazenamento (que corresponde a ambas as faces de cada disco).
A formatação física a que os discos são submetidos pelos fabricantes dividem sua superfície em milhares de trilhas concêntricas, que são subdividas em milhares de setores – um setor é a menor divisão física do disco, e tem capacidade para apenas 512 bytes.

Observação: Com base nesses parâmetros, podemos determinar a capacidade de um HD multiplicando o número de cilindros pelo número de cabeças; o resultado, pelo número de setores, e o total, por 512. As trilhas externas possuem diâmetro superior ao das internas, e oferecem não só maior capacidade de armazenamento, mas também mais rapidez no acesso aos dados, razão pela qual é recomendável instalar o sistema operacional na partição do início do disco.

As trilhas são numeradas de acordo com sua localização – a mais próxima da borda é a 0 e as seguintes, 1, 2, 3, etc. Já os cilindros correspondem aos conjuntos de trilhas de mesmo número nos vários discos – por exemplo, o cilindro 1 é formado pela trilha 1 de cada face de disco, o cilindro 2 é formado pela trilha 2 de cada face, e assim por diante. O cluster, por seu turno, é um grupo de setores com endereço único que o Windows “enxerga” como sendo uma única unidade lógica, e representa a menor parcela do HD que pode ser acessada pelo sistema. Note que um arquivo grande pode ser dividido e distribuído por vários clusters, mas um cluster não pode conter mais de um arquivo.

Observação: O setor grava a informação fisicamente, como "positiva" ou negativa", "magnetizada" ou "desmagnetizada", "zero" ou "um", etc., ao passo que no cluster a informação gravada é lógica, ou seja, na forma de dados passíveis de interpretação pelo SO.

O tamanho do cluster varia de acordo com o sistema de alocação arquivos escolhido na formatação lógica do HD. No NTFS, cada cluster possui entre 512 bytes e 4 KB, dependendo do tamanho da partição. Quanto menores forem os clusters, menor será o desperdício de espaço, sobretudo na gravação de arquivos pequenos, pois mesmo que tenha um único byte de tamanho, o arquivo ocupará um cluster inteiro.
Num disco virgem, os dados são escritos em clusters contíguos, o que facilita o trabalho das cabeças de leitura. Mas as constantes edições, apagamentos e regravações a que procedemos quando operamos o computador criam lacunas que o sistema se apressa em preencher, mesmo que elas estejam no meio de uma extensa área ocupada e que haja espaço livre sobrando mais adiante. Caso elas não bastem para conter o arquivo a ser gravado, ele será fracionado e distribuído pelos clusters vagos ao longo das trilhas, tantos quantos forem necessários para acomodá-lo integralmente. E a isso se dá o nome de fragmentação.


Amanhã a gente continua; abraços e até lá.

sexta-feira, 7 de agosto de 2015

DRIVES SSD ─ JÁ É HORA DE MIGRAR? (final)

SE TAMANHO FOSSE DOCUMENTO, O ELEFANTE SERIA DONO DO CIRCO.  

IMPORTANTE: Se você está estranhando o fato de a Microsoft ter se tornado tão generosa de repente, a ponto de disponibilizar o Windows 10 de graça para cerca de 1 bilhão de PCs selecionados em 190 países, saiba que isso nada mais é do que uma estratégia de marketing destinada a agilizar a adoção do novo sistema (como sabemos, o Eight não conseguiu desbancar o Seven, e o XP e as edições mais recentes do Windows Server continuam sendo amplamente utilizadas, especialmente no âmbito empresarial). Aproveitando o embalo, a empresa determinou ainda que, por ocasião da evolução para o Ten, o novo EDGE assuma automaticamente o status de navegador padrão. Mas você pode reverter facilmente essa configuração. Para saber como, acesse esta postagem.

Como vimos no post anterior, a popularização do solid state drive (SSD) é mera questão de tempo ─ e de preço, já que um modelo interno com capacidade de 1 TB custa em torno de R$2.800, ou seja, tanto quanto um notebook de configuração mediana.

Mas nem tudo são flores no jardim dos SSDs: embora não tenham componentes móveis e sejam menores, mais leves, econômicos, resistentes, silenciosos e milhares de vezes mais rápidos do que seus jurássicos predecessores, esses drives têm sua vida útil limitada pela quantidade de regravações que suas células de memória flash são capazes de suportar ─ que é de 10.000 ciclos no caso dos chips MLC, onde cada célula armazena 2 bits utilizando 4 níveis de tensão diferentes, o que permite criar chips com o dobro da capacidade dos SLC (tecnologia original de chips de memória flash NAND), embora mais lentos e menos duráveis.

Observação: Para evitar que as áreas mais usadas (como as de swap, por exemplo) falhem prematuramente, sistemas de wear leveling alteram os setores toda vez que arquivos são criados ou modificados, fazendo com que o bloco anterior só seja reutilizado depois que todos os demais sejam usados pelo menos uma vez.

Todavia, mesmo considerando que os SSDs atuais suportam um número de regravações menor do que os mais antigos (entre 3.000 e 5.000 ciclos), os primeiros sinais de que suas células estão perdendo a capacidade de reter os dados não costumam ocorrer antes de 4 ou 5 anos de uso intenso. Já os fabricantes adotam posturas mais conservadoras, estimando a vida útil de seus produtos em algo entre 5 e 10 anos ─ bem maior que a dos discos magnéticos, portanto.

Observação: Diante da possibilidade de uma ou outra célula de memória falhar antes do previsto, o controlador do drive é incumbido de remapear as páginas defeituosas (utilizado setores de uma área de armazenamento temporário chamada de spare área) à medida que os defeitos forem surgindo, concedendo, dessa maneira, uma "sobrevida" ao dispositivo, que só dará seus últimos suspiros quando as páginas problemáticas atingirem cerca de 7% do total.

O volume dos SSDs é medido em valores binários, mas, por uma questão de marketing, os fabricantes se valem da notação decimal. Assim, num drive de 250 GB, cuja capacidade deveria ser de 268.435.456.000 bytes, o usuário "perde" quase 19 GB (para entender melhor essa questão, reveja esta postagem e a complementação subsequente).

Para concluir, duas recomendações importantes:

1)      Ao adquirir um SSD, prefira um modelo cuja memória trabalhe de maneira síncrona ─ eles são um pouco mais caros, mas garantem melhor desempenho na manipulação músicas, fotos e vídeos;

2)      A forma como os arquivos são gravados nos SSDs não propicia a fragmentação dos dados ─ e ainda que assim não fosse, uma eventual fragmentação não acarretaria grande prejuízo para o desempenho, já que, como vimos, não há cabeças se movendo ao longo da superfície dos discos (e nem discos) para remontar os arquivos como num grande quebra-cabeça. Então, não os desfragmente (para evitar repetições desnecessárias, veja mais detalhes a respeito nesta postagem).

Observação: A troca de um HDD por um SSD (ou por uma solução híbrida, como vimos na primeira parte desta matéria) tem mais chances de sucesso se levada a efeito quando da compra de um computador novo, configurado de fábrica e com o sistema operacional devidamente pré-instalado. Mas com alguma expertise, um pouco de paciência e este tutorial apresentado pelo Mestre Gabriel Torres, quem sabe você não se anima a fazer o transplante por sua conta (e risco)?



E como hoje é sexta-feira...

No caminho para sua fazenda nos cafundós de Joaíma (MG), um mineiro comprou um balde, um galão de tinta, dois frangos e um ganso, todos os animais vivos. Quando saiu da loja, ficou matutando como levar as compra para casa. Aí uma mulher apareceu e perguntou como chegar até a Fazenda Baluarte, nos encosto de Filisburgo (MG).
Minha fazenda fica pressas bandas memo. Eu podia te levá até lá, mas ainda não resolvi como vou carregá cum isso tudo aqui diz o mineiro.
Cê coloca o galão de tinta dentro do barde, carrega o barde numa mão, o ganso na outra mão e um frango debaixo de cada braço responde a mulher.
Partiram os dois pela estrada e, mais adiante, diz o mineiro:
Vamo cortá caminho e pegá este ataio pelo mato, que vamo economiza muito tempo.
A mulher, cismada, responde:
Eu tô sozinha e não tenho como me defendê. Como vou sabê se quando a gente entrá no mato ocê não vai avançá em cima de mim e levantá minha saia e abusá de mim?
Eu tô carregano um barde, um galão de tinta, dois frango e um ganso... Como eu ia fazê isso cocê com tantas coisa nas mão? Se eu sortá o ganso e os frango, eles foge tudo!
Muito simples, uai: Cê coloca o ganso no chão, põe o barde invertido em cima dele, coloca o galão de tinta prá pesá em cima do barde..
E os dois frango?
Eu siguro, uai!  

Boa sorte a todos e até a próxima.

terça-feira, 12 de fevereiro de 2008

Revisitando o HD

Tanto as memórias quanto o HD têm importância fundamental no desempenho de um sistema computacional. E como a RAM já foi "revisitada" na postagem do último dia 7, vou agora fazer o mesmo com o HD - componente que muitos usuários veem como um simples repositório de dados e ao qual não dedicam grande atenção.

Vale lembrar que tanto a RAM (memória física do sistema) quanto o HD (memória de massa), a despeito de serem fabricados a partir de tecnologias distintas e de terem funções diferentes, são memórias e, portanto, têm suas capacidades expressas em bytes e seus múltiplos (KB, MB e GB).

Houve época em que os PCs não tinham discos rígidos; o SO e os programas eram carregados a partir de arcaicos disquetes (há quem ainda se lembre de máquinas antigas, que costumavam integrar dois, três ou mais "floppy drives"). O primeiro HD de que se tem notícia foi construído pela IBM em 1956, era composto por 50 pratos de 24 polegadas de diâmetro - essa monstruosidade armazenava 4.36 MB (5 milhões de caracteres, com 7 bits cada um) e custava mais de 30 mil dólares.

Passando ao que interessa, o HD é uma mídia magnética de alta capacidade, constituída basicamente por uma câmara (ou caixa) selada, em cujo interior existem um ou mais pratos metálicos (platters) montados sobre um eixo e acionados por um motor. Embora o número de pratos influencie diretamente a capacidade do drive, os fabricantes não costumam integrar mais do que quatro, para não dificultar nem encarecer demais a produção dos componentes.

A leitura e a gravação dos dados é feita por cabeças eletromagnéticas (Heads) que, presas a um braço móvel (Arm) acionado por um atuador, podem percorrem toda a superfície dos discos, e as altas rotações (entre 5.400 e 10.000 RPM, nos modelos atuais) formam uma "bolsa de ar" que as mantém afastadas alguns nanômetros da camada magnética - os drives não são fechados à vácuo; é preciso haver ar em seu interior para que esse efeito seja criado.

placa lógica é o "sistema nervoso" do HD, e tem por função, dentre outras coisas, monitorar a rotação do motor, o deslocamento do atuador e o uso do cache de memória, além de tomar decisões baseadas em informações enviadas pela controladora de disco da placa-mãe.

A capacidade de armazenamento dos HDs depende basicamente da densidade e do diâmetro dos discos. A camada magnética, que recobre ambas as faces de cada prato, é constituída por grãos microscópicos dispostos de forma uniforme; quanto menores forem esses grãos, mais fina e sensível será a superfície e mais alta a densidade de gravação. Considerando que HDs modernos giram a 7200 RPM (via de regra, quanto maior a rotação, melhor a performance) e leem dados a 50 MB/s (em setores sequenciais), seu desempenho é bastante satisfatório, especialmente com a adoção da gravação perpendicular, que permite - pelo menos em tese - construir discos com capacidade de até 10 TB!

O diâmetro dos discos vêm "encolhendo" sistematicamente. Embora superfícies menores reduzam a capacidade de armazenamento da mídia e elevem o custo do megabyte, discos muito grandes são pesados, desperdiçam energia, geram muito calor e ruído e não suportam gravações em velocidades altas, além de serem extremamente sensíveis a impactos (isso sem mencionar que o tamanho dos pratos acaba retardando o acesso aos dados - aspecto que, combinado com a rotação mais baixa, resulta numa sensível degradação do desempenho).

Resumo da ópera: drives de 3.5" combinam desempenho aceitável, boa capacidade de armazenamento e custo mais baixo por megabyte, sendo a solução ideal para desktops. Já os de 2.5", mais compactos, silenciosos, econômicos (no consumo de energia) e resistentes a impactos, são geralmente utilizados em notebooks.

Amanhã a gente continua.

Abraços a todos e até lá.

quinta-feira, 13 de abril de 2017

SOBRE O PRÓXIMO "BUG DO MILÊNIO"

NUNCA DESISTA DO SEU SONHO. SE ACABOU NUMA PADARIA, PROCURE EM OUTRA!

Em sua edição “original”, o Bug do Milênio decorreu do formato da data (DD/MM/AA) que os programadores vinham usando desde sempre, embora o latido tenha sido bem pior do que a mordida (detalhes nesta postagem). Já na edição revista e atualizada, prevista para janeiro de 2038, o problema é outro (aliás, a questão da data poderá trazer novos aborrecimentos na virada do ano de 9999 para 10000, mas não faz sentido nos preocuparmos com isso, pois nenhum de nós estará por aqui na data aprazada.

Voltando a 2038 ― se é que “voltar” se aplica ao caso em tela ―, o tal “bug” se deve à maneira como os processadores dos computadores contam o tempo. Para entender isso melhor, primeiro é recomendável relembrar alguns conceitos sobre a base binária ― que você pode conferir nesta postagem ―, até porque, sabendo o que são bits, bytes e seus múltiplos, fica mais fácil compreender o que será visto a seguir.

No alvorecer da computação pessoal, os processadores eram de 16-bit ― grandeza que remete ao tamanho de seus registradores. Colocando a coisa de forma bem simples, o “registro” do chip é o “local onde ele armazena os ‘endereços’ dos dados que precisa acessar para processar os dados”. Na arquitetura de 16-bit, a capacidade dos chips é limitada a 65.539 “endereços diferentes”, ao passo que na de 32-bit, que se tornou padrão no final do século passado, essa capacidade aumentou para respeitáveis 232, que corresponde a 4.294.967.295 “endereços”. Uma evolução e tanto, mas insuficiente: metade desses “endereços” é usada pelo chip na contagem do tempo ― que teve início em 1º de janeiro de 1970 ―, e 2.147.483.647 segundos nos levam até 1º de janeiro de 2038 (mais exatamente às 03h14min08s desse dia).

Não se sabe exatamente como os sistemas computacionais irão se comportar quando atingirem esse limite; é possível que alguns continuar a funcionar com a data incorreta (se a contagem for zerada e reiniciada), mas os que dependem da data precisa para executar suas tarefas certamente entrarão em colapso. Aliás, essa limitação da arquitetura de 32-bit é responsável também pelo fato de esses processadores não “enxergarem” mais de 4 GB de RAM, inobstante a capacidade dos pentes instalados ― atualmente, computadores de configuração mediana integram 8 GB ou mais de memória física, mas essa “fartura” só faz diferença caso eles disponham de chips de 64-bit, capazes de gerenciar nada menos que 264 endereços, que correspondem, na base decimal, a mais de 18 quintilhões (ou 18.446.744.073.709.551.616, para ser exato). Em tese, essa arquitetura permite gerenciar mais de 17 bilhões de gigabytes de RAM, embora a maioria dos PCs de grife que a gente encontra no mercado raramente suportam mais que 64 GB.

Há tempos que os processadores, sistemas operacionais e uma quantidade significativa de aplicativos são “de 64-bit”. O Windows é disponibilizado em versões de 64-bit desde 2005, e o Mac OS X, desde 2011, mas diversos sistemas usados na operação de servidores (como o Unix) ainda são baseados na anacrônica arquitetura de 32-bit ― espera-se que eles sejam modernizados nos próximos 21 anos, até porque é bem provável que, nesse entretempo, chips de 32-bit se tornem peças de museu.

MONTESQUIEU NÃO CHEGOU AO BRASIL ― Por Marco Antonio Villa.

Nunca na história recente da democracia brasileira o desequilíbrio os Poderes esteve tão evidente. Juízes, desembargadores e ministros ocupam o primeiro plano da cena política. São os atores principais. Abandonaram os autos dos processos. Ocupam os microfones com naturalidade. Discursam como  políticos. Invadem competências de outros poderes, especialmente do Legislativo. No caso do Supremo Tribunal Federal, a situação é ainda mais grave. Aproveitando-se da inércia do Congresso Nacional, o STF legisla como se tivesse poder legal para tal, interpreta a Carta Magna de forma ampliada, chegando até a preencher supostas lacunas constitucionais. Assumiu informalmente poderes constituintes e sem precisar de nenhum voto popular. Simplesmente ocupou o espaço vazio.

O projeto criminoso de poder petista ao longo de 13 anos destruiu a institucionalidade produzida pela Constituição de 1988. Cabe registrar que até então não tínhamos um pleno funcionamento das instituições. Contudo, havia um relativo equilíbrio entre os poderes e um respeito aos limites de cada um. Mas este processo acabou sendo interrompido pelo PT.

O petrolão foi apenas uma das faces deste projeto que apresou a estrutura de Estado. E que lá permanece. Depois de quase um ano da autorização para a abertura do processo do impeachment, pouco ou nada foi feito para despetizar a máquina governamental. Pedro Parente, quando assumiu a presidência da Petrobras, afirmou que havia uma quadrilha na empresa. Porém, o tempo passou e nada foi apresentado. O que sabemos sobre a ação do PT e de partidos asseclas na empresa deveu-se à ação da Justiça. Foram efetuadas investigações internas? Funcionários foram punidos? Os esquemas de corrupção foram eliminados? A empresa buscou ressarcimento do assalto que sofreu? Como explicar que bilhões foram desviados da Petrobras e seus gestores não foram sequer processados?

Se a nova direção da Petrobras foi omissa, o mesmo se aplica a um dos pilares do projeto criminoso de poder petista, o BNDES. Foi um assalto. Empréstimos danosos ao interesse público foram concedidos sem qualquer critério técnico. Bilhões foram saqueados e entregues a grupos empresariais sócios do PT. Porém, até o momento, Maria Silvia Bastos Marques não veio a público expor, ainda que sucintamente, a situação que encontrou ao assumir a presidência do banco. E os empréstimos a Cuba? E às republicas bolivarianas? E para as ditaduras da África negra?

Não é possível entender o silêncio das presidências da Petrobras e do BNDES. Por que não divulgam a herança maldita que receberam? Desinteresse? Medo? Não é politicamente conveniente? Por que os brasileiros só tomaram — e continuam tomando — conhecimento das mazelas da Petrobras e do BNDES através dos inquéritos e processos judiciais? Por que os presidentes, ex-diretores e demais responsáveis não foram processados pelos novos gestores?

Se o Executivo continua refém da velha ordem, o mesmo se aplica ao Legislativo. O Congresso Nacional se acostumou ao método petista de governar. Boa parte dos parlamentares foram sócios da corrupção. Receberam milhões de reais indiretamente do Estado. Venderam emendas constitucionais, medidas provisórias, leis e até relatórios conclusivos de comissões parlamentares de inquéritos. Tudo foi mercantilizado. E os congressistas participantes do bacanal da propina lá continuam. Desta forma, diversamente de outros momentos da nossa história (1961, 1964 e 1984-85), o Congresso não tem voz própria na maior crise que vivemos. Quais deputados e senadores poderão se transformar em atores à procura de uma solução política? Quem tem respeitabilidade? Quem fala em nome da nação?

Tanto no Executivo como no Legislativo a velha ordem se mantém com apenas pequenas alterações. Colaboradores ativos do petismo, sócios entusiasmados do maior saque estatal da nossa história, ocupam importantes postos nos dois poderes. Há casos, como o de Leonardo Picciani, que seriam incompreensíveis a algum analista estrangeiro que não conhecesse a hipocrisia da política brasileira. O deputado votou contra a abertura do processo do impeachment e, mesmo assim, foi premiado com o cargo de ministro do novo governo. Boa parte da base parlamentar que sustentou os governos criminosos do PT agora apoia Michel Temer, sem, em momento algum, ter efetuado alguma autocrítica.

É justamente devido às contradições dos outros dois poderes que o Judiciário acabou invadindo o espaço que constitucionalmente não é o seu. Isto não significa que opere sem divergências. Pelo contrário. Basta recordar os constantes atritos entre os responsáveis pela Lava-Jato e alguns ministros do STF, o que também não é recomendável.

O que é inquestionável é o desequilíbrio entre os poderes. Mais ainda, a supremacia do Judiciário. É um desserviço ao Estado democrático de Direito o enorme poder dos juízes, também porque, mas não apenas por isso, sequer receberam um voto popular. E continuam incólumes ao controle democrático. O que diria o Barão de Montesquieu de tudo isso?

Marco Antonio Villa é historiador

Bom feriadão a todos.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

quarta-feira, 8 de novembro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC ― Parte 5

ESPERE O MELHOR, PREPARE-SE PARA O PIOR E VIRE-SE COM O QUE VIER.

Continuando de onde paramos na postagem da última quarta-feira: a FAT 16 opera com, no máximo, 2 GB ― para aplicá-la num drive de 5 GB, por exemplo, ocupar todo o espaço disponível exigiria criar duas partições de 2 GB e uma terceira de 1 GB, também por exemplo. Por conta disso, a Microsoft passou a utilizar a FAT 32 nas edições 95 (versão OSR 2) 98 e ME do Windows, e o (bem mais avançado) NTFS a partir das edições 2000 e XP. Mas vamos por partes.

A FAT trabalha com clusters, que, como vimos, são conjuntos de setores do disco rígido. Na FAT16, cada cluster pode armazenar 2 KB, 4 KB, 8 KB, 16 KB ou 32 KB. Note que esse tamanho é uniforme ― ou seja, não pode haver, na mesma unidade, clusters de tamanhos diferentes. Cada arquivo utiliza tantos clusters quantos forem necessários para contê-lo integralmente; um arquivo com 50 KB, por exemplo, pode ser gravado em 2 clusters de 32 KB cada, mas isso desperdiçaria 16 KB, pois a sobra não pode ser destinada a gravação de dados pertencentes a outro arquivo. Daí se conclui que o maior problema do sistema FAT, além da limitação a 2 GB, é o brutal desperdício de espaço.

Explicando melhor: FAT 16 usa 16 bits para endereçamento dos dados (daí o número 16 na sigla), o que, na prática, significa que ele pode trabalhar com, no máximo, 65536 clusters (216). Então, 65536 clusters de 32 KB cada resulta num espaço total de 2.097.152 KB, que corresponde a 2 GB (note que, quando maior for o cluster, maior será, consequentemente, o desperdício de espaço). Já a FAT 32 utiliza 32 bits no endereçamento de dados e suporta o uso de clusters menores (de 4 KB, p.ex.), reduzindo significativamente o desperdício de espaço.

O limite da FAT 32 é de 2 terabytes (TB). No entanto, se repetirmos o cálculo anterior considerando 32 em vez de 16 (232) e multiplicarmos o resultado pelo tamanho máximo do cluster (também 32), chegaremos a 128 TB. A questão é que, embora cada endereçamento tenha 32 bits, no número máximo de clusters, são considerados apenas 28 bits. Daí termos 228, que dá 268.435.456, ou seja, aproximadamente 268 milhões de clusters, que, multiplicados esse número por 32, resultam em 8 TB.

Ainda faltam 6 TB, mas isso se explica pelo fato de a Microsoft ter limitado a FAT 32 a 232 considerando o número máximo de setores, não de clusters. Como cada setor possui 512 bytes (ou 0,5 kilobyte), a conta a ser feita é 232 (4.294967296) multiplicado por 0,5, que dá 2.147.483.648 KB, ou seja, 2 TB ― de outra forma, poderia haver problemas com a inicialização do sistema operacional devido a limitações na área de boot. 

Observação: Volto a lembrar que setor e cluster são coisas distintas; o primeiro corresponde à menor unidade física do HDD, ao passo que o segundo, que é formado por um conjunto de setores, remete à menor unidade lógica que o SO é capaz de acessar para armazenar dados.

Por hoje está de bom tamanho, pessoal. Continuaremos no próximo capítulo, quando então falaremos formato de arquivos NTFS e (finalmente) da desfragmentação dos dados. Até lá.

Visite minhas comunidades na Rede .Link:

quinta-feira, 13 de julho de 2023

NOS TEMPOS DE ANTANHO...

ATAQUE O PONTO MAIS FRACO DO ADVERSÁRIO COM SUA MELHOR ARMA, E COM TODA A FORÇA. 

No alvorecer da computação pessoal era comum a gente  ouvir as pessoas dizerem que os PCs tinham vindo para solucionar os problemas que ninguém tinha quando  eles não existiam. 

Brincadeiras à parte, usar um microcomputador no final do século passado era "coisa pra micreiro". Para piorar, como quase ninguém tinha acesso à Internet, só se obtinha informações a partir de livros e revistas especializadas (daí meus artigos e livros terem ajudado a pôr comida na mesa até meados dos anos 2000). 
 
Naquele tempo, PCs  não tinham disco rígido, nem sistema operacional, nem dispositivo apontador. Operá-los exigia conhecimentos de programação, expertise e boa memória para decorar centenas de comandos de prompt e digitá-los corretamente — qualquer letra, cifra, espaço ou caractere a mais ou faltando resultava em mensagens de erro. 

Em 1980, a Microsoft lançou um mouse que custava o equivalente a US$ 500 atuais e era difícil de instalar e configurar. A primeira versão usava uma placa proprietária e a segunda vinha com conector serial, mas a maioria dos PCs contava com portas COM, que compartilhavam IRQs e endereços de I/O limitados. Em tese, você instalava um fax-modem numa porta COM livre e compartilhava a mesma IRQ com o mouse; na prática, um dos dispositivos deixava de funcionar sempre que o outro era acionado. 

Instalar drivers era um pesadelo. Não havia APIs  genéricas (cada aplicativo de DOS tinha controladores próprios para placas de som, vídeo, impressoras, etc.), e configurar os dispositivos, um a um, era complicado, até porque eles não vinham com os respectivos drivers. Sem falar que, como não havia acesso à Internet, os drivers não recebiam atualizações. Hoje em dia, basta espetar um módulo de RAM num slot da placa-mãe e deixar o sistema cuidar do resto.

A estrutura original da memória física do IBM PC era uma insanidade. Quando foi lançado, o XT vinha com 16 KB na versão de entrada e 256 KB na versão mais cara, que pouca gente tinha cacife para bancar. Talvez por isso que Bill Gates tenha dito, nos anos 198º, que ninguém precisaria de mais de 640 KB de RAM.
 
Observação: O processador 8086 16-bit endereçava 1.048,576 bytes, daí 640 KB serem suficientes para conter a memória de vídeo, o BIOS, as interrupções, os drivers e outros recursos do sistema até 1 MB. Abaixo disso, a memória era gerenciada pelo DOS com o command.com, e o que sobrava era usado pelos aplicativos. Mas quase nada sobrava quando se dispunha de míseros 128 KB, e ainda que fosse possível acessar os endereços acima de 640 KB do sistema, qualquer coisa entre eles e os 128 KB resultavam em erro.
 
Com o progressivo barateamento da RAM, os microcomputadores passaram a integrar cada vez mais memória, mas só foi possível romper a barreira do megabyte mapeando blocos de memória nos endereços altos. Em tese, configurar uma expansão para disponibilizar blocos de 64 KB permitia instalar até 32 MB de RAM, mas só era possível ler ou gravar mais de 64 KB de cada vez após o lançamento do PC 80286, que endereçava incríveis 16.777,215  bits (com isso, o DOS passou a entender a área acima de 1 MB como "memória estendida", que podia ser endereçada diretamente, sem gambiarras nem paginação). 
 
Observação: No modo real, o PC 286 emulava o 8086 e precisava de um gerenciador de memória (HIMEM.SYS) para acessar a memória alta (acima de 1 MB). Como uma porção de programas dependia da EMS, o lançamento do 80386 trouxe os emuladores de EMS — os populares EMM386 e QEMM386 —, que usavam parte da XMS para "enganar" o sistema.
 
Antes do Windows, uma tabela de caracteres específica para cada país, definida nos arquivos de inicialização do DOS com o comando KEYB, determinava qual o layout do teclado (mas quase nunca funcionava). A Codepage 860 prometia inserir os acentos usados no nosso idioma, mas era incompatível com o COUNTRY 55. A solução era usar softwares que transformavam sequências "acento+letra" em caracteres acentuados, que também funcionavam com as impressoras, que quase nunca tinham acentos (uma cedilha era um C seguido de um retorno de carro e uma vírgula).
 
Observação: Falando em impressoras, os drivers, quando existiam, eram capengas. O pape "atolava", o arquivo enviado para impressão desaparecia, a informação sobre a quantidade de tinta restante era meramente aleatória e os discos de instalação incluíam uma porção de programas inúteis. Além disso, nada funcionava de primeira, sobretudo quando o usuário estava com pressa.
 
Nos tempos de antanho, todo software era pirata. Atualização, só quando alguém conseguia uma cópia mais recente. Q
uando o mundo se tornou online, ficou evidente que o Windows precisava de um utilitário de atualização. A Microsoft criou o Windows Update para atualizar o sistema e seus componentes, mas não estendeu essa facilidade aos softwares de terceiros. O Microsoft Store, que prometia agregar softwares do Windows 11, deixou a desejar — como os apps do sistema são diferentes dos componentes nativos, a maioria dos desenvolvedores não aderiu.
 
Resumo da ópera: Em pleno século XXI, usuários do Windows dependem de ferramentas como o Patch My PC para atualizar aplicativos defasados (ou a maioria deles, porque alguns não são identificados). No Linux, todavia... Enfim, veja você mesmo.

quinta-feira, 6 de agosto de 2015

DRIVES SSD ─ O FIM DOS JURÁSSICOS HDDs ELETROMECÂNICOS ─ JÁ É HORA DE MIGRAR?

O PODER ABOMINA O VÁCUO.

A velocidade dos processadores cresceu milhões de vezes desde os anos 80, ao passo que a taxa de transferência dos HDDs (Hard Disk Drives) aumentou apenas alguns milhares de vezes e a rotação dos pratos (que é de importância fundamental para desempenho do drive), menos de quatro vezes. Somando a isso a capacidade astronômica de armazenamento dos drives atuais (que chega a inacreditáveis 10TB!) e o fato de o tempo de acesso ser inversamente proporcional ao volume de dados, fica fácil compreender porque o disco rígido disputa com o anacrônico BIOS o título de principal gargalo de desempenho do PC.

Observação: O primeiro HDD de que se tem notícia foi lançado pela IBM no final da década de 50 ─ um portento de US$ 30 mil, composto por 50 pratos de 24 polegadas de diâmetro, mas que era capaz de armazenar somente 4.36 MB (o que corresponde uma faixa musical de tamanho médio em MP3).

O BIOS deve ser substituído em breve pelo UEFI (que, dentre outras vantagens, reduz sobremaneira o tempo de inicialização do sistema), mas o HDD já vem sendo (lenta e progressivamente) substituído pelos drives de estado sólido (SSDs) ─ solução que ainda não se popularizou mais expressivamente devido ao preço elevado desses componentes, que chegam a custar de 10 a 15 vezes mais que seus correspondentes eletromecânicos.

Numa visão simplista, mas adequada aos propósitos desta matéria, o HDD tradicional é composto por uma câmara selada (carcaça), em cujo interior um ou mais pratos (discos) acionados por um motor giram em alta velocidade. A gravação dos dados fica a cargo de cabeças eletromagnéticas (heads) posicionadas na extremidade de um braço (arm) controlado por um atuador. Essas cabeças alteram a polaridade das moléculas de óxido de ferro do revestimento metálico que recobre os discos, gerando sinais elétricos que a placa lógica interpreta como imensos conjuntos de bits zero e um, que representam os arquivos digitais em linguagem de máquina.  

Observação: Todo HD é formatado fisicamente na fábrica, quando então as superfícies dos pratos são divididas em trilhas, setores e cilindros. As trilhas são "faixas concêntricas" numeradas da borda para o centro e divididas em (milhões de) setores de 512 bytes. Quando o drive é composto por dois ou mais discos, há ainda a figura do cilindro, que corresponde ao conjunto de trilhas de mesmo número dos vários pratos (o cilindro 1 é formado pela trilha 1 de cada face de cada disco, o cilindro 2, pela trilha 2, e assim por diante). O primeiro setor – conhecido como setor de boot, setor zero, trilha zero ou MBR – abriga o gerenciador de boot, as tabelas de alocação de arquivos usadas na formatação lógica (feita pelo próprio usuário quando da instalação do sistema) das partições inicializáveis e outros dados inerentes à inicialização do computador. Note que setor e cluster são coisas diferentes: O primeiro corresponde à menor unidade física do HDD, ao passo que o segundo, geralmente formado por um conjunto de setores, remete à menor unidade lógica que o SO é capaz de acessar para armazenar dados.

Já os SSDs não têm motor, discos, nem quaisquer outras peças móveis. Seus componentes básicos são a memória flash ─ que armazena os arquivos de maneira semelhante à da RAM, tornando o processo de leitura e gravação muito mais veloz ─ e o controlador ─ que gerencia o cache de leitura e gravação de arquivos, criptografa informações, mapeia trechos defeituosos da memória, e por aí afora. Embora já existam HDDs para PCs com até 10TB, os SSDs mal chegam a 10% desse espaço (convenhamos que não é pouco, pois 1TB corresponde a 1.099.511.627.776 bytes; para não se atrapalhar em conversões dessa natureza, é só recorrer a esta tabela).

Observação: Existem também os drives híbridos, que combinam uma unidade SSD de pequena capacidade com um HDD convencional e proporcionam desempenho melhor a preço menor. A memória flash funciona como cache, armazenando e garantindo acesso rápido aos arquivos utilizados com maior frequência (sistema e aplicativos), enquanto os discos magnéticos se encarregam dos demais dados (músicas, vídeos e arquivos pessoais). O processo é transparente e automático, e tanto o usuário quanto o SO "enxergam" o conjunto como se ele fosse um drive comum.

Para não espichar demais esta postagem, o resto fica para amanhã. Abraços e até lá.

quinta-feira, 26 de maio de 2022

AINDA SOBRE APLICATIVOS, MEMÓRIA RAM E TASK KILLERS

PARA O TRIUNFO DO MAL, BASTA QUE OS BONS FIQUEM DE BRAÇOS CRUZADOS.

Computadores integram memórias de diversas tecnologias em quantidades variáveis, mas sempre expressas em múltiplos do byte. Assim, é comum as pessoas confundirem a RAM (memória física ou primária) com o HDD/SSD (memória de massa, ou secundária, ou ainda "armazenamento") do sistema. 

 

A título de contextualização, relembro que o bit (de “BInary digiT”) é a menor unidade de informação manipulada pelo computador. Oito bits formam um byte; 1 kB (quilobyte) equivale a 1024 bytes (ou meia página de texto); 1024 kB, a um megabyte (espaço suficiente para armazenar um quinto da obra de Shakespeare). Um gigabyte corresponde a 1024 MB (espaço suficiente para gravar um filme de uma hora de duração); 1.000 GB formam 1 terabyte (15 terabytes são suficientes para digitalizar toda a biblioteca do congresso dos EUA); 1024 TB perfazem 1 Petabyte (1/5 do conteúdo de todas as cartas distribuídas pelo correio norte-americano), e assim por diante. 

 

A RAM (de Random Access Memory) é a memória física (ou primária) do computador. Isso vale para desktops, notebooks, smartphones e tablets. É nela que que o software é carregado e os dados, processados. Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.  

 

Nos PCs, a memória de massa (ou secundária) é provida tradicionalmente por um disco rígido (os modelos mais recentes contam com drives de memória sólida). É nessa memória (e a partir dela) que os dados são carregados na RAM — claro que não integralmente, ou não haveria espaço que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). Para saber mais, leia esta sequência de postagens.

 

Costuma-se dizer que um computador é tão rápido quanto seu componente mais lento. No âmbito das memórias, a secundária é milhares de vezes mais lenta que primária, que por sua vez é muito mais lenta que o processador. Assim, uma máquina que dispuser de 8 GB de RAM e de um processador mediano será “mais rápida” do que outra que conte com um chip de topo de linha e míseros 2 GB de RAM. A questão é que a RAM é volátil, daí a necessidade de haver um dispositivo capaz de armazenar o software de forma “persistente”, ou seja, que retenha os dados mesmo depois que o computador for desligado.

 

Em tese, quanto mais memória física o computador tiver, mais "rápido" ele será. Para agilizar ainda mais o trabalho do processador, o cache de memória (ou memória cache, ou simplesmente cache), representado por uma pequena quantidade de memória RAM estática e ultraveloz (e bem mais cara do que a RAM convencional), armazena as informações e instruções que são acessadas mais frequentemente e outros dados que o sistema “prevê” que o processador terá de acessar em seguida.

 

O conceito de memória cache remonta aos tempo dos jurássicos 386, quando se constatou que a lentidão da RAM obrigava a CPU (isto é, o processador; a caixa que abriga os componentes internos do computador se chama "case" ou "gabinete") a desperdiçar preciosos ciclos de clock aguardando a liberação dos dados necessários à execução das tarefas. 


Fica mais fácil de entender se compararmos o computador a uma orquestra e o processador ao maestro. Para uma boa apresentação, não basta um regente competente. Na verdade, músicos qualificados, afinados e entrosados podem até mascarar as limitações de um maestro chinfrim, mas não o contrário. Guardadas as devidas proporções, isso se aplica à performance do computador, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados.

 

Embora pareça um contrassenso, cabe ao gerenciamento de memória do sistema operacional manter o uso da memória o mais alto possível. Primeiro, porque memória é hardware — a gente paga por ela quando compra o aparelho, e não utilizar aquilo pelo que se pagou é desperdício de dinheiro. Segundo, porque, como dito linhas acima, a RAM é muito mais rápida que a memória secundária, e mantê-la ocupada é aproveitar melhor o dinheiro que investimos na compra do aparelho. 

 

Uma CPU de ponta será subutilizada se contar com pouca memória RAM. Para evitar mensagens de “memória insuficiente” (comuns na pré-história da computação pessoal, quando éramos obrigados a encerrar um ou mais aplicativos para que outros pudessem ser carregados e executados), a Intel criou a memória virtual (ou “swap file”, como alguns preferem dizer), que consiste num espaço alocado na memória de massa para o qual o Gerenciador de Memória Virtual (VMM) transfere as seções que não são prioritárias naquele momento e de onde as traz de volta quando necessário.

 

Convém ter em mente que a memória virtual é apenas um paliativo, não um substituto eficiente da RAM, uma vez que (como também já foi mencionado) a memória de massa, mesmo quando representada por um SSD, é muitas vezes mais lenta do que a memória física, e a constante troca de arquivos degrada consideravelmente o desempenho global do sistema.

 

Continua na próxima postagem.

sexta-feira, 27 de outubro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC


O AMOR ENTRE DUAS CRIATURAS TALVEZ SEJA A TAREFA MAIS DIFÍCIL QUE NOS FOI IMPOSTA, A MAIOR E ÚLTIMA PROVA, A OBRA PARA A QUAL TODAS AS OUTRAS SÃO APENAS UMA PREPARAÇÃO.

Por armazenar os dados de forma persistente (não confundir com permanente) o HDD constitui a memória de massa (ou secundária) do computador. É a partir dele que os dados são transferidos para a RAM (memória física ou principal), onde os programas são carregados e as informações, processadas, desde o próprio sistema operacional até um simples documento de texto ―  nenhum computador atual, seja um grande mainframe ou uma simples calculadora de bolso, funciona sem uma quantidade mínima de memória RAM.

O primeiro HDD era composto de 50 pratos de 24” de diâmetro, custava absurdos US$ 30 mil e armazenava míseros 4.36 MB ― ou seja, pouco mais que uma faixa musical em .mp3. Hoje, qualquer computador de entrada de linha traz um drive de 500 GB a 1 TB, mas se sobra espaço, falta desempenho: enquanto a velocidade dos processadores aumentou milhões de vezes desde os anos 1980, a taxa de transferência de dados dos HDDs cresceu alguns milhares de vezes, e a rotação dos pratos mal quadruplicou. Como o tempo de acesso é inversamente proporcional ao volume de dados, o disco rígido disputa com o anacrônico BIOS o ranking dos gargalos de desempenho do computador.

Aos poucos, o BIOS vem sendo substituído pelo UEFI, que, dentre outras vantagens, reduz significativamente o tempo de inicialização do sistema. Já os HDDs vêm cedendo espaço aos SSDs (sigla de Solid State Drive), também paulatinamente, devido à dificuldade de conciliar fartura de espaço com preço competitivo. Mas vamos por partes. 

Por mais que tenha evoluído ao longo das últimas 6 décadas, o drive de HD ainda é um conjunto de discos (ou pratos) que, acionados por um motor, giram em alta velocidade (alguns modelos vão além das 10 mil RPM) dentro de uma caixa hermeticamente fechada. Cada prato é recoberto de ambos os lados por uma camada metálica e formatado (fisicamente) na fábrica, quando é dividido em trilhas, setores e cilindros.

As trilhas são "faixas concêntricas" numeradas da borda para o centro e divididas em (milhões de) setores de 512 bytes. Se o drive integrar dois ou mais discos, existe ainda a figura do cilindro, que corresponde ao conjunto de trilhas de mesmo número dos vários pratos (o cilindro 1 é formado pela trilha 1 de cada face de cada disco, o cilindro 2, pela trilha 2, e assim por diante). O primeiro setor ― conhecido como setor de bootsetor zerotrilha zero ou MBR ― abriga o gerenciador de boot, as FATs ― tabelas de alocação de arquivos usadas na formatação lógica das partições inicializáveis ― e outros dados inerentes à inicialização do sistema.

Observação: Note que setor e cluster são coisas distintas: o primeiro corresponde à menor unidade física do HDD, ao passo que o segundo, geralmente formado por um conjunto de setores, remete à menor unidade lógica que o SO é capaz de acessar para armazenar dados.

Os dados são gravados e lidos por cabeças eletromagnéticas posicionadas na extremidade de um braço controlado pelo atuador. Combinando o efeito giratório produzido no disco pelo motor com o movimento do braço, as cabeças podem gravar/ler dados em qualquer ponto da superfície dos discos. A gravação é feita mediante a inversão da polaridade das moléculas do revestimento metálico dos partos, que gera sinais elétricos interpretados pela placa lógica do drive como os bits zero e um que, em linguagem de máquina, compõem os arquivos digitais. Na leitura, a diferença é que as cabeças não alteram a polaridade das moléculas, apenas “leem” os sinais elétricos e os enviam para a placa lógica interpretar.
   
Para não espichar demais esta postagem, vamos deixar o resto para a próxima. Até lá.

Visite minhas comunidades na Rede .Link:

terça-feira, 2 de janeiro de 2018

ALGORITMO, LOGARITMO E QUE TAIS...

FELIZ 2018 A TODOS!

Toda disciplina tem seu respectivo jargão. Num compêndio de Matemática, por exemplo, podemos nos embananar com números primos, complexos e fatoriais; num livro de Português, confundir análise sintática com morfológica e hipérbole com hipérbato... Já com a Informática...

Bem, a Informática não é exatamente uma ciência exata. Embora seja baseada na Matemática, ela está mais para algo esotérico, esdrúxulo, misterioso. Talvez por isso alguns engraçadinhos definam hardware como aquilo que a gente chuta, e software, como o que a gente xinga.

A despeito de qualquer criança recém-saída dos cueiros ser capaz de operar um PC, não faltam usuários calejados que ainda confundem CPU (que é o processador) com o gabinete do sistema, e memória RAM (memória física do computador) com espaço no HD (dispositivo de armazenamento persistente, que em última análise, também é considerado “memória”). Aliás, por conta dessa avalanche de termos estranhos e siglas formadas a partir de palavras em inglês que meu ex-parceiro Robério e eu incluímos um DICIONÁRIO DE INFORMATIQUÊS na nossa saudosa Coleção Guia Fácil Informática. Mas isso já é outra conversa.

Se você confunde bits com bytesdrive com driver ou a capacidade do HD com o espaço na RAM, saiba que não está sozinho. A informática nos trouxe uma vasta gama de neologismos, acrônimos e siglas que dão margem a equívocos como messes. Dias atrás, alguém com que eu conversava confundia sistematicamente “algoritmo” com “logaritmo”. 

Observação: ALGORITMO é uma sequência finita de instruções lógicas que o computador executa ao realizar uma tarefa ou resolver um problema, ao passo que LOGARITMO é um recurso destinado a facilitar a realização de cálculos matemáticos complexos mediante a transformação de multiplicações e divisões em operações mais simples (soma e subtração).

Convém não confundir confundir algoritmo com programaAlguns autores definem "programa" como um conjunto de algoritmos combinados, o que, guardadas as devidas proporções, seria o mesmo que definir uma casa como um monte de tijolos assentados.

Existem diversas formas de escrever algoritmos, sendo o pseudocódigo e o fluxograma as mais comuns. Mas isso já é outra conversa e fica para uma próxima vez.

Visite minhas comunidades na Rede .Link:

terça-feira, 19 de março de 2013

FRAGMENTAÇÃO DOS DADOS NO HD

Mesmo os discos magnéticos de última geração são, em média, 400.000 vezes mais lentos que a memória RAM. Se você quiser uma máquina ágil, procure abastecê-la com o máximo de memória que sua placa-mãe suportar (respeitados os limites impostos pelo seu Windows – que, como vimos, não vai além dos 3,5 GB nas versões de 32-bits). Assim, o acesso à memória virtual será reduzido e a consequente degradação do desempenho do computador, minimizada, notadamente se os dados no estiverem excessivamente fragmentados (para entender isso melhor, sugiro rever a sequência de postagens que eu publiquei em fevereiro de 2008, começando por esta aqui).

Observação: fragmentação dos dados se deve ao fato de o Windows e seu sistema de alocação de arquivos preencherem os clusters disponíveis em ordem crescente, começando pelo mais próximo do início do disco e seguindo pelos subsequentes, mesmo que eles não sejam contíguos, estejam no meio de uma extensa área ocupada e haja espaço sobrando logo adiante. O cluster é a menor "porção" de espaço no disco que o sistema é capaz de acessar, e seu tamanho (número de setores) pode variar de um, nos discos mais antigos, a 64, em certas versões de Windows. Um cluster pode até acomodar integralmente um arquivo bem pequeno, mas não uma imagem em alta resolução, por exemplo, cujos milhões de bytes serão divididos e espalhados por outros clusters disponíveis na sequência (um cluster não pode abrigar mais do que um arquivo, mas um arquivo pode ser distribuído por vários clusters).

Quanto mais fragmentados estiverem os arquivos, mais trabalhosa e demorada será sua “recomposição”, já que a controladora do HD terá de localizar os fragmentos respectivos, posicionar a cabeça de leitura na trilha onde se encontra o primeiro deles, esperar que o disco gire até a posição desejada, “ler” as informações, copiá-las na memória, repetir o processo com o cluster subsequente, e assim sucessivamente, até reconstituir totalmente o arquivo. Considerando que uma simples movimentação da cabeça magnética para ler o primeiro cluster demora, em média, 500 vezes mais do que um acesso à memória RAM, fica fácil entender por que o uso do "swap file" degrada significativamente o desempenho do computador.

Amanha a gente continua; abraços e até lá.