Mostrando postagens com marcador HD. Mostrar todas as postagens
Mostrando postagens com marcador HD. Mostrar todas as postagens

sexta-feira, 2 de agosto de 2019

BACKUP E CANJA DE GALINHA NUNCA FIZERAM MAL A NINGUÉM


NEM TUDO QUE ACABA NECESSARIAMENTE TERMINA.

Nos primórdios da computação pessoal, era comum ouvirmos dizer que hardware era a parte do PC que a gente chutava e o software, a que a gente xingava. Ouvíamos também que os usuários de computador se dividam entre os que já haviam perdido um HD e a dos que ainda iam perder. Brincadeiras à parte, esses “clichês” continuam valendo, mesmo depois que a evolução tecnológica aprimorou sobremaneira os dispositivos computacionais.

É fato que os HDs e SSDs atuais não são tão susceptíveis aos distúrbios da rede elétrica quanto os modelos fabricados 10 anos atrás, mas isso não nos desobriga de usar um nobreak, pois, além de estabilizar a tensão, esse aparelho nos protege de um apagão inesperado e do subsequente pico de tensão que tende a ocorrer quando o fornecimento de energia é restabelecido. Isso não só evita danos físicos nos delicados circuitos eletrônicos do computador, mas também previne a perda de dados se, por exemplo, a gente não configurou o salvamento automático dos arquivos em que está trabalhando nem tomou o cuidado de fazê-lo manualmente (no Word, basta pressionar Ctrl+B de tempos em tempos).

Nunca é demais lembrar que os famigerados filtros de linha não filtram coisa alguma, já que não passam de benjamins providos de fusíveis ou LEDs que fazem as vezes de varistor. O estabilizador de tensão é mais eficiente, pois “compensa” as variações de tensão da rede (para mais ou para menos), embora, de novo, a melhor solução é o nobreak, de preferência do tipo online — também conhecido como UPS —, que integra um retificador, um inversor e um banco de baterias. O bloco retificador “corrige” a rede elétrica e carrega as baterias, e a tensão, uma vez retificada, alimenta o bloco inversor, cuja função é alternar a tensão novamente para a carga. Quando há energia na tomada, as baterias são mantidas em carga lenta, e o computador e demais periféricos são alimentados via inversor; quando falta força, as baterias alimentam a carga também via inversor, e da feita que a tensão é retificada e filtrada logo na entrada, e a alimentação, provida através do circuito inversor, o nobreak elimina a maioria dos distúrbios da rede elétrica, pois suas baterias funcionam como um grande capacitor.

Como a Lei de Murphy ainda não foi revogada, ninguém está livre de, um belo dia, ligar o computador e o Windows se recusar a carregar porque um arquivo importante do sistema se corrompeu, por exemplo. Mesmo que a possibilidade de isso ocorrer seja menor do que há 5 ou 10 anos, e que o Win10, ao detectar alterações nos arquivos protegidos do sistema, aciona o Windows Resource Protector (que até o WinXP atendia por Windows File Protector) para recuperar automaticamente as versões originais a partir de cópias armazenadas numa pasta oculta, ou, ainda, que o Win10, diante de uma falha que o impede iniciar normalmente, tenta se recuperar automaticamente e, se não conseguir, reinicia no modo de segurança ou no ambiente de recuperação, cautela e canja de galinha não fazem mal a ninguém.

Sem embargo, a melhor maneira de evitar surpresas desagradáveis como o sequestro de dados por ransomware, por exemplo é manter backups atualizados dos arquivos importantes. Não estou falando do sistema operacional em si, nem dos aplicativos que usamos no dia a dia, até porque tudo isso é recuperável. Falo daquela foto antiga de alguém que já se foi, e cujo negativo ou cópia em papel foi parar não se sabe onde. Ou do vídeo do batizado do caçula, do parto da cadelinha de estimação, enfim, de tudo que foi armazenado no HD e que, se uma hora se perder, fo... digo, danou-se.

Usuários de computador sempre foram avessos a fazer backup, e houve um tempo que isso era compreensível: até meados dos anos 90, praticamente não havia alternativa aos frágeis disquetes, que desmagnetizavam e emboloravam com facilidade e não comportavam sequer para uma faixa musical no formato .mp3. Eles chegaram ao mercado no final de 1971, e suas primeiras versões tinham 8” (cerca de 20 cm) e míseros 8 kilobytes de capacidade. Mais adiante, vieram os modelos de 5 ¼” polegadas e 160 kilobytes, e em 1984, quando sua produção foi descontinuada, já armazenavam 1,2 MB.

Os disquetes que mais se popularizaram foram os de 3 ½” e 1,44 MB (versões de 2,88 MB e 5,76 MB chegaram a ser lançados, mas por alguma razão não emplacaram). Até a edição 95, os arquivos de instalação do Windows eram fornecidos nesse tipo de mídia (primeiro a gente instalava o MS-DOS e depois o Windows propriamente dito, que até então era apenas uma interface gráfica). Naquela época, a maioria dos PCs contava com dois ou mais floppy drives meu primeiro 286 tinha um drive para floppy de 5 ¼” e dois para 3 ½”, o que facilitava bastante a cópia de dados. A título de curiosidade, para armazenar em disquetes o conteúdo de um pendrive de 16 GB, seriam necessárias 11.111 unidades de 1,44 MB (uma pilha de respeitáveis 36 metros de altura).
       
Atualmente não existe desculpa para você não criar cópias de segurança de seus arquivos importantes e de difícil recuperação. De uns anos a esta parte, os fabricantes deixaram de equipar notebooks e desktops com drives de disquete, e são bem poucos os modelos que ainda trazem um gravador/leitor de mídia óptica, já que HDs externos (com interface USB) e pendrives de grandes capacidades custam relativamente barato e oferecem um latifúndio de espaço. Isso sem mencionar que os disco rígidos nativos também se tornaram bastante camaradas: qualquer PC de entrada de linha conta atualmente com algo entre 500 GB e 1 TB. A questão é que, se não dividirmos esse espaço em pelo menos duas unidades lógicas, nossos arquivos serão apagados se e quando formatarmos o HD para reinstalar o Windows do zero. E ainda que o particionemos e salvemos nossos backups fora da partição do sistema, os arquivos podem ficar indisponíveis se uma falha física comprometer o funcionamento do dispositivo (para mais detalhes sobre particionamento do HD, reveja esta sequência de postagens).  

De novo: não há desculpa para não criarmos cópias de segurança dos dados importantes e de difícil recuperação. O procedimento não tem mistério, pois consiste basicamente em copiar arquivos do drive C para outra partição do HD ou para mídias removíveis. Simples assim. Agora, se você quiser fazer backups em grande estilo, o Windows lhe dá uma forcinha, como veremos em detalhes na próxima postagem.

sexta-feira, 22 de fevereiro de 2019

PASTAS - TAMANHO E OUTRAS SUTILEZAS

OS FATOS NÃO DEIXAM DE EXISTIR SIMPLESMENTE PORQUE OS IGNORAMOS

Eu fiquei de dar sequência às considerações sobre a influência da memória de massa (disco rígido) no desempenho do computador, bem como publicar outras dicas para espremer as últimas gotas de performance de uma máquina rodada, de configuração meia-boca, mas isso vai ter de ficar para segunda-feira. Segue o post de hoje:

Se você quiser saber o “tamanho” de uma pasta — para ter a certeza de que ela caberá no espaço que lhe resta num CD ou pendrive, por exemplo —, desconsidere a informação exibida na barra de status, pois ela não leva em conta eventuais subpastas, arquivos ocultos e outros que tais. Em vez disso, dê um clique direito no ícone que representa a pasta em questão e clique em Propriedades. Caso a pasta esteja aberta, dê um clique direito num ponto vazio em seu interior — ou no ícone do menu de controle (que fica no canto esquerdo da barra de título, na parte superior da janela) — e selecione Propriedades

Se houver duas informações distintas — “tamanho” e “tamanho em disco” — considere a primeira, pois a segunda representa o espaço ocupado no disco pelo conteúdo da pasta e pode variar conforme o sistema de arquivos (FAT32 ou NTFS) e outras “sutilezas” cuja abordagem foge ao escopo desta postagem.

Falando em pastas e sutilezas, o freeware My Lockbox é um programinha de segurança que permite proteger com senha qualquer pasta do seu computador (ocultando-a até mesmo do administrador, ainda que seja realizada uma busca através da caixa Pesquisar da Barra de Tarefas do Windows).

quinta-feira, 21 de fevereiro de 2019

AINDA SOBRE O DESEMPENHO DO PC


O HOMEM É ESSENCIALMENTE GANANCIOSO, TODO HOMEM INVESTIDO DE PODER É TENTADO A ABUSAR DELE.

Eu já disse, mas não custa repetir: um PC de configuração chinfrim é como um veículo popular 1.0: ambos se movem, mas nenhum deles tem um desempenho de tirar o fôlego. 

No caso do computador, minha recomendação sempre foi priorizar uma configuração equilibrada — um processador de ponta só mostra do que é capaz se contar com a contrapartida das memórias (física e de massa). Seria como numa orquestra, onde o maestro só consegue proporcionar um bom espetáculo se contar com músicos competentes, afinados e entrosados entre si. Substitua a orquestra pelo computador, o maestro pelo processador e os músicos pelos demais componentes e você terá uma boa ideia do que eu estou querendo dizer.

Observação: O computador é formado por dois segmentos distintos, mas interdependentes: o hardware e o software. O primeiro é a parte física — ou aquilo que você chuta — e o segundo, a parte “invisível” — ou aquilo que você xinga. Sistemas e programas (isto é, o software) estão cada vez mais exigentes (por recursos de hardware, como processamento, memória, etc.). Comprar um desktop de entrada de linha, daqueles que custam pouco mais de mil reais, e querer rodar programas como o Adobe Photoshop e games radicais, por exemplo, é arrependimento garantido. E ainda que seja possível fazer um upgrade posterior (de memória, HDD, e até de processador), o molho costuma sair mais caro do que o peixe. Então, ao escolher um PC, não se baseie unicamente pelo preço — nem tudo que é caro é bom, mas o que é bom geralmente custa mais caro.

Se você acha que seu PC ainda dá caldo — ou que o momento não é indicado para comprar uma máquina mais adequada às suas expectativas —, reveja as dicas que eu publiquei ao longo das últimas postagens e ponha em prática as que você achar que podem ajudar. Adicionalmente, remova todos os inutilitários, instale uma boa suíte de manutenção, faça uma faxina em regra no sistema, corrija eventuais erros no disco rígido e desfragmente os dados

O Windows dispõe nativamente de um limpador de disco e de ferramentas para corrigir erros e desfragmentar os dados no HDD, mas eu uso e recomendo o Advanced System Care e/ou o CCleaner (detalhes nas postagens anteriores), cuja gama de funções vai bem além dos limitados recursos dos utilitários nativos do sistema.

Manter o Windows e os demais aplicativos atualizados é fundamental. Clique em Configurações > Atualização e segurança > Windows Update > Verificar atualizações e instale todas as atualizações críticas, de segurança e de driver. Os programas "não Microsoft" não são contemplados pelo WU, mas a maioria avisa quando há atualizações disponíveis; para os que não o fazem, ou você faz o trabalho manualmente, ou recorre a ferramentas como o FILEHIPPO APP MANAGER, o OUTDATEFIGHTER, o R-UPDATER e o KASPERSKY SOFTWARE UPDATER, que poupam um boado de tempo e trabalho.

É verdade que um outro patch pode produzir resultados inesperados e indesejados, mas a Microsoft procura solucionar o problema com a possível urgência, e não é por causa de uma laranja podre que você vai jogar fora a caixa inteira. No geral, as atualizações aprimoram a segurança e o funcionamento do sistema como um todo, devendo ser implementadas sempre que estiverem disponíveis.

Desde que começaram a ser usados em PCs domésticos, os antivírus foram eleitos os grandes culpados pela lentidão do computador. É fato que a maioria deles tem um apetite voraz por recursos (processamento, memória, etc.), e que, para piorar, esse é o tipo de programa que precisa ser carregados na inicialização do sistema. Embora seu impacto no desempenho costume ser mais sentido durante as varreduras, é recomendável usar antivírus mais “leves” em máquinas de configurações mais pobres.

Observação: Uma alternativa ao antivírus é a virtualização do sistema (detalhes nesta postagem), mas eu considero essa solução mais adequada a computadores públicos (como os de lanhouses, cibercafés etc.) do que aos domésticos.

Se sua máquina estiver particularmente lenta e você tiver motivos para suspeitar do antivírus, experimente desativá-lo temporariamente e veja como o sistema se comporta. Se a melhora for palpável, substitua a ferramenta por outra que drene menos recursos (eu gosto muito do AVAST PREMIER, mas não tome qualquer decisão sem analisar o TOTAL AV, o PC PROTECT e o KASPERSKY INTERNET SECURITY, além, é claro, dos festejados produtos da SYMANTEC).

Volto a frisar que a influência do drive de disco rígido (memória de massa) no desempenho global do sistema é significativa. Os modelos baseados em memória sólida (SSD) vêm substituindo (a conta-gotas) os eletromecânicos, mas unidades de grandes capacidades ainda custam muito caro. Drives híbridos reúnem o melhor dos dois mundos, combinando um SSD de pequena capacidade (64 GB, p.e.) com um HDD convencional (eletromecânico). Assim, a memória sólida funciona como cache, armazenando os aquivos mais usados e agilizando o acesso a eles, enquanto os pratos magnéticos se encarregam dos demais conteúdos (música, vídeo, imagem, texto, etc.). Note que o processo é transparente e automático, ou seja, tanto o usuário quanto o sistema "enxergam um drive comum”.

Cumpre salientar que a desfragmentação de drives de memória sólida é desnecessária e desaconselhável, mas os modelos convencionais devem ser desfragmentados quinzenal ou mensalmente, conforme o uso do computador. Antes de executar a desfragmentação, veja qual o percentual de espaço livre na unidade. Se mais de 70% do total estiver ocupado, ponha as barbichas de molho (mais detalhes na próxima postagem).

O desfragmentador nativo do Windows 10 cumpre sua função, mas eu uso e recomendo o Smart Defrag, que é rápido, amigável, e oferece recursos como a desfragmentação off-line (feita durante a inicialização, de modo a contemplar arquivos que ficam inacessíveis quando o sistema está carregado), a otimização (que regrava os arquivos do sistema no início do disco para aprimorar o desempenho), a consolidação do espaço livre, e por aí vai.

É o que tínhamos para hoje, pessoal. Volto amanhã com mais dicas sobre o HDD e o desempenho do PC.

sexta-feira, 8 de dezembro de 2017

COMO DESAFOGAR O SISTEMA OPERACIONAL (PARTE 4)

SE GILMAR MENDES É CONTRA, ENTÃO É BOM PARA O BRASIL.

Lidas, compreendidas e postas em prática as sugestões elencadas no post anterior, abra a pasta Computador, clique com o botão direito no ícone que representa sua unidade de sistema e selecione a aba Ferramentas. No campo Verificação de Erros, clique em Verificar Agora, assinale as duas caixas de verificação e reinicie o computador (essa providência necessária para que a ferramenta tenha acesso aos arquivos de sistema que o Windows bloqueia quando está carregado) e vá tomar um café, que a finalização do processo costuma demorar um pouco.

Concluída a verificação e corrigidos os eventuais erros no disco, volte à janelinha das Propriedades da Unidade C: e, no campo Desfragmentação, pressione o botão Desfragmentar agora. Na tela do Desfragmentador, selecione a unidade desejada (desde que não seja SSD) e clique em Analisar disco. Se o índice de fragmentação for superior a 3%, clique em Desfragmentar disco e siga as instruções na tela ― de acordo com o tamanho do drive e o percentual de fragmentação dos arquivos, esse processo também pode demorar um pouco.

Note que o roteiro sugerido para o “pré-operatório” utiliza os recursos nativos do sistema. Com uma suíte de manutenção como o Advanced System Care, por exemplo, você obterá melhores resultados em menos tempo e com menos trabalho. Aliás, outra suíte que eu recomendo instalar é o CCleaner, que (acho que eu já disse, mas nunca é demais repetir) permite selecionar um a um os pontos de restauração do sistema que se deseja apagar. Ambos os programas são disponibilizados gratuitamente para uso pessoal, mas registrá-los lhe dará acesso a alguns recursos adicionais, que talvez não sejam imprescindíveis, mas nem por isso deixam de ser bem-vindos.

Agora “o paciente está pronto para a cirurgia” que reduzirá o tamanho da unidade do sistema e abrirá espaço para a criação de uma segunda partição. Cada drive de HD pode ser dividido em até quatro partições primárias ― ou em três partições primárias e uma estendida. A partição estendida pode ser subdivida em múltiplas unidades lógicas, sendo cada qual identificada por uma letra do alfabeto. Como as letras A e B eram reservadas, tradicionalmente, para os drives de disquete de  e  polegadas, o volume do sistema recebe a letra C, e o drive de mídia óptica, se houver, a letra D. Assim, as demais partições partem da letra E ― a menos que você tenha configurado um pendrive ou um SD Card para “ampliar” a RAM através do ReadyBoost, caso em que a nova partição receberá a letra F.

ObservaçãoÉ possível alterar as letras em questão abrindo a pasta Computador e, na coluna à esquerda, dando um clique direito em Computador e selecionando a opção Gerenciar.
  
O resto fica para o próximo capítulo.

Visite minhas comunidades na Rede .Link:

segunda-feira, 4 de dezembro de 2017

VOLTANDO AOS DRIVES SÓLIDOS (SSDs)

SEJA LÁ O QUE FOR, EU SOU CONTRA!

As principais diferenças entre HDDs eletromecânicos e de estado sólido foram discutidas numa recente sequência de postagens, mas eu achei por bem dedicar mais algumas linhas ao assunto para relembrar que:

― O grande entrave à popularização dos drives sólidos é o custo. Por enquanto, somente máquinas de configuração top e preço nas alturas vêm de fábrica com essa tecnologia, embora versões de menor capacidade, puras ou híbridas, já comecem a equipar notebooks de preços mais acessíveis.

― Do ponto de vista do armazenamento, os discos rígidos utilizam pequenas estruturas magnéticas para informar o valor de cada informação, enquanto os drives sólidos o fazem eletronicamente, como os pendrives e cartões de memória ― e por não terem partes móveis eles são menores, mais leves e rápidos que os HDDs, menos susceptíveis a danos decorrentes de impactos ou quedas e mais comedidos no consumo de energia, o que os torna uma boa alternativa para usuários de notebooks.

― Como a vida útil das células de memória flash é limitada, os SSDs têm a vida útil abreviada pela constante gravação de dados (a leitura não provoca efeitos deletérios), ainda que o usuário provavelmente trocará o computador antes de a unidade de memória sólida apresentar problemas.

― Como a desfragmentação dos arquivos consiste num processo de realocação de dados ― que exige uma longa sequência de regravações para que a unidade seja otimizada ―, não é recomendável desfragmentar SSDs. Além de não melhor o desempenho, a desfragmentação reduz a vida útil do componente. Portanto, use o Defrag para reagrupar dados espalhados ao longo das trilhas dos seus discos magnéticos, mas não nos SSDs, que operam a partir de processos elétricos, e não mecânicos, podendo, portanto, acessar os dados são acessados de qualquer lugar com a mesma rapidez, como acontece na memória RAM.

― Tampouco apague as “áreas vazias” em SSDs ― nos modelos convencionais, isso resulta em ganho de espaço e facilita a recuperação de arquivos excluídos acidentalmente, mas em drives sólidos isso não só é desnecessário como desaconselhável. Sistemas operacionais modernos suportam o TRIM ― tecnologia que “informa” ao drive que determinados arquivos foram apagados e que os blocos onde eles se encontravam armazenados devem ser submetidos a um processo de limpeza para que novas informações possam ser gravadas. Com isso, os arquivos excluídos são prontamente apagados, ao contrário do que se verifica nos HDDs, onde a exclusão pura e simples não os apaga prontamente, apenas marca como disponíveis os clusters que eles ocupavam, daí o fato de um arquivo excluído acidentalmente poder ser recuperado por aplicativos dedicados enquanto os clusters que os abrigavam não forem sobrescritos. Para conferir se o TRIM está ativo no seu computador, reveja a postagem do último dia 14.

― Da mesma forma que a desfragmentação, a formatação completa é desnecessária e prejudicial nos SSDs. Primeiro, porque o TRIM apaga os arquivos definitivamente; segundo, porque o procedimento não proporciona melhorias de desempenho e ainda desperdiça valiosos ciclos de reescrita do dispositivo.

― Edições do Windows anteriores ao Seven não suportam o TRIM, o que torna desaconselhável seu uso com SSDs. Sem o TRIM, além de os arquivos apagados permanecem disponíveis para recuperação, o dispositivo tende a demorar bem mais tempo para gravar os dados, produzindo lentidão no sistema como um todo. Claro que há ferramentas capazes de minimizar esse problema (desenvolvidas pelos próprios fabricantes de drives), mas isso já é outra conversa.

― Também é importante não esgotar totalmente a capacidade de armazenamento dos SSDs ― o que pode ser um problema, já que os modelos mais baratos são espartanos oferecem umas poucas centenas de gigabytes. O ideal é deixar pelo menos 25% de espaço livre, de modo que, se seu PC dispõe de um SSD e um HDD ― ou de um drive híbrido ―, use o componente de memória flash basicamente como unidade de leitura (ao contrário da escrita, a leitura pura e simples não compromete a vida útil das células de memória). Isso significa instalar nele o sistema operacional e os apps que você utiliza com maior frequência e concentrar todo o resto no drive eletromecânico, especialmente os arquivos de mídia, que consomem um absurdo de espaço e podem ser carregados a partir de um HDD interno ou externo sem qualquer problema ou lentidão.

― Não custa relembrar que pode valer a pena desabilitar o arquivo de paginação no drive sólido (desde que você disponha de, pelo menos, 6GB de RAM), pois esse recurso, também conhecido como memória virtual, funciona como uma extensão da memória física e sujeita o drive a constantes regravações. Considere ainda a possibilidade de desativar a restauração do sistema, o Superfetch e o Windows Search (indexação dos dados para agilizar pesquisas).

Era isso, pessoal. Espero ter ajudado.

Visite minhas comunidades na Rede .Link:

sexta-feira, 27 de outubro de 2017

HDD/SSD ― A MEMÓRIA DE MASSA DO PC


O AMOR ENTRE DUAS CRIATURAS TALVEZ SEJA A TAREFA MAIS DIFÍCIL QUE NOS FOI IMPOSTA, A MAIOR E ÚLTIMA PROVA, A OBRA PARA A QUAL TODAS AS OUTRAS SÃO APENAS UMA PREPARAÇÃO.

Por armazenar os dados de forma persistente (não confundir com permanente) o HDD constitui a memória de massa (ou secundária) do computador. É a partir dele que os dados são transferidos para a RAM (memória física ou principal), onde os programas são carregados e as informações, processadas, desde o próprio sistema operacional até um simples documento de texto ―  nenhum computador atual, seja um grande mainframe ou uma simples calculadora de bolso, funciona sem uma quantidade mínima de memória RAM.

O primeiro HDD era composto de 50 pratos de 24” de diâmetro, custava absurdos US$ 30 mil e armazenava míseros 4.36 MB ― ou seja, pouco mais que uma faixa musical em .mp3. Hoje, qualquer computador de entrada de linha traz um drive de 500 GB a 1 TB, mas se sobra espaço, falta desempenho: enquanto a velocidade dos processadores aumentou milhões de vezes desde os anos 1980, a taxa de transferência de dados dos HDDs cresceu alguns milhares de vezes, e a rotação dos pratos mal quadruplicou. Como o tempo de acesso é inversamente proporcional ao volume de dados, o disco rígido disputa com o anacrônico BIOS o ranking dos gargalos de desempenho do computador.

Aos poucos, o BIOS vem sendo substituído pelo UEFI, que, dentre outras vantagens, reduz significativamente o tempo de inicialização do sistema. Já os HDDs vêm cedendo espaço aos SSDs (sigla de Solid State Drive), também paulatinamente, devido à dificuldade de conciliar fartura de espaço com preço competitivo. Mas vamos por partes. 

Por mais que tenha evoluído ao longo das últimas 6 décadas, o drive de HD ainda é um conjunto de discos (ou pratos) que, acionados por um motor, giram em alta velocidade (alguns modelos vão além das 10 mil RPM) dentro de uma caixa hermeticamente fechada. Cada prato é recoberto de ambos os lados por uma camada metálica e formatado (fisicamente) na fábrica, quando é dividido em trilhas, setores e cilindros.

As trilhas são "faixas concêntricas" numeradas da borda para o centro e divididas em (milhões de) setores de 512 bytes. Se o drive integrar dois ou mais discos, existe ainda a figura do cilindro, que corresponde ao conjunto de trilhas de mesmo número dos vários pratos (o cilindro 1 é formado pela trilha 1 de cada face de cada disco, o cilindro 2, pela trilha 2, e assim por diante). O primeiro setor ― conhecido como setor de bootsetor zerotrilha zero ou MBR ― abriga o gerenciador de boot, as FATs ― tabelas de alocação de arquivos usadas na formatação lógica das partições inicializáveis ― e outros dados inerentes à inicialização do sistema.

Observação: Note que setor e cluster são coisas distintas: o primeiro corresponde à menor unidade física do HDD, ao passo que o segundo, geralmente formado por um conjunto de setores, remete à menor unidade lógica que o SO é capaz de acessar para armazenar dados.

Os dados são gravados e lidos por cabeças eletromagnéticas posicionadas na extremidade de um braço controlado pelo atuador. Combinando o efeito giratório produzido no disco pelo motor com o movimento do braço, as cabeças podem gravar/ler dados em qualquer ponto da superfície dos discos. A gravação é feita mediante a inversão da polaridade das moléculas do revestimento metálico dos partos, que gera sinais elétricos interpretados pela placa lógica do drive como os bits zero e um que, em linguagem de máquina, compõem os arquivos digitais. Na leitura, a diferença é que as cabeças não alteram a polaridade das moléculas, apenas “leem” os sinais elétricos e os enviam para a placa lógica interpretar.
   
Para não espichar demais esta postagem, vamos deixar o resto para a próxima. Até lá.

Visite minhas comunidades na Rede .Link:

quinta-feira, 20 de abril de 2017

AINDA SOBRE O DESLIGAMENTO DO COMPUTADOR (3ª PARTE)

REFORMA POLÍTICA FEITA POR POLÍTICOS CORRUPTOS, QUE DEVERIAM ESTAR NUM REFORMATÓRIO, É UMA PIADA RUIM DEMAIS.

Voltando rapidamente à anatomia dos HDDs, a carcaça (ou câmara) que abriga os pratos giratórios, braços, cabeças de leitura/gravação e demais componentes internos não é fechada à vácuo, mas selada após uma providencial injeção de ar totalmente estéril. Os pratos giram em altas velocidades (alguns modelos operam a mais de 10.000 RPM), e não é difícil imaginar o estrago um grão de poeira poderia causar se, a essa velocidade, colidisse com as delicadas cabeças eletromagnéticas.

Mas não é só. O ar permite a geração do turbilhonamento necessário para as cabeças eletromagnéticas manterem-se micrometricamente afastadas da superfície dos discos. Embora diversos autores (dentre os quais se inclui este humilde escriba) procurem facilitar a compreensão desse tema comparando os HDDs às antigas vitrolas, é importante deixar claro que, para reproduzir o conteúdo dos bolachões, a agulha toca fisicamente a espiral criada no vinil durante a gravação, pois é assim que ela capta as vibrações que são amplificadas e reproduzidas pelos alto falantes sob a forma de som. Nos discos rígidos, em vez de uma espiral, existe um conjunto de trilhas concêntricas (detalhes na postagem anterior), e as cabeças não tocam a superfície dos pratos.

Observação: Nos drives antigos, quando o PC estava desligado, as cabeças de leitura e gravação repousavam sobre a superfície dos pratos, o que podia resultar em arranhões que danificariam trechos das trilhas e tornariam ilegíveis os dados neles gravados. Mas os modelos fabricados de 2000 para cá passaram a recuar os braços para uma “área de repouso”, reduzindo significativamente a possibilidade de danos nos pratos ou nas cabeças eletromagnética, embora continue valendo o que eu disse no parágrafo de abertura do primeiro capítulo desta sequência, sobre aparelhos elétricos e eletroeletrônicos “sofrerem” mais no instante em que são ligados (embora apagões inesperados e desligamentos inadequados sejam ainda mais perigosos para o disco rígido do computador).

Segundo a Energy Star, a vida útil média de um HDD moderno é de 40 mil ciclos de ligar e desligar. Considerando que isso equivale a 109 anos ligando e desligando o PC uma vez por dia, mesmo que fosse submetido a 10 boots diários, 7 dias por semana, o drive funcionaria por cerca de 10 anos, e é bem provável que você troque seu computador por um novo bem antes disso.

Como tudo neste mundo, o PC e seus componentes têm vida útil limitada, sobretudo as peças que integram partes móveis, como o HDD, as ventoinhas, o exaustor da fonte de alimentação, etc. Daí se infere que deixar a máquina ligada o tempo todo para prevenir “consequências nocivas” da inicialização pode não ser uma boa ideia. Além do stress contínuo, do excesso de calor, do desgaste mais acelerado das peças móveis e do impacto na fatura de energia elétrica, não desligar o PC implica em prolongar indefinidamente uma mesma sessão do Windows, o que fatalmente irá impactar negativamente o desempenho e a estabilidade do sistema.

Desligar o aparelho interrompe o fornecimento de energia elétrica, esvazia os buffers e descarrega o conteúdo das memórias voláteis, além de proporcionar um desejável “refresh” ao sistema e aplicativos. Além disso, protege o aparelho de eventuais apagões, sobretensões e outros distúrbios da rede elétrica (além de economizar energia). Por outro lado, fazê-lo constantemente obriga o usuário a amargar aqueles “intermináveis” minutos que a máquina leva para dar o boot, carregar o Windows e ficar pronta para uso. Daí ser importante conhecer as alternativas que o próprio sistema oferece em suas opções de desligamento. Devido ao feriado de Tiradentes, falaremos delas na próxima semana; abraços e até lá.

OS DELATADOS E SEU CORAL ANGELICAL

Se já está difícil aturar os vídeos da Delação do Fim do Mundo que os telejornais vêm exibindo com irritante ― mas compreensível insistência, dada a importância de cientificar a população do “comportamento pouco republicano” de seus conspícuos representantes ―, pior é ouvir a corja de delatados entoando, como uma singela legião de anjos, um coral bem ensaiado de protestos de inocência que não passa de mera cantilena para dormitar bovinos. Dizer que os colaboradores mentiram é a resposta padrão. Só que não se sustenta, até porque acusações levianas invalidariam os acordos de colaboração e resultariam na suspensão dos respectivos benefícios.

A veiculação dos depoimentos dos delatores, sobretudo de Emílio e Marcelo Odebrecht, desmonta de maneira cabal o velho e batido ramerrão cantado em prosa e verso por por Lula, pelo PT e pela imprestável militância vermelha, que ainda tentam vender a aleivosia de que tudo não passa de um plano para prejudicar... Lula, o PT e a PQP. Claro não faltam discípulos da finada Velhinha de Taubaté, que continuam dão ouvidos a semelhante asnice. Mesmo depois da torrente de merda com que a mãe de todas as delações cobriu não só o comandante máximo da ORCRIM e respetiva corriola, mas também políticos das mais diversas ideologias e colorações partidárias ― dentre os quais 39 deputados federais, 42 senadores, 8 ministros de Estado e 3 governadores, sem mencionar outros nove governadores e três ex-presidentes da República (que não serão investigados no Supremo, mas em instâncias inferiores da Justiça). Dos ex-presidentes da República que ainda caminham no mundo dos vivos, nenhum ficou fora da lista! Uma coisa impressionante!  

Detalhe: Embora haja 35 partidos oficialmente registrados na Justiça Eleitoral ― e mais 56 pedidos de registro aguardam a decisão do TSE ― a maioria não tem a menor expressividade, serve apenas para garantir uma fatia do fundo partidário (que anda na casa dos R$ 860 milhões provenientes de nossos suados impostos) e para vender a agremiações maiores seu tempo no horário gratuito no rádio e na TV (que o povo também banca, pois as emissoras são contraprestadas com isenção fiscal).  

Claro que só teremos uma ideia dos malfeitos imputados a cada delatado depois que cada inquérito for analisado. No entanto, a extensão da lista, que desmoralizou de vez a política brasileira, demonstra claramente que a solução será reinventar o jogo político, quiçá mediante a convocação de uma Constituinte ― ideia que já vem sendo defendida por juristas, sociólogos, cientistas políticos e distinta companhia. Nesse entretempo, até faz sentido o que dizem alguns delatados, sobre a indevida presunção de culpa de que vêm sendo alvo todos os figurantes desse “rascunho do mapa do inferno” (talvez pelo motivo errado, mas ainda assim faz sentido). Culpado, mesmo, o sujeito só será considerado depois de condenado por sentença judicial transitada em julgado.

Observação: Numa visão simplista, tudo começa com a investigação ― situação em que os indícios contra o investigado não vão muito além da possibilidade de culpa; caso a investigação reúna elementos suficientes para que a ação siga adiante, o dito-cujo é promovido a indiciado; se o Ministério Público entender que a acusação se sustenta, ele passa a denunciado, e a denúncia é encaminhada para a instância da Justiça que tem competência para apreciá-la. Caso o magistrado aceite a denúncia, o processo é aberto e o denunciado passa formalmente à condição de réu. Após a produção de provas, realização de diligências, oitiva de testemunhas e depoimentos pessoais das partes, a instrução processual é encerrada e os autos ficam conclusos para sentença. Prolatada a decisão, as partes podem recorrer à instância superior, e assim sucessivamente, até esgotar todas as possibilidades de recurso em Direito admitidas, quando então o réu, se condenado, passa a cumprir a pena que lhe foi imputada.

Por hoje é só. Vamos continuar acompanhado os desdobramentos desse monumental e vergonhoso imbróglio, e torcer para que os culpados sejam exemplarmente punidos. Lula lá!

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

terça-feira, 18 de abril de 2017

SOBRE O SUPOSTO DESGASTE PREMATURO DO COMPUTADOR EM DECORRÊNCIA DE FREQUENTES DESLIGAMENTOS E AS DEMAIS OPÇÕES DE DESLIGAMENTO DO WINDOWS

O MERCOSUL É A UNIÃO ENTRE O BOM GOSTO E A SOBRIEDADE DOS BRASILEIROS, A HONESTIDADE DOS PARAGUAIOS, A ALEGRIA DOS URUGUAIOS, A SIMPLICIDADE E HUMILDADE DOS ARGENTINOS E A SINCERIDADE DOS CHILENOS.

É incontestável que qualquer dispositivo elétrico ou eletroeletrônico “sofra mais” no momento em que é ligado ― por isso que é mais comum uma lâmpada queimar no instante em que a acendemos do que simplesmente se apagar “do nada”, minutos ou horas depois de acesa (embora isso também possa ocorrer, naturalmente). No caso do PC, todos os componentes são sensíveis, em menor ou maior grau, a variações e surtos de tensão, mas o HDD (sigla para disco rígido, que, no idioma do Tio Sam, é chamado de Hard Disk Drive) sempre foi o mais susceptível.

Por se tratar de um dispositivo eletromecânico, o disco rígido tem partes móveis, como os atuadores, que movem as minúsculas cabeças de leitura e gravação ao longo de toda a superfície dos pratos ― que por sua vez giram milhares de vezes por minuto em torno de um eixo acionado por um motor ―  para “ler e escrever” os bits que compõem os arquivos digitais mediante a inversão de polaridade das moléculas de uma camada de óxido de ferro que... bem, podemos economizar tempo e espaço se você acessar o resumo que eu apresentei a respeito nesta postagem.

Mesmo os PCs do final do século passado podiam ser ligados e desligados milhares e milhares de vezes antes de o HDD “pifar”. Claro que nada é eterno, muito menos a vida útil desse componente, mas era mais comum o computador se tornar obsoleto e ser substituído antes de o disco rígido apresentar problemas de funcionamento, a menos, naturalmente, que fosse fulminado por um pico de tensão ou danificado por um apagão inesperado na rede elétrica ― daí a importância de a gente usar um no-break ou, no mínimo, um estabilizador de tensão de boa qualidade, como você pode conferir nesta postagem.

Novas tecnologias tornaram os HDDs mais resistentes a impactos e solavancos (que castigam mais os computadores portáteis que os de mesa, mas enfim...), além de menos suscetíveis aos inevitáveis “distúrbios” da rede elétrica. Todavia, continua valendo a recomendação de jamais desligar o computador puxando o cabo energia da tomada, e sim abrir o menu Iniciar e clicar em Desligar. Dessa forma, o sistema encerrará adequadamente os aplicativos, processos e serviços, finaliza a sessão e só então cortará o fornecimento de energia, prevenindo a corrupção de arquivos e eventuais danos físicos no disco rígido.

Observação: De uns tempos a esta parte, passou a ser possível desligar o computador com segurança através do botão de power (tanto nos notebooks quanto nos desktops). Todavia, convém tomar cuidado para não o manter pressionado por mais tempo do que o necessário, pois, ao cabo de 5 segundos, o desligamento será feito “na marra”, como se o cabo de energia fosse desconectado da tomada. Essa opção deve ser reservada para ocasiões extremas, quando um travamento severo do sistema impede que ele seja desligado pelas vias convencionais.

Enfim, o que me levou a essas considerações preambulares foi a velha dúvida sobre o que é mais conveniente: desligar o computador durante intervalos curtos, como na hora do almoço ou do lanche da tarde, por exemplo, ou mesmo no final do dia, para não amargar os “intermináveis” minutos que a máquina levará para ficar pronta para uso na manhã seguinte. No entanto, como este texto já se alongou demais, o resto vai ter de ficar para o próximo post. Até lá.

PONDO OS PINGOS NOS IS

A “Delação do Fim do Mundo” deu origem à “Lista de Janot”, que resultou na “Lista de Fachin”, que caiu como uma bomba no Congresso. Menos pela divulgação dos nomes dos envolvidos ― que já eram conhecidos devido a diversos vazamentos ― e mais pela nova dimensão que o levantamento do sigilo dos depoimentos de Marcelo Odebrecht e de outros ex-diretores do Grupo vêm dando aos fatos, que são ainda mais estarrecedores quando ouvidos da boca dos delatores.

É certo que só teremos uma ideia do real tamanho desse imbróglio depois que cada inquérito for analisado, mas é igualmente certo que, pelo que veio a público até agora, nosso sistema político não tem como se sustentar por muito mais tempo. Isso é ponto pacífico. Por outro lado, convocar eleições “diretas já”, como defendem alguns, não é a solução.

Não que o atual governo seja grande coisa. O fato de vir produzindo resultados, notadamente no âmbito da Economia, chega a ser espantoso, considerando que Temer carece de respaldo popular, está cercado de ministros investigados por práticas pouco republicanas e é dependente de um Congresso que não passa de um covil de corruptos comandado por “Botafogo” e “Índio” ― apelidos pelos quais figuram conhecidos os presidentes da Câmara e do Senado nas planilhas espúrias do departamento de propina da Odebrecht. E são essas lamentáveis figuras, nessa mesma ordem, que responderão interinamente pela presidência da Banânia se a chapa Dilma-Temer for cassada antes do final do mandato de Michel Temer.

Alimentar esperanças de o país melhorar com a deposição do atual presidente seria o mesmo que escrever a Papai Noel e ficar esperando resposta. Rodrigo Maia e Eunício Oliveira são investigados por corrupção passiva e lavagem de dinheiro; Temer só escapou de um inquérito para chamar de seu porque seu cargo lhe confere imunidade provisória. Como dizem os americanos, BETTER THE DEVIL YE KEN THAN THE DEVIL YE DON'T (melhor ficar com o diabo que conhecemos do que o que não conhecemos, numa tradução livre).

E ainda que o povo tomasse vergonha e exigisse o afastamento imediato de todos os ministros, senadores, deputados e governadores sob suspeita ― não se trata de fazer pré-julgamento, mas de exigir um mínimo de moralidade, até porque todos os que investigados que, comprovadamente, não tivessem nada a ver com o peixe seriam prontamente reconduzidos a seus cargos, como acontece em democracias mais civilizadas ―, quem herdaria a coroa e o cetro seria a ministra Cármen Lúcia. Não se nega que ela vem fazendo um bom trabalho à frente do STF, mas daí a achar que se daria bem na presidência da República, num cenário como o atual, é o mesmo que acreditar na Fada do Dente.

A despeito de Temer ter sido conivente com as patifarias praticadas pela anta vermelha ― e de ter flanado confortavelmente no vácuo da sacripanta quando era vice-presidente da Banânia, beneficiando-se dos recursos milionários que propiciaram a reeleição da chapa em 2014 ―, em vez de sairmos às ruas gritando “Fora Temer”, deveríamos, isso sim, apoiar seu governo e torcer para que ele realmente consiga aprovar as reformas impopulares, mas indispensáveis, que são o primeiro passo na longa e espinhosa caminhada rumo ao crescimento do qual o PT nos desviou na última década, por conta de seu ominoso projeto de poder.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

segunda-feira, 30 de janeiro de 2017

AINDA SOBRE A PASTA WINDOWS.OLD

AS GRANDES CONVIVÊNCIAS ESTÃO A UM MILÍMETRO DO TÉDIO.

Por mais “espaçosos” que sejam os HDDs atuais, pouco mais de 30 horas de vídeo em alta resolução ocupam cerca de 1 TB  de espaço, de modo que, se você gostou da ideia de baixar filmes e seriados da Netflix para assistir offline (recurso disponível desde novembro do ano passado) e não dispõe de um drive externo ou pendrive de alta capacidade (a Kingston acabou de lançar um modelo de 2 TB, que ainda não tem preço definido, mas dificilmente custará menos que o de 1 TB, que sai por US$ 1,5 mil), é bom pôr as barbichas de molho.

Como eu disse na primeira parte desta matéria, o Windows também contribui ― e de diversas maneiras ― para lotar seu HDD. Por isso, vale a pena limitar o espaço destinado à Lixeira do sistema e aos pontos de restauração ― quanto a estes últimos, convém excluir regulamente os backups mais antigos, conforme também foi explicado no capítulo anterior.

Outra maneira de recuperar dezenas (ou até centenas) de Gigabytes é remover a pasta Windows.old, que, como eu também já disse, é criada automaticamente quando você instala uma nova versão do sistema “por cima” da anterior (ou seja, sem formatar o HDD). Isso permite reverter o computador ao status quo ante caso o update seja mal sucedido ou, por qualquer motivo, não o satisfaça plenamente. Só que essa pasta pode facilmente ocupar dezenas de Gigabytes, e não faz sentido mantê-la quando não se tem planos de desfazer a atualização ― como no caso do update do Windows 7/8 para o 10 ou do próprio Windows 10 da versão 1511 para a 1607 (update de aniversário).

Observação: Dezenas de Gigabytes podem não parecer grande coisa quando se tem um disco rígido eletromecânico de 1 TB, mas a história é outra no caso de um drive de estado sólido (SSD), que, devido ao alto custo da memória flash, costuma disponibilizar bem menos espaço.

Por conter arquivos temporários, a pasta Windows.old tende a desaparecer sozinha (30 dias depois da atualização, que corresponde ao prazo concedido pela Microsoft para o usuário “arrependido” desfazer o update). Se isso não acontecer ou você quiser se livrar dela antes (caso tenha pouco espaço livre no HD), não adianta localizá-la no Explorer, selecioná-la e pressionar o botão Delete. O certo a fazer é usar o utilitário de Limpeza do Disco, que você acessa abrindo a pasta Computador, dando um clique direito na sua unidade de sistema (partição onde o Windows está instalado, que geralmente é a C:), clicando em Propriedades e em Limpeza de Disco.

Na janelinha que é exibida depois que o sistema calcula a quantidade de espaço que pode ser recuperada, você deve clicar em Limpar Arquivos do Sistema, aguardar o novo cálculo, marcar a opção “Instalações anteriores do Windows” e confirmar em OK. Em seguida, na nova janela, clique em Excluir arquivos e aguarde a conclusão do processo (caso novas solicitações apareçam, clique nelas para prosseguir). 

Se você seguir os passos sugeridos e utilitário de Limpeza do Disco não listar a pasta em questão, experimente recorrer ao CCleaner (clique aqui para saber mais sobre essa excelente suíte de manutenção). Abra o programa, clique em Limpeza > Windows e, no campo Avançado, marque a opção Instalação Antiga do Windows e pressione o botão Analisar. Concluída a análise, você verá o item Instalação antiga do Windows, seguido do tamanho da pasta e da quantidade de arquivos. Clique em Executar Limpeza e aguarde a conclusão do processo.

Era isso, pessoal. Espero ter ajudado.


SUS? QUE SUS, CARA PÁLIDA?

Quando ainda era presidente da Banânia, Lula chegou ao absurdo de dizer que tencionava aconselhar Obama a usar o SUS ― segundo o bode vermelho, a quintessência das maravilhas ― como modelo de sistema de saúde (se você não acredita, chique aqui para ouvir a fanfarronice da boca do próprio petralha).

Para quem conhece o SUS, essa gabolice cheira a porre, mas, convenhamos: vindo de um populista megalomaníaco, ególatra e parlapatão, não chega a surpreender. Como tampouco surpreende o fato de que, diante de qualquer dor de barriga, o molusco abjeto corre para o Hospital Sírio Libanês, que é um dos mais caros do país. Afinal, mesmo que ele tenha enchido as burras com palestras pagas por empreiteiras esmerdadas até os beiços no esquema do petrolão, quem banca essa mordomia é o povo (tanto Lula quanto FHC, Collor, Sarney e, mais recentemente, Dilma, fazem jus a uma série de vantagens e mordomias que custam ao contribuinte uma pequena fortuna).

Enfim, na semana passada, por conta de alterações na fala e fortes tonturas, a mulher de Lula foi levada ao SUS, digo, ao Hospital Sírio Libanês, onde foi internada e colocada em coma induzido (se dependesse mesmo do SUS, de duas uma: ou ela ainda estaria esperando atendimento, ou já teria sido sepultada). De acordo com o boletim médico divulgado no início da tarde deste domingo, o quadro é grave, mas a paciente se mantém estável. Roberto Kalil Filho, médico chefe da junta que atende a molusca, explicou que, no caso de um AVC hemorrágico, a atividade cerebral só atinge o pico depois de no mínimo três dias, e só então é possível avaliar melhor as regiões do cérebro afetadas pelo sangramento. Disse ainda o doutor que a paciente já tinha um aneurisma (em linguagem leiga, uma veia cerebral propensa à dilatação e passível de se romper), que havia sido diagnosticado dez anos atrás, mas cujos riscos não justificavam uma intervenção cirúrgica.

Marisa Letícia tem 66 anos, é hipertensa e fumante contumaz, está casada com Lula há 43 anos, é ré em duas ações penais na Lava-Jato (envolvendo o triplex do Guarujá e uma cobertura em São Bernardo) e investigada no inquérito que apura a responsabilidade por obras feitas no famoso sítio Santa Bárbara, em Atibaia (que o clã dos Lula da Silva insiste em afirmar que não pertence ao ex-presidente). Dependendo da evolução do quadro, talvez em breve ela já não precise mais temer a justiça terrena. Quanto à divina, isso vai das convicções de cada um.

ADITAMENTO IMPORTANTE:

CARMEN LUCIA HOMOLOGA DELAÇÃO DA ODEBRECHT

OS JUÍZES AUXILIARES DA EQUIPE DO FINADO TEORI ZAVASCKI ENCERRARAM NA ÚLTIMA SEXTA-FEIRA AS AUDIÊNCIAS COM OS DELATORES DA ODEBRECHT, E A PRESIDENTE DO SUPREMO ― E PLANTONISTA NA CORTE DURANTE O RECESSO DO JUDICIÁRIO ― HOMOLOGOU-AS NESTA MANHÃ (TODAS AS 77 DELAÇÕES, E NÃO APENAS A DE MARCELO ODEBRECHT, COMO CHEGOU A SER COGITADO).

RESTA AGORA DEFINIR A QUESTÃO DA RELATORIA DOS PROCESSOS DA LAVA-JATO, MAS CADA COISA A SEU TEMPO. TUDO INDICA QUE A ESCOLHA DO NOVO RELATOR SERÁ MESMO REALIZADA POR SORTEIO ELETRÔNICO, MAS O REGIMENTO NÃO DEIXA CLARO SE ENTRE TODOS OS MINISTROS DO STF (COM EXCEÇÃO DA PRESIDENTE) OU SOMENTE OS MEMBROS DA SEGUNDA TURMA, DA QUAL ZAVASCKI, FAZIA PARTE. 

OUTRA POSSIBILIDADE SERIA MOVER UM INTEGRANTE DA PRIMEIRA TURMA (EDSON FACHIN OU LUIZ ROBERTO BARROSO) PARA A VAGA DE ZAVASCKI NA SEGUNDA, E ENCARREGÁ-LO DA RELATORIA DA LAVA-JATO. 

DE MOMENTO, TODAVIA, DIZER MAIS DO QUE ISSO SERIA MERA ESPECULAÇÃO. VOLTO DEPOIS COM MAIS DETALHES SOBRE O ASSUNTO. 

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/  

sexta-feira, 20 de janeiro de 2017

FICOU SEM ESPAÇO NO HD APÓS MIGRAR PARA O WINDOWS 10? ENTÃO VEJA COMO PROCEDER

FALTA AO VIRTUOSO A FEÉRICA, A IRISADA, A MULTICOLORIDA VARIEDADE DO VIGARISTA.

Foi-se o tempo em que os PCs traziam HDs com poucas centenas de megabytes de espaço. Hoje em dia, qualquer máquina de configuração mediana ― ou mesmo de entrada de linha ― conta com pelo menos 500 GB (com a possível exceção das que integram SSDs, devido ao preço ainda elevado desse tipo de memória, mas isso já é outra história).

No entanto, sempre tem quem armazena arquivos multimídia volumosos (como filmes e clipes de vídeo, por exemplo), instala tudo quanto é freeware que encontra pela frente e guarda indefinidamente milhares de fotos e coleções de músicas com o propósito de um dia ― sabe lá Deus quando ― gravar tudo isso em CDs ou transferir para pendrives. Desse jeito, até o HD mais espaçoso pode ficar lotado rapidamente, com consequente prejuízo para o desempenho do sistema operacional e do computador como um todo.

No Windows 10, conferir a quantas anda o espaço disponível no HD é ainda mais fácil do que nas edições anteriores: basta abrir a pasta Computador e checar a barra correspondente ao ícone que representa a unidade na qual o Windows está instalado (geralmente C:). No entanto, eu recomendo dar um clique direito sobre a unidade em questão e selecionar Propriedades, pois, além de obter informações mais detalhadas, você pode aproveitar o embalo para executar a Limpeza de disco (conforme a gente já discutiu em outras oportunidades).

Vale frisar que suítes de manutenção como o Advanced System Care, o CCleaner, o Glary Utilities e tantas outras ― sobre as quais a gente também já falou em diversas oportunidades ― fazem um serviço mais elaborado ou, no mínimo, complementam a faxina feita pela ferramenta nativa do Windows (mais detalhes nesta postagem).

Lembro também que, caso essa faxina não resolva seu problema de espaço, convém você considerar a possibilidade de apagar pontos antigos de restauração do sistema, desinstalar aplicativos desnecessários e transferir arquivos volumosos (como os de multimídia e outros que foram mencionados linhas atrás) para mídias ópticas e/ou dispositivos de armazenamento removível.

Outra providência que resulta em economia de espaço é a exclusão de arquivos temporários. Para isso, na caixa de diálogo do menu Executar ― que você pode abrir pressionando ao mesmo tempo as teclas Windows e R ―, digite temp, dê Enter, selecione os arquivos listados e pressione a tecla Delete. Em seguida, no mesmo menu Executar, digite %temp% e repita o procedimento retro citado.

Há quem sugira ainda desativar a memória virtual (ou arquivo de paginação, como queira), mas eu não recomendo, a não ser que, em vez de um drive eletromecânico, seu PC seja equipado com SSD. No entanto, é consenso entre os especialistas sistemas com 8 GB ou mais de RAM ficam mais ágeis sem a memória virtual (para mais detalhes, reveja esta postagem). Então, se você acha mesmo que pode abrir mão desse recurso, veja como reconfigurá-lo no Windows 10:

― Dê um clique direito no logo do Windows que é exibido na extremidade esquerda da sua barra de tarefas (o mesmo em que você clica com o botão esquerdo para acessar o menu Iniciar).

― Clique então em Sistema e, na porção esquerda da tela que se abrirá em seguida, clique em Configurações avançadas do sistema.

― Selecione a guia Avançado e, no campo Desempenho, clique em Configurações... e novamente na guia Avançado.

― No campo Memória virtual da janelinha que se abrirá em seguida, clique em Alterar.

― Desmarque a caixinha ao lado de Gerenciar automaticamente o tamanho do arquivo de paginação, selecione (se necessário) o drive ou partição em que o Windows está instalado e marque a opção Sem arquivo de paginação.

Observação: Note que essa mesma janela permite definir manualmente o tamanho do arquivo de paginação. Para isso (embora essa questão fuja aos propósitos da postagem, já que o tema em pauta é a recuperação de espaço no HD), selecione a opção correspondente, preencha os campos Tamanho inicial e Tamanho máximo com o mesmo valor (que deve ficar entre uma vez e meia e três vezes a quantidade de memória RAM instalada no computador), confirme em OK e reinicialize o sistema.

A MORTE DE TEORI ZAVASCKI ― OUTRO “PAVOROSO ACIDENTE”?

Eram 5h da tarde quando a notícia caiu feito uma bomba ― ou feito o Beechcraft C90GT de prefixo PR-SOM, a bordo do qual se encontrava o ministro do STF Teori Zavascki e outras quatro pessoas, mas essa analogia me pareceu de mau gosto, de modo que resolvi ficar com a primeira.

Eu já havia encerrado o expediente quando soube do “pavoroso acidente” e resisti à tentação de postar algo no Blog e na comunidade de política devido à falta de informações confiáveis. Até aquele momento, sabia-se apenas que a aeronave ― que decolou por volta das 13h00 do Campo de Marte, na região central da capital paulista, e tinha como destino a cidade de Paraty, no litoral fluminense ― havia caído no mar, a 2 km do campo de pouso de destino (chamar aquilo de aeroporto é piada) e que Zavascki poderia ser um dos passageiros. Meia hora depois, todos os telejornais confirmavam que o ministro estava mesmo a bordo e que havia morrido no acidente, e, mais adiante, que havia cinco pessoas a bordo (e não quatro, como havia sido dito anteriormente), que nenhuma delas sobreviveu para contar a história e que as causas da tragédia podiam ser... qualquer coisa.

Teori era o relator dos processos da Lava-Jato no STF. A ele caberia homologar os acordos de 77 delatores da Odebrecht, que, até onde se sabe, envolvem cerca de 200 políticos de diversos partidos ― que poderão ter a carreira abreviada e até mesmo passar um tempo no complexo penitenciário de Pinhais, em Curitiba, caso as denúncias sejam confirmadas, os respectivos inquéritos, instaurados, e as ações, julgadas em desfavor dos réus. Só isso já dá e sobra para inúmeras teorias da conspiração ― que realmente vêm pipocando na Web. Pode ser que tudo não passe de uma lamentável coincidência, mas dizem que coincidências nada mais são do que Deus agindo nos bastidores ― no caso, por motivos óbvios, seria mais provável que o Diabo tivesse culpa no cartório.

Ainda não são conhecidas ― pelo menos até o momento em que estou rabiscando estas linhas ― as verdadeiras causas do acidente, e não vejo sentido em perder tempo com meras especulações. Melhor acompanhar o desenrolar das investigações para ver que bicho dá. Mesmo quanto ao futuro da Lava-Jato ― que a perda de Zavascki certamente atrapalha, ou pelo menos retarda, mas isso não significa que a Operação esteja comprometida. Ainda não se sabe quem será o novo relator, até porque fala-se em duas maneiras de escolhê-lo: na primeira, Temer aponta o substituto de Zavascki (que deve ser sabatinado pela CCJ do Senado e referendado pelo plenário da Casa), e ele herdará as ações que estavam sob os cuidados de seu antecessor. Na segunda, a ministra Carmem Lucia, atual presidente da Corte, sorteia o novo relator entre os 9 colegas remanescentes (o STF é composto por 11 magistrados, mas, nesse caso, a presidente não conta), embora alguns palpiteiros afirmem que esse sorteio deve envolver apenas os 4 componentes que restaram na Segunda Turma do Supremo, da qual TZ fazia parte (e que é presidida por Gilmar Mendes e conta com os ministros Celso de Mello, Dias Toffoli e Ricardo Lewandowski).

Já deu na mídia que o presidente Temer deve indicar para o posto seu ministro da justiça, o boquirroto dublê de Kinder ovo e Lex Luthor, que atende por Alexandre de Moraes. Há quem sugira o nome de Sergio Moro, mas parece que essa ideia é defendida apenas pelos (muitos) admiradores do magistrado. Demais disso, é bom lembrar que se Moro ocupasse a vaga, estaria automaticamente impedido de julgar recursos de casos relativos às ações que ele próprio julgou em primeira instância.

A coisa toda ainda é muito recente. Não se sabe ao certo sequer onde o corpo de Zavascki será sepultado. Alguns dizem que será velado no STF e de lá enviado para Santa Catarina (o ministro nasceu naquele estado, no município de Faxinal dos Guedes), enquanto outros dizem que tanto o velório quanto o sepultamento serão em Porto Alegre, no Rio Grande do Sul.

Voltarei com mais detalhes quando os tiver e achar que posso confiar nas informações.

E como a vida continua e hoje é sexta-feira:



Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

terça-feira, 6 de dezembro de 2016

PENSANDO EM TROCAR SEU TELEVISOR? ENTÃO NÃO DEIXE DE LER ESTA POSTAGEM

É PRECISO ENTENDER PROFUNDAMENTE A ESSÊNCIA DE ALGUMA COISA PARA SE LIVRAR DAS PARTES NÃO ESSENCIAIS.

Foi-se o tempo em que escolher um televisor exigia apenas decidir entre as marcas, modelos e tamanhos disponíveis, e procurar uma loja que oferecesse o produto pelo menor preço e/ou com as melhores condições de pagamento. Hoje em dia, além dessas questões inarredáveis, é preciso também avaliar o formato da tela (plana, curva, flexível, etc.), a quantidade de portas USB/HDMI/RCA, os recursos oferecidos (a gama é maior nos modelos “smart”) e a resolução suportada (HD, FULL HD, K4, 8K, etc.).

Com relação à resolução, vale relembrar que o padrão FULL HD é plenamente satisfatório para você assistir à programação da TV aberta, por assinatura, e filmes em DVD e em streaming. Como o conteúdo no formato 4K (também conhecido como ULTRA HD) ainda é escasso, não vale a pena você trocar seu aparelho HD ou FULL HD apenas por conta desse diferencial. No entanto, caso já venha pensando em comprar um televisor novo ― afinal, o Natal está aí ―, talvez valha a pena gastar um pouco mais e fazer um “investimento para o futuro”.

No contexto desta postagem, o termo resolução remete à quantidade de linhas e colunas de pixels que formam as imagens. Atualmente, a maioria dos televisores suportam o HD, embora os fabricantes busquem aliciar os consumidores com telas “FULL HD” e “ULTRA HD”, mas é bom ter em mente que o preço cresce conforme a resolução aumenta, embora a marca, o modelo, o tamanho da tela e os recursos oferecidos também pesam nessa questão.

Nas TVs HD, os pixels são dispostos em 1.280 colunas e 720 linhas, resultando em imagens formadas por quase 1 milhão de pontos. Nas FULL HD, são 1.920 colunas e 1.080 linhas, o que praticamente dobra o número de pontos, e nas ULTRA HD, 3.840 colunas e 2.160 linhas geram quatro vezes mais pontos que a tecnologia convencional. Por outro lado, as diferenças são mais perceptíveis em telas de grandes dimensões, e, mesmo assim, quando você se posiciona mais próximo do aparelho.

Modelos Ultra HD (ou 4K) e 8K costumam ter telas grandes e preços salgados. O primeiro modelo 4K no mercado nacional ― uma LG de 84” lançada em março de 2013 ― custava absurdos R$ 45 mil. Seis meses depois, a mesma LG lançou uma versão com tela “menor” (65”) por R$ 25 mil. Conforme a fila andou, o preço caiu, e agora já é possível encontrar modelos com telas entre 40 e 50 polegadas por cerca de 10% desse valor. Aliás, o mesmo se deu com as TVs HD, que custavam mais de R$ 20 mil às vésperas da Copa de 2006, e hoje saem por pouco mais de R$1 mil. Com crise ou sem crise, a tendência é de queda e, como de costume, os pioneiros são reconhecidos pela flecha espetada no peito.

Note que, embora a nomenclatura 4K seja usada como sinônimo de ULTRA HD, o que ela designa, na verdade, é apenas uma das resoluções ULTRA HD (mais exatamente a resolução mínima, também conhecida como 2160p). Tecnicamente, o 8K também é uma resolução ULTRA HD, mas que tem 7680 colunas e 4320 linhas (4.320 pontos, daí os modelos que utilizam essa tecnológica trazerem a inscrição 4320p). Devido ao custo elevado de produção, o 8K ainda não é facilmente encontrado nas lojas, mas certamente virá a sê-lo dentro de algum tempo, daí eu dizer que comprar a “cereja do bolo” é investir no futuro. E como o preço dos aparelhos de topo de linha tende a cair conforme modelos com tecnologias mais sofisticados vão sendo lançados, a conclusão é óbvia.

Observação: O “p” das nomenclaturas 1080p, 2160p e 4320p vem de “progressive scan” (ou "varredura progressiva), e significa que as imagens são exibidas na tela “de uma só vez”. Para entender isso melhor, basta lembrar que as TVs antigas, “de tubo”, desenhavam as imagens de maneira “entrelaçada” ― ou seja, primeiro as linhas ímpares e depois as linhas pares ―, visando economizar largura de banda na transmissão. No entanto, como a varredura era feita em rápida sucessão, nosso cérebro se encarregava de “juntar” as imagens parciais, levando-nos a “enxergar” a imagem completa.

O que foi dito até aqui já foi discutido em outras oportunidades, mas resolvi revisitar o assunto por conta da tecnologia HDR (sigla em inglês para Aumento do Alcance Dinâmico), que vai ficar para a próxima postagem, que este texto já está longo demais. Abraços a todos e até lá.

DILMA E A DELAÇÃO DO FIM DO MUNDO

A Delação do Fim do Mundo deve jogar um caminhão de matéria fecal no ventilador e espalhar a aca por centenas de políticos, do presidente Michel Temer a seus deploráveis predecessores petistas, de ministros e ex-ministros a parlamentares e ex-parlamentares, de governadores e ex-governadores a funcionários do alto escalão de estatais e do próprio Executivo, enfim, por uma seleta confraria suprapartidária de (in)dignos representantes do povo brasileiro.

Ainda não se conhecem os detalhes dos 300 anexos que compõem a “mãe de todas as delações”, mas sabe-se que seu conteúdo é nitroglicerina pura. Segundo a Agência Estado, o Príncipe das Empreiteiras, que se relacionava diretamente com a impichada, já revelou que ela tinha total conhecimento do esquema de corrupção na Petrobras e da distribuição de propinas à base aliada do governo. Alguém se surpreende?

Mesmo livrando a estocadora de vento de acusações mais graves, a delação de Marcelo Odebrecht deve comprovar sobejamente que a petralha se beneficiou diretamente do produto da corrupção, e que as propinas não só ajudaram a custear sua campanha eleitoral como lhe permitiram saciar o apetite pantagruélico dos rufiões da pátria e proxenetas do Parlamento que davam apoio a seu imprestável governo. Em outras palavras, Dilma cometeu crimes continuados de prevaricação, e por eles deverá ser processada e julgada como cidadã comum, na 13ª Vara Federal Criminal de Curitiba. E de nada adianta ela alegar que não participou de nada, que não recebeu propina e que não tem contas no exterior, até porque Nestor Cerveró (lembra dele?) já havia declarado que a dita-cuja, então ministra da Casa Civil, sabia de tudo sobre a negociata da Refinaria de Pasadena.

Observação: A mulher sapiens já vinha sendo investigada no STF por obstrução da Justiça ― por nomear Marcelo Dantas para o STJ em troca da sua promessa de libertar altos executivos de empreiteiras envolvidas no Petrolão, dentre os quais (e especialmente) o próprio Marcelo Odebrecht, e por ter nomeado Lula para a Casa Civil, numa clara tentativa de lhe conceder prerrogativa de foro e tirá-lo do alcance da Lava-Jato e do juiz Sérgio Moro.

Resta saber quem vai em cana primeiro: Lula, Renan, Dilma? Façam suas apostas.

E.T. - No final da tarde de ontem, Renan foi apeado da presidência do Senado por uma decisão monocrática do ministro Marco Aurélio Mello. 
Cabe recurso ao plenário - que deverá se posicionar mesmo que o senador não o provoque, até porque a votação da ação que impede réus em processos penais de ocupar cargos que os coloquem na linha sucessória da presidência da República foi obstruída, no início do mês passado, por um pedido de vista do ministro Dias Toffoli. 
Agorinha há pouco (por volta do meio dia), foi dito que o STF deve julgar às 14h00 de amanhã a liminar do ministro Marco Aurélio. Já toffoli tem até o próximo dia 21 para devolver os autos do processo cujo julgamento seu pedido de vista obstruiu, mas como o recesso do Judiciário tem início no dia 20... 
Enfim, vamos ver no que dá mais esse imbróglio.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/