Mostrando postagens classificadas por relevância para a consulta o hardware e o software. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta o hardware e o software. Ordenar por data Mostrar todas as postagens

quinta-feira, 22 de agosto de 2019

AINDA SOBRE A EVOLUÇÃO TECNOLÓGICA

QUEM VIVE DE ESPERANÇA MORRE DE FOME.

Computadores são formados por dois subsistemas distintos, mas interdependentes: o hardware e o software. O primeiro é tudo aquilo que a gente chuta, e o segundo, o que a gente só pode xingar. Ou, numa definição mais elaborada: o hardware compreende os componentes físicos do aparelho — gabinete, processador, placas de sistema e de expansão, monitor etc. —, e o software, o sistema operacional, aplicativos, utilitários, enfim, àquilo que, no léxico da informática, se convencionou chamar de "programas" (conjuntos de instruções em linguagem de máquina que descrevem uma tarefa a ser realizada pelo computador, e podem referenciar tanto o código fonte, escrito em alguma linguagem de programação, quanto o arquivo executável que contém esse código).  

Combinada com a evolução tecnológica, a interdependência entre o hardware e o software origina um círculo vicioso (ou virtuoso). Componentes cada vez mais poderosos estimulam o desenvolvimento de programas ainda mais exigentes, e estes, cada vez mais capacidade de processamento, espaço em disco e na memória RAM, levando a indústria do hardware a robustecer ainda mais seus produtos — eis a razão pela qual PCs de última geração se tornam ultrapassados em questão de meses e obsoletos em dois ou três anos.

Devido à arquitetura modular, os "micros" das primeiras safras eram vendidos em kit, cabendo aos usuários montá-los ou recorrer a integradores especializados (Computer Guy). Operá-los também não era tarefa fácil, sobretudo quando não havia disco rígido nem sistema operacional (cada tarefa exigia que os comandos fossem introduzidos manualmente via teclado). Mais adiante, os programas seriam gravados em fita magnética (como as populares cassete que a gente usava antigamente para gravar e ouvir música) e depois em disquinhos magnéticos finos e flexíveis, conhecidos como disquete ou Floppy Disk.

Observação: A título de curiosidade, meu primeiro 286, além de uma winchester com capacidade para armazenar umas poucas centenas de megabytes, contava com um drive para disquetes de 5 ¼” e dois para modelos de 3 ½”, o que facilitava sobremaneira a cópia de arquivos e de programas — como os inevitáveis joguinhos, que se tornariam o principal meio de disseminação dos ainda incipientes vírus eletrônicos, e estes, o mote dos meus primeiros escritos sobre informática e segurança digital. Mas isso já é outra conversa.

Foi também graças à evolução tecnológica que o custo do megabyte baixou de assustadores US$ 200 para alguns centavos, permitindo que os HDDs, que levaram décadas para quebrar a barreira do gigabyte, se tornassem verdadeiros latifúndios. Hoje em dia, qualquer desktop ou notebook de configuração chinfrim conta com algo entre 500 GB e 1 TB de espaço em disco.

É importante não confundir espaço em disco com memória RAM. No jargão da informática, "memória" remete a qualquer meio destinado ao armazenamento de dados, mas, por convenção, sempre que falamos "genericamente" em memória estamos nos referindo à RAM, que é a memória física do computador e principal ferramenta de trabalho do processador. É nela que o sistema, aplicativos e demais arquivos são carregados — a partir do HDD, SSD ou outro dispositivo de armazenamento persistente — para serem processados/editados. Claro que eles não são carregados integralmente (ou não haveria RAM que bastasse), mas divididos em páginas (pedaços do mesmo tamanho) ou em segmentos (pedaços de tamanhos diferentes). Além das memórias física (RAM) e de massa (discos rígidos e drives de memória sólida), o computador utiliza outras tecnologias com finalidades específicas, como as memórias ROM, de vídeo, cache, flash etc., mas isso já é outra conversa.

Criado pela Sony no final dos anos 1960 e lançado comercialmente em 1971, o disquete embarcou na crescente popularização dos PCs e se tornou a solução primária para armazenamento externo e transporte de arquivos digitais. Mas nem tudo eram flores: além de oferecerem espaço miserável, os disquinhos eram frágeis e emboloravam e desmagnetizavam com facilidade. Os primeiros modelos, de 8 polegadas (cerca de 20 cm), comportavam míseros 8 KB. Nos de 5 ¼ polegadas, a capacidade inicial de 160 KB chegou a 1,2 MB em 1984, quando eles deixaram de ser produzidos. As versões de 3 ½ polegadas foram extremamente populares, a despeito de sua capacidade medíocre (1,44 MB). Versões de 2,88 MB e 5,76 MB chegaram a ser lançadas, mas por alguma razão não se popularizaram.

Observação: Considerando que seriam necessários cerca de 700 disquetes de 1.44 MB para armazenar 1 GB de dados, para gravar nesse tipo de mídia os arquivos de instalação do Win7 seriam necessários 11.000 disquinhos (que formariam uma pilha da altura de um edifício de 9 andares).

Com o advento das mídias ópticas (CD, DVD e Blu-ray), os disquetes se tornaram "coisa do passado". Mesmo assim, a Sony a fabricá-los até 2011, quando finalmente jogou a toalha. Deveria tê-lo feito bem antes: a virada do século trouxe o pendrive e, mais adiante, o HD externo  dispositivos de memória flash com interface USB que oferecem latifúndios de espaço. Somados aos drives virtuais (armazenamento em nuvem), essas tecnologias levaram os fabricantes de PC, que já tinham excluídos o drive de disquete de suas planilhas de custo, a eliminar também o drive de mídia óptica.

O resto fica para o próximo capítulo.

segunda-feira, 8 de março de 2021

WINDOWS — INICIALIZAÇÃO LENTA — COMO RESOLVER

SER DE ESQUERDA OU DE DIREITA SÃO MANEIRAS DE ESCOLHER SER UM IMBECIL, POIS AMBAS SÃO FORMAS DE HEMIPLEGIA MORAL.

O ideal seria ligarmos o computador e ele responder prontamente, como uma lâmpada responde ao comando do interruptor. Mas o mundo em que vivemos está longe de ser o ideal. Demais disso, é preciso ter em mente que um sistema computacional é composto por dois subsistemas sistemas distintos — mas complementares e interdependentes —, que são o hardware (aquilo que o usuário chuta) e o software (aquilo que ele xinga). E que, a despeito da evolução tecnológica havida nas últimas décadas, as limitações do pré-histórico BIOS e do jurássico disco rígido eletromecânico retardam a inicialização do Windows e impactam negativamente o desempenho global do PC (*).

hardware é a parte física do computador (gabinete, teclado, monitor, placa-mãe, placas de expansão, memórias etc.) e o software, a porção “lógica”, representada pelos programas (sistema operacional, aplicativos, utilitários etc.). No léxico da informática, “programa” remete a um conjunto de instruções (em linguagem de máquina) que descrevem uma tarefa a ser realizada, e pode referenciar tanto o código fonte (escrito em linguagem de programação) quanto o executável que o contém.

Qualquer dispositivo computacional (de mesa, portátil ou ultraportátil) é comandado por um sistema operacional, que embora seja essencialmente um programa, destaca-se dos demais por ser o responsável, dentre outras atribuições, pelo gerenciamento do hardware e do software, por prover a interface usuário/máquina e por servir como base para a execução dos aplicativos.

Toda vez que ligamos o computador, o BIOS realiza um autoteste de inicialização (POST, de power on self test), busca os arquivos de boot (respeitando a sequência declarada no CMOS Setup), “carrega” o sistema na memória RAM (não integralmente, ou não haveria memória que bastasse, mas  exibe a tradicional tela de boas-vindas. 

BIOS é a primeira camada de software do sistema computacional, ou seja, um programinha de “baixo nível”, como se costuma dizer, mas sem a conotação pejorativa com que essa expressão costuma ser utilizada. Ele é gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe.

CMOS é um componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria, que é responsável por manter essa memória energizada (para que não perca as informações toda vez que o computador é desligado).

Convencionou-se chamar boot ao processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema operacional assuma o comando da máquina. Numa tradução direta do inglês, boot significa bota ou botina, mas, no jargão da TI, é sinônimo de inicialização. Essa acepção advém da expressão “pulling oneself up by his own bootstraps” (“içar a si mesmo pelas alças das botinas”), e, por extensão, significa “fazer sozinho algo impossível de ser feito sem ajuda externa”. 

Observação: Segundo alguns autores, a adoção desse termo remota ao tempo em que os computadores usavam uma pequena quantidade de código para carregar instruções progressivamente mais complexas, num processo conhecido como bootstrapping.

"Fazer o Setup" consiste, por sua vez, em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.

(*) A exemplo de "focar", "impactar" é um verbo transitivo direto, mas uma confusão — bastante comum, aliás — costuma ocorrer nas construções em que se emprega o substantivo, que requer o complemento preposicionado (assim: focar o afeto, mas [ter] foco no afeto).  Além de repelir a preposição (na condição de verbo intransitivo, como em A greve impactou bastante), impactar pode ainda ser  transitivo direto (a greve impactou o serviço bancário), mas jamais "transitivo indireto", dependente da preposição "em", sendo errôneas, portanto, as frases: "O estudo impactou no resultado"; "As provas impactaram no julgamento da lide". Por outro lado, aquilo que causa impacto, causa impacto em, donde se admite, com acerto, em locução verbal, as frases: "O estudo causou impacto no resultado"; "As provas causaram impacto no julgamento da lide". Portanto, o erro de regência causa um grande e negativo "impacto".

Continua no próximo capítulo.

quinta-feira, 23 de maio de 2019

COMPUTADOR, SMARTPHONE, WINDOWS E UM POUCO DE HISTÓRIA — Parte Final


ÀS VEZES, O QUE SE TEM É SOMENTE AQUILO EM QUE SE ACREDITA.

Como já vimos, o computador é composto de dois segmentos distintos, mas interdependentes. O hardware é a parte física (gabinete, teclado, monitor, placa-mãe, placas de expansão, memórias etc.) e o software, os programas (sistema operacional, aplicativos, utilitários etc.). No léxico da informática, o termo programa designa um conjunto de instruções em linguagem de máquina que descreve uma tarefa a ser realizada pelo computador, e pode referenciar tanto o código fonte, escrito em alguma linguagem de programação, quanto o arquivo executável que contém esse código.

Qualquer dispositivo computacional atual, dos (já quase obsoletos) desktops aos notebooks que a gente levava de um lado para outro antes de os smartphones se tornarem capazes de substituí-los na maioria das situações, conta com um sistema operacional, que, tecnicamente, é um programa como qualquer outro, ainda que seja considerado (muito apropriadamente) como o software-mãe, uma vez que cabe a ele gerenciar o hardware e o software, prover a interface entre o usuário e a máquina (e vice-versa) e servir como base para a execução dos demais programas. 

Embora o Mac OS e as distribuições Linux sejam bastante populares, o Windows é o sistema operacional para PCs mais usado em todo o mundo — nos smartphones e tablets a liderança fica com o Android, não só por ele ser um sistema de código aberto, mas também devido ao fato de que, como os demais produtos da Apple, o iPhone, que utiliza o iOS, esbanja excelência, mas custa caro, sobretudo no Brasil, onde a carga tributária é escorchante.

Os arquivos de instalação do MS-DOS e das edições 3.x do Windows ocupavam uns poucos disquetes de 1,44 MB. O Win/95, que já era um sistema operacional autônomo (ou quase isso), foi o primeiro a ser fornecido tanto em disquetes (13 disquinhos) quanto em CD-ROM, mas as versões subsequentes foram se tornando mais volumosas — para armazenar os arquivos de instalação do Windows 7, por exemplo seriam necessários mais de 2.000 disquetes, e bastaria um deles embolorar ou desmagnetizar para comprometer todo o conjunto. 

Atualmente, muita gente vê o MS-DOS como “coisa do passado”, mas o prompt de comando (e, mais recentemente, o Windows PowerShell) continua presente, visando auxiliar o usuário na execução de tarefas que não podem ser convocadas via interface gráfica ou que demandam o uso diferenciado de recursos do computador como diagnósticos de rede, manutenções avançadas do sistema e por aí vai. Alguns desses procedimentos podem ser realizados também via menu Executar, mas isso já é outra história e fica para outra vez.

O Vista, a exemplo do ME antes dele e do Windows 8 mais adiante, foi um fiasco de crítica e de público, mas se notabilizou por ser a primeira edição fornecida em DVD. O XP foi a encarnação do Windows mais longeva, e o Seven segue o mesmo caminho, visto que muitos usuários não se entusiasmaram com o Vista e relutaram em fazer o upgrade para o Windows 10, que foi lançado em 2015 como serviço e disponibilizado gratuitamente até meados de 2016 (se for o seu caso, fique atento, porque o suporte estendido do Windows 7 termina em janeiro do ano que vem, e o do Eight, em janeiro de 2023.

Sistemas e programas atuais são monstruosas obras de engenharia computacional. Para se ter uma ideia, o Seven é formado por cerca de 40 milhões de linhas de código; o Office 2013, por 50 milhões; o Mac OS X “Tiger”, por quase 90 milhões. Claro que para rodar essas monstruosidades com desenvoltura é preciso que o hardware seja compatível. Nos PCs de fabricação mais ou menos recente, espaço em disco não é problema, já que até os modelos de entrada de linha já trazem drives de HDD com 500 ou mais gigabytes, mas processador chinfrim e pouca memória física (RAM) podem comprometer dramaticamente o desempenho do sistema e do computador com um todo. E é bom não se fiar nos requisitos mínimos informados pela Microsoft, que é modesta quando lhe convém; para rodar o Windows 10 com desenvoltura e a maioria dos apps que utilizamos no nosso dia-a-dia, o ideal é dispor de uma CPU de respeito e algo entre 4 e 8 gigabytes de RAM.

O código-fonte do Windows 10 ocupa meio terabyte e se estende por mais de 4 milhões de arquivos (para ter uma ideia do tamanho desse imbróglio, siga este link). A maior parte do kernel (núcleo) sistema é escrita em C, mas outras linguagens de programação, como C #, JavaScript, TypeScript, VB.NET e C++ também são utilizadas (à medida que nos aproximamos do modo de usuário e de desenvolvimentos mais recentes, encontramos menos C e mais C++). A árvore completa, com todo os códigos-fonte, o código de testes e tudo o que constitui o "código-fonte do Windows" tem mais de meio terabyte de tamanho, com dados espalhados em mais de 4 milhões de arquivos. Em nível de código, um programador levaria cerca de um ano para localizar manualmente uma pasta específica (são mais de 500 mil) e “uma vida inteira” para ler tudo. Pense nisso se você achar que esta sequência de postagens ficou muito grande.

quinta-feira, 6 de outubro de 2016

SOBRE SISTEMAS OPERACIONAIS

AS PESSOAS QUE SÃO LOUCAS O SUFICIENTE PARA ACHAR QUE PODEM MUDAR O MUNDO SÃO AQUELAS QUE O MUDAM.

A despeito de ser o “software-mãe” do PC (ou do tablet, ou do smartphone, que, como já vimos, nada mais são do que computadores “ultra portáteis”), o sistema operacional é um programa de computador como outro qualquer. Ou quase isso, como veremos no decorrer desta matéria.

Um computador é composto por dois segmentos distintos, mas interdependentes e complementares: o hardware e o software. O primeiro corresponde aos componentes "físicos" ― gabinete e seus componentes internos, teclado, mouse, monitor de vídeo, etc. ― e o segundo, ao sistema operacional e demais aplicativos e utilitários (*). Numa definição “engraçadinha”, hardware é aquilo que a gente chuta, e software, o que a gente xinga.  

No âmbito da informática, o termo “programa” designa conjuntos de instruções em linguagem de máquina que nos permitem operar o computador. O sistema operacional se encaixa nessa definição, mas por ser responsável pelo gerenciamento do hardware, pelo suporte aos aplicativos e pela execução de uma vasta gama de tarefas essenciais ao funcionamento da máquina como um todo, sua importância é diferenciada. Em última análise, podemos dizer que, sem um SO, um computador não passa de “um corpo sem alma”, um conjunto de peças sem qualquer utilidade prática.

Observação: Os aplicativos são softwares que se destacam pela interface amigável, por serem capazes de gerar arquivos que podem ser salvos e por auxiliarem o usuário a executar tarefas específicas no computador. Por exemplo, para escrever um texto, usamos um processador de textos (como o famoso MS Word), para trabalhar com fotos e figuras, recorremos a um editor de imagens (como o festejado Photoshop), para navegar na Web, utilizamos um browser (como o popular Google Chrome), e assim por diante. Já os utilitários são ferramentas, digamos assim, que usarmos para realizar outras tarefas, como a compactação de arquivos e rotinas de manutenção. No mais das vezes, eles fazem parte de outros programas ou são componentes nativos do próprio sistema (caso das ferramentas administrativas do Windows, por exemplo).  

O Windows foi criado pela Microsoft no início da década de 80 e vem sendo aprimorado ao longo de suas várias edições. Ele não foi o primeiro e tampouco é o único sistema para computadores pessoais, mas é, sem dúvida alguma, o mais bem-sucedido (as versões XP e posteriores, somadas, dominam quase 80% do mercado, quando o festejado Mac OS, da Apple, mal chega a 10%). Até o lançamento da edição 95, o Windows era apenas uma interface que rodava no MS-DOS ― esse, sim, o primeiro SO criado pela Microsoft. Ou quase, porque quando a IBM resolveu lançar sua versão de computador pessoal e encomendou o sistema à Microsoft ― que até então jamais tinha desenvolvido um software dessa magnitude ―, Bill Gates comprou o QDOS de Tim Paterson por US$50 mil, adaptou-o ao hardware da IBM e mudou o nome para MS-DOS.

O acrônimo DOS (de Disk Operating Disk) integra o nome de diversos sistemas operacionais ― como o Free DOS, o PTS-DOS, o DR-DOS, etc. ―, mas o mais emblemático foi mesmo o MS-DOS. Esse sucesso foi fundamental para o desenvolvimento da Microsoft e crescimento da fortuna pessoal de Gates, que hoje, segundo a Forbes, é de quase US$ 90 bilhões. Mas isso já é outra história.

Amanhã a gente complementa.

CHEGA DE PRAZOS!

Uma postagem publicada anteontem no site O Antagonista, sob o título CHEGA DE PRAZOS, relembra que, em agosto, Edson Fachin concedeu mais prazo para a defesa de Renan Calheiros se manifestar sobre denúncia apresentada pela PGR (na oportunidade, disse também o ministro que já nem sabe quem é o advogado do senador, que, ao longo do inquérito, trocou de representante nada menos que 17 vezes). Sobre esse assunto, em documento enviado ao STF, Rodrigo Janot escreveu o seguinte: “A conclusão lógica, portanto, é de que a presente causa está pronta para deliberação, pelo Pleno dessa Corte, acerca da admissibilidade da acusação formulada pelo Ministério Público. Por tais razões, vale destacar que não é necessária a reabertura de novo prazo para defesa se manifestar, uma vez que esta já teve oportunidade de apresentar todos os seus argumentos de que dispunha”.

Observação: Eu já havia concluído a composição deste texto quando soube pelo JN que Fachin liberou para o julgamento em plenário a denúncia contra Renan Calheiros. Ainda não há data marcada para o julgamento e é pouco provável que ele ocorra em outubro, porque a ministra Cármen Lúcia já definiu a pauta do mês. Todavia, se o plenário acolher a denúncia, o que é a hipótese mais provável, o presidente do Senado será promovido a réu ― vale lembrar que ele responde a outros dez inquéritos no STF, sendo sete na Lava-Jato ― e poderá ser excluído da linha sucessória da Presidência da República (na ausência do presidente da República, assume o vice e, na sequência, os presidentes da Câmara, do Senado e o do STF, nessa ordem). A Rede questionou a validade da linha sucessória para autoridades que respondem a ação penal, mas a questão ainda não foi julgada pelo tribunal.

Na mesma linha eminentemente protelatória, a defesa do ex-presidente petralha e digníssima senhora pediram ao juiz Sergio Moro a dilação do prazo para sua defesa prévia (prazo esse que termina na próxima sexta-feira, 7), argumentando que os procuradores do MPF tiveram 55 dias para analisar as mais de 16 mil páginas de documentos anexados à denúncia, e que, portanto, postulando isonomia de tratamento.

Observação: Vale relembrar que o Ministério Público Federal denunciou Lula, Marisa e outras seis pessoas, e que, de acordo com o procurador Deltan Dallagnol, as provas apresentadas não deixam dúvidas de que o ex-presidente era “o comandante máximo do esquema de corrupção identificado na Lava Jato”.

O pedido dos advogados do molusco abjeto não rebate em nenhum momento as acusações do MPF ― aliás, seus defensores insistem em dizer que não reconhecem a imparcialidade do juiz Sérgio Moro e dos procuradores que ofereceram a denúncia. Resta agora aguardar a decisão do magistrado.

Nesse entretempo, a despeito da pressão dos aliados para que assuma o comando do PT e seja alçado à presidência nacional do partido, Lula defende “uma cara nova” para o lugar de Rui Falcão e sugere o nome de Jaques Wagner ― até porque, de acordo com a Folha, o petralha está mais preocupado com sua defesa na Lava-Jato e em elaborar “um novo projeto para a esquerda do país”. Tempo não lhe faltará quando estiver “gozando longas férias” no Complexo Penal de Pinhais, em Curitiba. E viva o juiz Sérgio Moro!

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

segunda-feira, 4 de julho de 2022

A IRRITANTE DEMORA NA INICIALIZAÇÃO DO PC

O PODER ATRAI O PIOR E CORROMPE O MELHOR.

Os PCs evoluíram muito desde os anos 1970, mas ainda não “ligam” tão rapidamente quanto uma lâmpada. A energia elétrica é fundamental em ambos os casos, mas, no caso do computador, o boot e a inicialização do sistema vão muito além de simplesmente incandescer um filamento. 

 

Os PCs são formados por dois subsistemas distintos, mas complementares. No pré-história da computação pessoal, definia-se o hardware como aquilo que o usuário podia chutar, e o software, como o que ele só podia xingar.

 

O tempo que a máquina leva para inicializar depende de diversos fatores. Depois de migrar para o Win11, meu Dell Inspiron passou demorar mais de 1 minuto para exibir a tela de boas-vindas e outros 4 ou 5 minutos para me deixar começar a trabalhar. No meu Mac Pro, a tela inicial surge em poucos segundos e basta eu digitar a senha para ter total controle sobre o sistema e os aplicativos. 


Observação: O “problema” do portátil é o jurássico HDD (de 2 TB e 5400 RPM), muito mais lento que o SSD PCI Express com NVMe do Mac.

 

A demora na inicialização do Windows sempre me incomodou. A Microsoft prometia maior agilidade toda santa vez que lançava uma nova versão, mas o software foi se agigantando e uma configuração de hardware responsável custa os olhos da cara (rodar o Win11 sem SSD e pelo menos 6 GB de RAM é uma teste de paciência).

 

Muita coisa acontece do momento em que ligamos o computador até o instante o software se torna “operável”. Nesses preciosos segundos (ou longos minutos, conforme o caso), o BIOS (ou o UEFI, também conforme o caso) realiza um autoteste de inicialização (POST, de Power On Self Test), busca os arquivos de inicialização (respeitando a sequência declarada no CMOS Setup), e “carrega” na RAM os drivers, as DLLs e outros arquivos essenciais ao funcionamento do computador, bem como o sistema na RAM (não integralmente, ou não haveria memória que bastasse). 


O BIOS (de Basic Input/Output System) é primeira camada de software do computador. Trata-se de um programinha de “baixo nível” gravado pelo fabricante num chip de memória não volátil, que depois é integrado à placa-mãe. O UEFI (de Unified Extensible Firmware Interface) faz basicamente a mesma coisa, mas muito mais rapidamente. Já o CMOS (de Complementary Metal Oxide Semiconductor) é componente de hardware composto por um relógio permanente, uma pequena porção de memória volátil e uma bateria — que mantém essa memória energizada para que as informações não se percam quando desligamos o computador.

 

O “boot” é o processo mediante o qual o BIOS checa as informações armazenadas no CMOS, realiza o POST e, se tudo estiver nos conformes, carrega o Windows e sai de cena, permitindo que o sistema assuma o comando da máquina e o usuário, o comando do sistema. Numa tradução direta do inglês, boot significa bota ou botina, mas seu uso no âmbito da informática remete à expressão “pulling oneself up by his own bootstraps”, que podemos traduzir por “içar a si mesmo pelas alças das botinas” e, por extensão, por “fazer sozinho algo impossível de ser feito sem ajuda externa”. 

 

Observação: Fazer o Setup” consiste em oferecer respostas a uma sequência de perguntas (do tipo múltipla escolha) que permitem ao BIOS reconhecer e gerenciar o hardware, “dar o boot” e realizar outras tarefas básicas inerentes ao funcionamento do computador.


Continua...

quarta-feira, 26 de maio de 2021

SOBRE SISTEMAS E APLICATIVOS

TUDO PARECE IMPOSSÍVEL ATÉ QUE SEJA FEITO.

Hoje em dia, qualquer computador, seja ele de grande porte, de mesa, portátil ou ultraportátil, é controlado por um sistema operacional. Até porque, sem esse “software-mãe”, o aparelho é como um corpo sem vida. Mas nem sempre foi assim. 

Os mastodontes eletrônicos que povoaram a Terra na pré-história da cibernética não possuíam sistemas operacionais, e por um motivo muito simples: naquela época, não existiam sistemas operacionais. Consequentemente, operar aqueles jurássicos monstrengos era extremamente trabalhoso, pois exigia “abastecer” o hardware manualmente com as informações necessárias à realização de cada tarefa.

Observação:  Um sistema computacional é formado por dois subsistemas distintos, mas complementares e interdependentes: o hardware — que corresponde à parte física do conjunto (gabinete, teclado, monitor, placa-mãe, placas de expansão, memórias etc.) — e o software — a parte lógica do computador (sistema operacional, aplicativos, drivers de dispositivos, BIOS, etc.).

No que concerne à linguagem de programação, os vetustos computadores dos anos 1950/60 operavam com dois tipos de linguagem: a linguagem de máquina, a partir do qual toda a programação era feita, e a lógica digital, a partir da qual os programas eram efetivamente executados. Até que um belo dia alguém teve a ideia de criar um interpretador, que passou a executar os programas escritos em linguagem de máquina. Com isso, o hardware passou a executar apenas um pequeno conjunto de microinstruções armazenadas, o que não só permitiu reduzir significativamente a quantidade de circuitos eletrônicos, como também facilitou bastante o trabalho dos operadores/programadores.

Observação: Em linhas gerais, o interpretador é um programa que lê um código-fonte a partir de uma linguagem de programação interpretada e o converte num código executável.

No que concerne à tecnologia, pode-se dizer que os primeiros sistemas operacionais estão para os atuais como o Ford T para o Mustang Mach1. De início, cada computador tinha um sistema específico (que só rodava nele e que só ele era capaz de rodar), o que resultava numa pluralidade de arquiteturas que, por sua vez, exigia que os operadores se familiarizassem com as diversas variantes disponíveis no mercado. Mas isso são águas passadas.

Dentre outras funções essenciais ao funcionamento do computador, o sistema operacional gerencia o hardware, atua como elemento de ligação entre os componentes físicos e o software, provê a interface usuário/máquina, serve de base para a execução dos aplicativos, etc. No entanto, a despeito de sua relevância, ele é um programa como outro qualquer. Demais disso, por mais “eclético” que um sistema seja (como é o caso do Windows), ele não é capaz de suprir todas as necessidades do usuário nas tarefas do dia a dia, até porque não foi projetado para isso. O que nos leva aos aplicativos.

Aplicativos nada mais são que programas desenvolvidos com vistas à execução de tarefas específicas. No âmbito da informática, um programa é um conjunto de instruções em linguagem de máquina que descreve uma tarefa a ser realizada pelo computador. Instrução, no caso, é o nome que se dá a uma operação única executada por um processador — que pode ser qualquer representação de um elemento num programa executável, tal como um bytecode (formato de código intermediário entre o código fonte, o texto que o programador consegue manipular e o código de máquina que o computador consegue executar). Por conjunto de instruções, entende-se a representação do código de máquina  em mnemônicos

Se um computador sem sistema operacional é como um corpo sem vida, um sistema sem aplicativos é um ser vivo, mas sem alma. Ou quase isso, já que tanto Windows quanto o MacOS, as distribuições Linux, o Android, o iOS e outros que tais passaram a integrar, a cada nova versão, mais e mais recursos nativos que lhes permitem realizar uma vasta gama de tarefas que até então dependiam de programas de terceiros. Por outro lado, o que se espera atualmente de um computador vai muito além do que se esperava anos atrás, sobretudo depois que o acesso à Internet se popularizou entre os usuários domésticos de PCs, smartphones, tablets e que tais.

Continua na próxima postagem.

segunda-feira, 23 de novembro de 2020

BUGS, SOFTWARE COMO SERVIÇO, 32-BIT OU 64-BIT, EIS A QUESTÃO (PARTE VI)

CADA UMA QUE PARECE DUAS...

O computador é formado por dois segmentos distintos, mas interdependentes e complementares: o hardware e o software

O primeiro engloba os componentes "físicos" do aparelho, como gabinete, teclado, mouse, monitor de vídeo, etc.) e o segundo, o sistema operacional e demais aplicativos. Ou, como se dizia no alvorecer da computação pessoal, o hardware é aquilo que o usuário chuta e software, o que ele xinga.  

Portanto, existe uma relação intrínseca entre o hardware e o software, e a questão dos “32-bit ou 64-bit” suscita dúvidas quando se pensa em comprar um PC novo ou fazer um upgrade de sistema operacional (coisa que já deveria ter feito quem ainda usa o Windows 7, por exemplo, mesmo porque, inobstante o prazo concedido pela Microsoft para o upgrade gratuito ter se esgotado em julho de 2016, continua sendo possível fazer a migração sem gastar um tostão).

Tanto os fabricantes de microchips quanto os desenvolvedores de software aposentaram a arquitetura de 16-bit, que era a bola da vez quando a Microsoft lançou as primeiras versões do Windows. E o modelo 32-bit não tarda a ter o mesmo destino.

O termo “computador de 32 ou 64 bits” diz respeito à arquitetura do processador e do sistema operacional empregados em uma determinada máquina. Atualmente, os chips são capazes de processar dados e executar instruções de 32-bit ou de 64-bit, e tanto os sistemas operacionais quanto a maioria dos aplicativos têm versões compatíveis com essas duas tecnologias.

Do ponto de vista técnico, uma CPUs de 32-bit consegue processar “palavras” (sequência de bits) de até 32 bits, enquanto outra, de 64-bittrabalha com “palavras” de até 64 bits, ou seja, o dobro de informações. Dito de outro modo, chips de 32-bit realizam duas ou mais “viagens” (uma a cada ciclo de clock) para interpretar determinadas informações, ao passo que os de 64-bit realizam apenas uma. 

Observação: A capacidade do chip de manipular uma quantidade maior de bits não altera sua velocidade (frequência de operação), mas resulta em melhor desempenho do computador como um todo. Volto a dizer (posto que já o fiz no capítulo anterior) que mais importante do que a frequência de operação propriamente dita é o que o processador é capaz de fazer em cada ciclo de clock.

A Microsoft começou a disponibilizar as duas versões do seu sistema (x86, ou 32-bit, e x64, de 64-bit) a partir do Win XP, depois que a AMD (arquirrival da Intel no segmento de processadores) lançou seu inovador chip de 64-bit. Há cerca de seis meses, a empresa de Redmond anunciou que deixará de fornecer aos fabricantes parceiros o Windows 10 x86, mas continuará oferecendo suporte aos usuários dessa edição por tempo indeterminado. Vale salientar que mais de 90% dos PCs vêm de fábrica atualmente com o Win 10 64-bit pré-instalado.

Detalhar as diferenças entre as duas tecnologias foge ao escopo desta matéria, sem falar que a opção mais adequada para cada usuário é a que melhor atende suas expectativas e necessidades. Mesmo assim, quando se vai escolher um computador ou fazer um upgrade de sistema operacional deve-se ter em mente que CPUs de 64-bit podem rodar tanto as versões x86 quanto as x64 do Windows, mas chips de 32-bit suportam apenas versões x86 (conquanto as executem com maior desenvoltura). Note que é possível executar aplicativos de 32-bit em máquinas com sistema operacional e processador 64-bit, ainda que cada qual “se dê melhor no seu quadrado”.

Continua no próximo capítulo.

segunda-feira, 13 de junho de 2022

DO ÁBACO AO SMARTPHONE (SÉTIMA PARTE)

QUANDO PASSAR A SERVIR AO POVO, E NÃO APENAS AO INTERESSE DE ALGUMAS CLASSES, A POLÍTICA SERÁ A SALVAÇÃO DO MUNDO. 

 

Quando não há memória RAM suficiente, o processador desperdiça preciosos ciclos de clock esperando a memória virtual entregar os dados solicitados. Isso porque a memória virtual é baseada da memória de massa, e se até mesmo os modernos drives de memória sólida (SSD) são mais lentos que a já relativamente lenta memória RAM, que se dirá dos jurássico HDDs? (Mais detalhes sobre memórias nos posts dos dias 26 e 27 do mês passado.)

 

O computador é formado por dois subsistemas distintos, mas interdependentes: o hardware e o software. O hardware se subdivide basicamente em processador, memória e dispositivos de I/O (entrada e saída de dados). O processador é considerado o “cérebro” do computador, já que é responsável pelo acesso e utilização da memória e dos dispositivos de I/O. No que tange ao software, relembro apenas que sistemas operacionais, aplicativos e demais programas consistem em uma série de instruções que o processador executa ao realizar suas tarefas. 


Para ler um dado presente na RAM, a CPU o localiza pelo barramento de endereços, acessa-o pelo barramento de controle e o insere no barramento de dados, onde se dá a leitura propriamente dita. O clockexpresso em múltiplos do Hertz (kHz, MHz, GHz, é o responsável pela perfeita sincronização das atividades. Para simplificar, podemos compará-lo a um sinal de trânsito: a cada ciclo, os dispositivos executam suas tarefas, param, e então seguem para o próximo ciclo. 


clock interno corresponde à frequência de operação da CPU. Um chip com clock de 3.5 GHz realiza 3,5 milhões de operações por segundo, mas o que ele é capaz de fazer em cada operação é outra história. Devido a limitações físicas que impedem o processador de se comunicar com o controlador da memória (que geralmente fica na ponte norte do chipset) na mesma velocidade do clock interno, isso é feito através do clock externo.

 

Observação: O clock interno é um múltiplo do clock externo obtido pelo multiplicador de clock Supondo que o clock externo seja de 100 MHz e o processador trabalhe a 1.6 GHz (ou seja, tem clock interno de 1,6 GHz), o multiplicador é ajustado para 16x (16 x 100 MHz = 1.600 MHz ou 1.6 GHz).

 

Processadores de marcas e/ou versões diferentes podem operar na mesma frequência e apresentar desempenhos distintos, conforme o projeto e as características de cada um. A performance depende do que o chip é capaz de faz em cada ciclo de clock. Um processador pode executar uma instrução em dois ciclos de clock, por exemplo, enquanto outro, de igual frequência de operação, pode precisar de três ou quatro ciclos para executar a mesma instrução. 

 

Como vimos no último dia 7, a quantidade de bits (32 ou 64) também influencia diretamente o desempenho do processador (e do computador), a exemplo do cache de memória. Trata-se de uma pequena quantidade de SRAM — RAM estática, muito mais veloz, mas bem mais cara que a RAM convencional — destinada a armazenar (temporariamente) dados e instruções que o processador acessa mais amiúde.


Observação: O cache L2 passou a ser usado quando o L1 se tornou insuficiente. O L1 ficava originalmente no núcleo do processador, e o L2, na placa-mãe. Mais adiante, ambos foram embutidos no chip. Alguns processadores dispõem de um terceiro nível de cache. O AMD K6-III, lançado em 1999, tinha caches L1 e L2 internos e L3 externo. Outro exemplo é o Intel Core i7 3770, no qual cada núcleo dispõe de caches L1 e L2 relativamente pequenos e compartilha com os demais o cache L3, que é bem maior.

 

O Intel Celeron, lançado em 1998 para equipar PCs de entrada de linha (baixo custo), era basicamente um Pentium II castrado (sem cache L2). Como não há almoço grátis, o preço mais baixo resultava em desempenho inferior. Felizmente, o Celeron 600 (MHz) que equipava um PC que eu comprei na virada do século aceitou um overclock que elevou sua frequência para 933 MHz, mas me obrigou a trocar o cooler e o respectivo fan (microventilador) para dissipar o calor adicional resultante do “upgrade”.   

 

Continua...

quinta-feira, 21 de fevereiro de 2019

AINDA SOBRE O DESEMPENHO DO PC


O HOMEM É ESSENCIALMENTE GANANCIOSO, TODO HOMEM INVESTIDO DE PODER É TENTADO A ABUSAR DELE.

Eu já disse, mas não custa repetir: um PC de configuração chinfrim é como um veículo popular 1.0: ambos se movem, mas nenhum deles tem um desempenho de tirar o fôlego. 

No caso do computador, minha recomendação sempre foi priorizar uma configuração equilibrada — um processador de ponta só mostra do que é capaz se contar com a contrapartida das memórias (física e de massa). Seria como numa orquestra, onde o maestro só consegue proporcionar um bom espetáculo se contar com músicos competentes, afinados e entrosados entre si. Substitua a orquestra pelo computador, o maestro pelo processador e os músicos pelos demais componentes e você terá uma boa ideia do que eu estou querendo dizer.

Observação: O computador é formado por dois segmentos distintos, mas interdependentes: o hardware e o software. O primeiro é a parte física — ou aquilo que você chuta — e o segundo, a parte “invisível” — ou aquilo que você xinga. Sistemas e programas (isto é, o software) estão cada vez mais exigentes (por recursos de hardware, como processamento, memória, etc.). Comprar um desktop de entrada de linha, daqueles que custam pouco mais de mil reais, e querer rodar programas como o Adobe Photoshop e games radicais, por exemplo, é arrependimento garantido. E ainda que seja possível fazer um upgrade posterior (de memória, HDD, e até de processador), o molho costuma sair mais caro do que o peixe. Então, ao escolher um PC, não se baseie unicamente pelo preço — nem tudo que é caro é bom, mas o que é bom geralmente custa mais caro.

Se você acha que seu PC ainda dá caldo — ou que o momento não é indicado para comprar uma máquina mais adequada às suas expectativas —, reveja as dicas que eu publiquei ao longo das últimas postagens e ponha em prática as que você achar que podem ajudar. Adicionalmente, remova todos os inutilitários, instale uma boa suíte de manutenção, faça uma faxina em regra no sistema, corrija eventuais erros no disco rígido e desfragmente os dados

O Windows dispõe nativamente de um limpador de disco e de ferramentas para corrigir erros e desfragmentar os dados no HDD, mas eu uso e recomendo o Advanced System Care e/ou o CCleaner (detalhes nas postagens anteriores), cuja gama de funções vai bem além dos limitados recursos dos utilitários nativos do sistema.

Manter o Windows e os demais aplicativos atualizados é fundamental. Clique em Configurações > Atualização e segurança > Windows Update > Verificar atualizações e instale todas as atualizações críticas, de segurança e de driver. Os programas "não Microsoft" não são contemplados pelo WU, mas a maioria avisa quando há atualizações disponíveis; para os que não o fazem, ou você faz o trabalho manualmente, ou recorre a ferramentas como o FILEHIPPO APP MANAGER, o OUTDATEFIGHTER, o R-UPDATER e o KASPERSKY SOFTWARE UPDATER, que poupam um boado de tempo e trabalho.

É verdade que um outro patch pode produzir resultados inesperados e indesejados, mas a Microsoft procura solucionar o problema com a possível urgência, e não é por causa de uma laranja podre que você vai jogar fora a caixa inteira. No geral, as atualizações aprimoram a segurança e o funcionamento do sistema como um todo, devendo ser implementadas sempre que estiverem disponíveis.

Desde que começaram a ser usados em PCs domésticos, os antivírus foram eleitos os grandes culpados pela lentidão do computador. É fato que a maioria deles tem um apetite voraz por recursos (processamento, memória, etc.), e que, para piorar, esse é o tipo de programa que precisa ser carregados na inicialização do sistema. Embora seu impacto no desempenho costume ser mais sentido durante as varreduras, é recomendável usar antivírus mais “leves” em máquinas de configurações mais pobres.

Observação: Uma alternativa ao antivírus é a virtualização do sistema (detalhes nesta postagem), mas eu considero essa solução mais adequada a computadores públicos (como os de lanhouses, cibercafés etc.) do que aos domésticos.

Se sua máquina estiver particularmente lenta e você tiver motivos para suspeitar do antivírus, experimente desativá-lo temporariamente e veja como o sistema se comporta. Se a melhora for palpável, substitua a ferramenta por outra que drene menos recursos (eu gosto muito do AVAST PREMIER, mas não tome qualquer decisão sem analisar o TOTAL AV, o PC PROTECT e o KASPERSKY INTERNET SECURITY, além, é claro, dos festejados produtos da SYMANTEC).

Volto a frisar que a influência do drive de disco rígido (memória de massa) no desempenho global do sistema é significativa. Os modelos baseados em memória sólida (SSD) vêm substituindo (a conta-gotas) os eletromecânicos, mas unidades de grandes capacidades ainda custam muito caro. Drives híbridos reúnem o melhor dos dois mundos, combinando um SSD de pequena capacidade (64 GB, p.e.) com um HDD convencional (eletromecânico). Assim, a memória sólida funciona como cache, armazenando os aquivos mais usados e agilizando o acesso a eles, enquanto os pratos magnéticos se encarregam dos demais conteúdos (música, vídeo, imagem, texto, etc.). Note que o processo é transparente e automático, ou seja, tanto o usuário quanto o sistema "enxergam um drive comum”.

Cumpre salientar que a desfragmentação de drives de memória sólida é desnecessária e desaconselhável, mas os modelos convencionais devem ser desfragmentados quinzenal ou mensalmente, conforme o uso do computador. Antes de executar a desfragmentação, veja qual o percentual de espaço livre na unidade. Se mais de 70% do total estiver ocupado, ponha as barbichas de molho (mais detalhes na próxima postagem).

O desfragmentador nativo do Windows 10 cumpre sua função, mas eu uso e recomendo o Smart Defrag, que é rápido, amigável, e oferece recursos como a desfragmentação off-line (feita durante a inicialização, de modo a contemplar arquivos que ficam inacessíveis quando o sistema está carregado), a otimização (que regrava os arquivos do sistema no início do disco para aprimorar o desempenho), a consolidação do espaço livre, e por aí vai.

É o que tínhamos para hoje, pessoal. Volto amanhã com mais dicas sobre o HDD e o desempenho do PC.

segunda-feira, 3 de agosto de 2020

SISTEMA OPERACIONAL, APLICATIVOS E INUTILITÁRIOS

ESNOBAR É EXIGIR CAFÉ FERVENDO E DEIXAR ESFRIAR.

Antes de passar ao mote deste post, relembro que um sistema computacional é formado por dois subsistemas distintos, mas interdependentes, que são o hardware e o software (para mais detalhes, clique aqui).

Por “software”, entenda-se o sistema operacional, os aplicativos, os drivers e outros programinhas de baixo nível sem os quais o hardware não passa de um amontoado de componentes inúteis — ou, numa definição mais “poética”, não passa de um corpo se alma. 

Tecnicamente, o sistema operacional é um programa como outro qualquer (por programa, entenda-se um conjunto de instruções em linguagem de máquina que descrevem uma tarefa a ser realizada pelo computador). No entanto, além de suas rotinas e serviços serem responsáveis pelo gerenciamento do hardware e servirem de base para os demais aplicativos, ele faz o papel de interface de comunicação entre o usuário e a máquina e vice-versa (clique aqui para acessar o primeiro capítulo de uma abordagem detalhado que publiquei algum tempo atrás), daí o sistema ser tido e havido como uma espécie de "software-mãe".

Os PCs dos tempos de antanho (ou “micros”, como eram carinhosamente chamados pelos usuários de então) não dispunham de sistema operacional; as aplicações precisavam interagir diretamente com o hardware — daí elas serem escritas em linguagem de máquina e direcionadas a uma determinada arquitetura não funcionava nas demais.

Com o advento do SO, ficou mais fácil escrever as aplicações e menos complicado operar o computador, já que o “software-mãe” assumiu a tarefa de fazer a “intermediação” entre o usuário, os aplicativos e o hardware (lembrando que mesmo atualmente as aplicações voltadas ao Windows não rodam no macOS, por exemplo, e vice-versa).

Continua na próxima postagem.

sexta-feira, 22 de maio de 2020

AINDA SOBRE ATUALIZAÇÕES PROBLEMÁTICAS NO WINDOWS 10 (PARTE 5)

TEM DIAS QUE DE NOITE FAZ ASSIM.

Nos primórdios da computação pessoal (décadas de 1960 e 70), diferentes fabricantes disputavam o mercado, cada qual desenvolvendo seus próprios computadores a partir de componentes incompatíveis entre si — em outras palavras, o hardware e o software utilizados numa determinada arquitetura não funcionavam nas arquiteturas dos concorrentes. 

Essa "torre de babel" foi pacificada, nos anos 1980, pela plataforma IBM PC, cuja arquitetura aberta — ou seja, baseada num conjunto de padrões que permitia misturar componentes, periféricos e softwares de fabricantes diferentes — tornou-se padrão no marcado (em contraposição com a arquitetura proprietária, ou fechada, que a Apple usava então e continua usando até hoje, desenvolvendo tanto o hardware quanto o software que utiliza em seus produtos).

Combinada com a apreço dos americanos pelo DIY (sigla de do it yourserlf, ou “faça-você-mesmo”), a arquitetura aberta propiciou a comercialização de PCs na forma de kits. Assim, o consumidor adquiria os componentes e se encarregava ele próprio de "montar o quebra-cabeça" — ou recorria a um computer guy, que integrava os componentes físicos da máquina e instalava o sistema operacional (geralmente o MS-DOS), os drivers do chipset e dos dispositivos, a interface gráfica Microsoft Windows e o inevitável pacote de aplicativos para escritório MS Office.

Mais adiante, as próprias lojas que vendiam kits para montagem e componentes para reposição passaram a disponibilizar o serviço de montagem. Assim, o interessado escolhia a configuração de hardware desejada (placa-mãe, processador, memórias, disco rígido etc.) e os periféricos (monitor, teclado mouse e impressora), pagava uma taxa adicional e levava para casa a máquina pronta, com o software instalado e configurado.

A redução no preço doa PCs de grife e a popularização dos notebooks — que substituem o desktop com vantagens, seja porque ocupam menos espaço e eliminam a incomodativa "macarronada" de cabos, seja porque podem ser levados do quarto para a sala, de casa para o escritório, ou mesmo em viagens, tanto a trabalho quanto a lazer — relegaram a integração caseira ao nicho dos linuxistas, gamers, hackers e afins, que escolhem a dedo os componentes para extrair da configuração de hardware a melhor performance possível (ou a melhor relação custo benefício, conforme o caso).

Lá pela "virada" do século, PCs de integradores como Metron, Compaq, IBM (hoje Lenovo), Asus, Dell etc. traziam com a documentação a mídia com os arquivos de instalação do sistema. A partir de 1995, os vetustos e nada confiáveis disquetes de 1.44 MB cederam espaço à mídia óptica — a Microsoft passou a fornecer o Windows em CD-ROM a partir do Win95, e em DVD a partir do XP. Além do Windows propriamente dito, a mídia fornecida pelo fabricante do aparelho costumava incluir drivers e arquivos de instalação de programas adicionais — como antivírus e aplicativos úteis, mas também penduricalhos conhecidos como crapware ou bloatware, que servem apenas para consumir ciclos de processamento e espaço na RAM e no HDD.

De um tempo a esta parte, os fabricantes passaram a criar no HDD uma pequena partição oculta para armazenar os arquivos de resgate, a partir dos quais é possível reinstalar o sistema ou reverter o computador às configurações de fábrica se e quando for necessário. Com isso, eles eles economizam alguns trocados por máquina (correspondentes ao custo da mídia óptica) e continuam ganhando outros dos desenvolvedores dos inutilitários que continuam incluindo nos arquivos de instalação (e dos quais você não só pode como deve se livrar). 

Para o consumidor final, no entanto, há dois problemas a considerar: 1) A mídia de instalação também servia como "disco de resgate"; na falta dela, fica a cargo do usuário criar esse salva-vidas (e muita gente não se dá ao trabalho). 2) No caso de uma pane física exigir a substituição do disco rígido, o usuário não terá como acessar os arquivos de instalação, já que eles estavam armazenados na tal partição oculta do drive micado. Como um homem prevenido vale por dois (e assim João caiu da ponte, mas isso é outra história), veremos mais adiante como criar um disco de resgate — uma versão revista e atualizada do velho disquete de boot. 

Feita essa (não tão) breve introdução, passemos o tutorial prometido no capítulo anterior, que mostra como remover uma atualização problemática do Windows via linha de comando (para saber mais sobre o Prompt de Comando e o Power Shell do Windows 10, reveja esta postagem). Acompanhe:

1 — Abra o “Prompt de comando” como administrador pelo menu Iniciar do Windows 10;

2 — Para ver a lista de atualizações instaladas, utilize o comando: wmic qfe list brief /format:table;

3 — Para remover uma atualização, digite o comando wusa /uninstall /kb:HotFixID (tomando o cuidado de substituir o “HotFixID” pelo número da atualização a ser removida);

4. Reinicie o computador.

Se esse procedimento não resolver seu problema, ou se o PC não iniciar nem no modo seguro (detalhes nos capítulos anteriores), impedindo-o de acessar o prompt de comando, o jeito será recorrer a disco de resgate, também conhecido como disco de inicialização ou disco de recuperação, que é a versão século XXI do tradicional disquete de boot. Aliás, “disco” é maneira de dizer, pois há muito que não usamos mais disquete ou mídia óptica para esse fim, mas sim um dispositivo de mídia removível padrão USB, como um HDD externo ou um pendrive.

Observação: Embora seja possível armazenar os arquivos de resgate num DVD, isso requer a criação de um arquivo .ISO e um gravador de mídia óptica — dispositivo que não integra a esmagadora maioria dos PCs fabricados nos últimos anos.

Por diversas razões que eu não vou detalhar para não encompridar ainda mais esta novela, sugiro usar o pendrive, não só pelo custo/benefício, mas também porque você encontra esse tipo de mídia em qualquer hipermercados ou papelarias. Pode ser até que você tenha um esquecido no fundo de uma gaveta.

Concluímos no próximo capítulo.