Mostrando postagens com marcador hardware. Mostrar todas as postagens
Mostrando postagens com marcador hardware. Mostrar todas as postagens

sexta-feira, 20 de dezembro de 2019

OPÇÕES DE DESLIGAMENTO DO WINDOWS - FINAL


SEGREDO ENTRE TRÊS, SÓ MATANDO DOIS.

Embora seja possível configurar o botão Power (liga/desliga) — e, no caso de note e netbooks, o fechamento da tampa do aparelho — para suspender, desligar ou colocar o computador em hibernação, como vimos nas postagens anteriores, é bom saber que o Windows conta com o Agendador de Tarefas, que, como o próprio nome sugere, permite agendar a execução de diversas tarefas, dentre as quais desligar automaticamente o computador no horário que desejarmos. Vamos ao tutorial:
   
1 — Na caixa Pesquisar da Barra de Tarefas do Windows, digite agendador e, na lista de sugestões, selecione Agendador de Tarefas – Aplicativo;

2 — Na porção direita da janela que se abre em seguida, clique em Criar Tarefa. Na aba Geral, dê um nome para a tarefa e, na mesma aba, em Opções de segurança, marque as opções Executar estando o usuário conectado ou não e “Executar com privilégios mais altos. Mais abaixo, em Configurar para, escolha a versão do seu Windows;

3 — Clique na aba Disparadores e na opção Novo, localizada na parte inferior da janela; na próxima janela, em Iniciar Tarefa, selecione Em um agendamento, depois em Diário, para que a tarefa seja executada todo os dias. Feito isso, defina a data de início e o horário em que o computador deverá ser desligado. Mantenha a caixa Habilitado marcada e clique em OK para confirmar a ação;

4 — De volta à janela Criar tarefa, acesse a aba Ações e clique em Novo; na opção Ação, selecione a opção Iniciar programa do menu dropdown e preencha o campo abaixo de Programas/Scripts com a palavra shutdown. Em Adicione argumentos (opcional), digite /S para acionar o desligamento tradicional, que ocorre quando você clica na opção Desligar do menu Iniciar do Windows, ou /S /F para forçar o desligamento se houver algum aplicativo em execução. Ao final, confirme em OK;

5 — Volte à janela Criar tarefas, acesse a aba Condições, marque a caixinha Iniciar a tarefa somente se o computador estiver ocioso há: e, na caixa à direita, defina o tempo que a ferramenta deverá aguardar antes de proceder ao desligamento. Na mesma aba, marque as caixas referentes às opções Interromper se o computador não estiver mais ocioso e Reiniciar se voltar a ficar ocioso e deixe as demais opções com a configuração padrão;

6 — Na aba Configurações, mantenha as opções previamente habilitadas marcadas, clique na caixinha referente a Se ocorrer falha na tarefa, reiniciar a cada: e defina o tempo para reiniciar a atividade. Abaixo, escolha o número de vezes que o sistema deve tentar reiniciar o processo, caso ocorra algum erro e confirme em OK.

E está feito.

terça-feira, 17 de dezembro de 2019

CAUTELA E CANJA DE GALINHA NÃO FAZEM MAL A NINGUÉM

É O PASSADO QUE MOLDA O FUTURO.

O surgimento e posterior inclusão de um sem-número de recursos no smartphone  que em última análise é um PC ultraportátil , muita gente passou a usar o computador convencional (desktop/notebook) somente em situações específicas.

Na pré-história da computação pessoal, a arquitetura aberta, que se tornou padrão de marcado, estimulou a montagem "caseira" das máquinas (o que dava trabalho, mas permitia escolher a configuração mais adequada). Quem não se sentia à vontade para pôr a mão na massa recorria a lojas de informática  que geralmente dispunham de pessoas qualificadas não só para realizar a integração, mas também para assistir o cliente na escolha dos componentes mais adequados —, ou encomendava a montagem a um computer guy de confiança. Ainda assim, operar o computador exigia expertise de programador  pelo menos até que as interfaces gráficas se popularizassem.

Mais adiante, a redução do preço do hardware e a popularização das máquinas de grife facilitaram a vida dos consumidores, sobretudo quando os fabricantes passaram a fornecer os arquivos de restauração do Windows numa partição oculta do HDD — em vez de gravá-los em mídia óptica, como faziam até então. Assim, reverter o aparelho às configurações de fábrica ficou mais fácil, embora as etapas subsequentes, que envolvem a atualização, personalização e reconfiguração do sistema, até hoje tomam tempo e dando algum trabalho aos usuários.

Lá pela virada do século, os "cursos" que ensinavam a montar, operar e consertar o computador só perdiam em número para as publicações especializadas, muitas das quais aliciavam o leitor com um CD atopetado de aplicativos e utilitários gratuitos — que podiam ser baixados pela Internet, naturalmente, só que a maioria dos usuários de PC se conectava à rede mundial de computadores via modem analógico (conexão discada), pois ter um plano de banda larga (com velocidades que hoje nos parecem ridículas) era para poucos.

Atualmente, é raro encontrar revistas especializadas em informática — como as saudosas INFO, PC WORLD, WINDOWS, entre outras —, até porque a facilidade de acesso à informação pelo meio digital e a popularização do smartphone condenou as próprias bancas ao ostracismo. Também graças ao smartphone que quase não se veem mais revistas em barbearias, salas de espera de consultórios médicos e odontológicos e outros locais onde, até não muito tempo atrás, elas tinham presença garantida. Em vez disso, o que se vê são pessoas com os olhos grudados na tela dos telefoninhos inteligentes, trocando mensagens, ouvido música, assistindo a vídeos ou fazendo seja lá o que for enquanto esperam a vez.

Da mesma forma que as revistas de informática, os cursos de computação viraram peça de museu, e talvez por isso recursos do Windows, Android e MacOS costuma ser subutilizados. Ainda que praticamente qualquer pessoa saiba, hoje em dia, usar um smartphone para acessar redes sociais, gerenciar emails e navegar na Web, por exemplo, muitas não sabem que, a exemplo do PC convencional, seja ele de mesa ou portátil, os telefoninhos também precisar ser protegidos por senhas fortes e ferramentas de segurança responsáveis. Isso porque as pragas digitais não só se multiplicaram em progressão geométrica, nas últimas décadas, mas também passaram a visar dados sigilosos das vítimas, sobretudo senhas bancárias e números de cartões de crédito.

Ainda que não faltem postagens sobre segurança digital aqui no Blog, vale relembrar que no caso específico do smartphone o maior risco está na instalação de aplicativos. Para prevenir dores de cabeça (prevenir, porque evitar é impossível), deve-se baixá-los de fontes confiáveis, preferencialmente da App Store (no caso do iPhone) e da Play Store (no caso de smartphones com sistema Android), lembrando que, muito embora o Google e a Apple filtrem os aplicativos disponíveis em suas lojas oficiais, programinhas nocivos são descobertos a torto e a direito.

Observação: O código-fonte do iOS é proprietário, mas o do Android é aberto, e o sistema recebe aplicativos de quase uma centena de desenvolvedores. Essa diversidade impede o Google de ser tão rigoroso quanto a Apple e torna o Android mais susceptível a incidentes de segurança — o que não significa que donos de iPhones e iPads estejam 100% protegidos, apenas que a empresa da Maçã estabelece regras de mais rígidas para os desenvolvedores de aplicativos.

segunda-feira, 21 de outubro de 2019

CONHEÇA MELHOR SEU PC — PARTE IV


A VIDA É COMO O GELO FINO SOBRE O QUAL PATINAMOS ATÉ O DIA EM QUE CAÍMOS.

Recapitulando: se você não abre mão de desempenho deve investir num PC de ponta, com CPU poderosa, fartura de RAM e SSD com um latifúndio de espaço, mas tenha em mente que um processador Intel Core i9 Extreme custa mais de R$ 10 mil (note que não estou falando num PC equipado com esse portento, pura e simplesmente no processador).

Quem não está com essa bola toda deve buscar uma configuração que privilegie a memória RAM (atualmente, a quantidade recomendada é de 8 GB), mesmo que isso imponha a escolha de um processador menos poderoso — mas nada inferior a um Intel Core i5. Lembre-se: de nada adianta gastar rios de dinheiro num chip ultraveloz se os subsistemas de memória (física e de massa) não lhe oferecerem a necessária contrapartida.

Observação: Por memória de massa, entenda-se o dispositivo onde os dados são armazenados de forma persistente (não confundir com permanente), e por memória física, a RAM, para onde sistema, aplicativos e arquivos são transferidos (a partir da memória de massa) para serem executados e processados — claro que não integralmente, ou não haveria RAM que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes).

Como vimos, a memória virtual — solução paliativa (desenvolvida pela Intel no tempo dos 386, se bem me lembro) — emula memória física a partir de um arquivo de troca (swap file) criado no disco rígido, para onde o Gerenciador de Memória Virtual remete as sessões que não são prioritárias naquele momento, abrindo espaço na RAM, e as traz de volta quando necessário. Esse recurso foi aprimorado ao longo dos anos e é usado até hoje, mas o problema é que, por ele ser baseado no HDD, que é milhares de vezes mais lento que a já relativamente lenta memória RAM, seu impacto no desempenho global do computador é significativo.

Embora o preço da memória RAM tenha sofrido uma queda expressiva ao longo dos anos — um módulo de 8 GB de memória DDR-4 da Kingston custa, atualmente, pouco mais de US$ 50; no tempo dos vetustos PC 386, que vinham com míseros 2 MB de RAM (você leu certo: megabytes), pelo que se pagaria por 1 Gigabyte de RAM (claro que naquela época ninguém sequer sonhava que módulos com essa capacidade seriam vendidos um dia), daria para comprar, hoje, um carro popular zero quilômetro — PCs de entrada (leia-se de baixo custo) integram míseros 2 ou 3 gigabytes de RAM, o que não dá nem para o começo.   

Também como vimos, não é boa ideia entupir o computador de inutilitários; limite-se a instalar somente aquilo que você realmente for usar faça uma faxina de tempos em tempos. Aplicativos inúteis ou ociosos podem ser removidos com a ferramenta nativa do Windows — no Win10, clique em Iniciar > Configurações > Aplicativos > Aplicativos e Recursos —, mas eu sugiro utilizar ferramentas dedicadas, como o Revo Uninstaller ou o IObit Uninstaller, que eliminam a maioria das sobras que o desinstalador nativo do sistema costuma a deixar para trás.

Terminada a faxina, reinicie o computador e, no Windows 10, clique em Iniciar, expanda as Ferramentas Administrativas do Windows e clique em Limpeza do Disco. Feito isso, supondo que seu drive de armazenamento persistente seja eletromecânico, volte às Ferramentas Administrativas do Windows, clique em Desfragmentar e Otimizar Unidades, selecione a unidade em que o sistema se encontra instalado e dê início ao procedimento (que pode demorar de alguns minutos a horas e horas, dependendo do tamanho do drive, da quantidade de arquivos gravados e do índice de fragmentação dos dados; se você rodar o desfragmentador semanal ou quinzenalmente, as desfragmentações subsequentes demorarão bem menos tempo para ser concluídas).

Observação: Melhores resultados poderão ser obtidos também nesse caso com ferramentas de terceiros, como o Smart Defrag, que integra a suíte de manutenção IObit Advanced SystemCare, mas pode ser baixado e instalado isoladamente. Note que, a despeito de ser possível continuar trabalhando com o computador durante a desfragmentação, prefira executar a ferramenta quando a máquina estiver ociosa, a menos que não se importe em amargar uma lentidão irritante e aumentar expressivamente o tempo necessário para a conclusão da tarefa.

Desinstalados os aplicativos inúteis ou simplesmente dispensáveis e concluídas as etapas complementares sugeridas nos parágrafos anteriores, o próximo passo será checar quais programas remanescentes precisam realmente pegar carona na inicialização do Windows. Veremos isso em detalhes no próximo capítulo.

quinta-feira, 17 de outubro de 2019

CONHEÇA MELHOR SEU PC — CONTINUAÇÃO


A IDEIA DE QUE DEUS É UM GIGANTE BARBUDO DE PELE BRANCA SENTADO NO CÉU É RIDÍCULA. MAS SE, COM ESSE CONCEITO, VOCÊ SE REFERIR A UM CONJUNTO DE LEIS FÍSICAS QUE REGEM O UNIVERSO, ENTÃO CLARAMENTE EXISTE UM DEUS. SÓ QUE ELE É EMOCIONALMENTE FRUSTRANTE: AFINAL, NÃO FAZ MUITO SENTIDO REZAR PARA A LEI DA GRAVIDADE.

O que se convencionou chamar de microcomputador (ou PC) é a combinação de dois subsistemas distintos, conquanto interdependentes: o hardware e o software. Por hardware, entenda-se o conjunto de componentes físicos — placa de sistema, placas de expansão, processador, memórias, gabinete, etc., além de periféricos como monitor de vídeo, teclado, mouse, entre outros — e por software, o sistema operacional e os aplicativos (além de programas de baixo nível como drivers de dispositivo, firmwares e outros).

Antigamente, os veteranos costumavam dizer aos novatos que hardware era tudo aquilo que eles podiam chutar, e software, aquilo que eles só podiam xingar, mas isso já é outra história.

Como em qualquer "conjunto" — seja uma banda, uma orquestra ou um PC — o desempenho individual influencia, positiva ou negativamente, a performance global. No caso específico do computador, esse conceito tem mais a ver com o hardware que com o software, mas isso não quer dizer que o sistema e os programas não tenham sua parcela de responsabilidade.

Por mais habilidoso que seja o maestro, músicos desafinados e desentrosados dificilmente produzirão um bom espetáculo, da mesma forma que uma CPU de ponta só exibirá seu "poder de fogo" com a contrapartida de um SSD responsável e fartura de memória (claro que os demais componentes também contam, só que em menor escala).

Por outro lado, um processador mediano pode se sair bem se contar com muita memória RAM e um HDD (drive eletromecânico ultrapassado, mas bem mais acessível que os modelos baseados em memória flash) de preço acessível, mas espaçoso e veloz. A conclusão que se tira é que, a menos que dinheiro não seja problema, melhor investir numa máquina de configuração mediana, mas equilibrada (como diziam os antigos, in medio stat virtus), do que num modelo com processador de ponta, mas com pouca memória e HDD chinfrim.

Amanhã trataremos do software.

quarta-feira, 16 de outubro de 2019

CONHEÇA MELHOR SEU PC


SE VOCÊ É A FAVOR DA VIDA, MEUS PARABÉNS. DITO ISSO, VAI CUIDAR DA SUA, QUE DA MINHA CUIDO EU.

Ninguém precisa ser chef  para preparar uma macarronada nem engenheiro mecânico para dirigir um automóvel ou nerd para operar um dispositivo computacional. No alvorecer da computação pessoal, porém, quando não havia interface gráfica nem mouse, a coisa era mais complicada, pois tudo que se fazia era baseado em comandos de prompt digitados no teclado. Por outro lado, mesmo um motorista amador deve saber que é fundamental checar os níveis do fluído de arrefecimento e do óleo do motor regulamente, calibrar os pneus semanalmente, e que não deve esperar de um carrinho popular comprado de terceira mão na bacia das almas a mesma performance de uma Ferrari de última geração.

Mutatis mutandis, o mesmo raciocínio se aplica ao computador, daí ser importante escolher um desktop, notebook, smartphone ou tablet adequado a seu perfil, pois balizar-se somente no preço (no menor preço, melhor dizendo) é insatisfação garantida sem dinheiro de volta.

A popularização dos PCs entre usuários domésticos, no final do século passado, deveu-se principalmente à arquitetura aberta dessa plataforma, que estimulou o mercado cinza numa época em que máquinas “de grife” custavam os olhos da cara. Atualmente, quase ninguém mais recorre à integração caseira, a despeito das vantagens que ela oferece — como escolher a dedo os componentes e ajustar a configuração da máquina às suas preferências, necessidades e possibilidades, entre outras (se esse assunto lhe interessa, não deixe de ler a trinca de postagens que começa aqui).

Da mesma forma como a televisão não aposentou o rádio nem o cinema, o videocassete não aposentou a TV e o smartphone não condenou o PC de mesa ou portátil ao ostracismo, mas reduziu sobremaneira o número de usuários desse modelos. Ainda assim, algumas tarefas são mais difíceis de executar num dispositivo ultraportátil, seja devido a questões de capacidade de processamento e quantidade memória, seja por conta das limitações impostas pela tela de dimensões reduzidas e pelo tecladinho virtual.

Ainda que você não pretenda montar pessoalmente seu próximo computador, não custa ter uma noção elementar que seja de como como essa maravilha da tecnologia funciona, até porque isso é fundamental na hora de escolher o produto mais adequado a seu perfil de usuário.

Para saber o que faz a CPU (que é o processador; a caixa que abriga os componentes internos do computador se chama gabinete), as memórias física e de massa, os subsistemas de vídeo, som e rede e os demais componentes que forma o conjunto, não deixe de pesquisar o Blog, que reúne centenas de postagens (das mais de 4.300 publicadas desde a criação do site) que focam a configuração do hardware e suas sutilezas. Fica a sugestão.   

quinta-feira, 22 de agosto de 2019

AINDA SOBRE A EVOLUÇÃO TECNOLÓGICA

QUEM VIVE DE ESPERANÇA MORRE DE FOME.

Computadores são formados por dois subsistemas distintos, mas interdependentes: o hardware e o software. O primeiro é tudo aquilo que a gente chuta, e o segundo, o que a gente só pode xingar. Ou, numa definição mais elaborada: o hardware compreende os componentes físicos do aparelho — gabinete, processador, placas de sistema e de expansão, monitor etc. —, e o software, o sistema operacional, aplicativos, utilitários, enfim, àquilo que, no léxico da informática, se convencionou chamar de "programas" (conjuntos de instruções em linguagem de máquina que descrevem uma tarefa a ser realizada pelo computador, e podem referenciar tanto o código fonte, escrito em alguma linguagem de programação, quanto o arquivo executável que contém esse código).  

Combinada com a evolução tecnológica, a interdependência entre o hardware e o software origina um círculo vicioso (ou virtuoso). Componentes cada vez mais poderosos estimulam o desenvolvimento de programas ainda mais exigentes, e estes, cada vez mais capacidade de processamento, espaço em disco e na memória RAM, levando a indústria do hardware a robustecer ainda mais seus produtos — eis a razão pela qual PCs de última geração se tornam ultrapassados em questão de meses e obsoletos em dois ou três anos.

Devido à arquitetura modular, os "micros" das primeiras safras eram vendidos em kit, cabendo aos usuários montá-los ou recorrer a integradores especializados (Computer Guy). Operá-los também não era tarefa fácil, sobretudo quando não havia disco rígido nem sistema operacional (cada tarefa exigia que os comandos fossem introduzidos manualmente via teclado). Mais adiante, os programas seriam gravados em fita magnética (como as populares cassete que a gente usava antigamente para gravar e ouvir música) e depois em disquinhos magnéticos finos e flexíveis, conhecidos como disquete ou Floppy Disk.

Observação: A título de curiosidade, meu primeiro 286, além de uma winchester com capacidade para armazenar umas poucas centenas de megabytes, contava com um drive para disquetes de 5 ¼” e dois para modelos de 3 ½”, o que facilitava sobremaneira a cópia de arquivos e de programas — como os inevitáveis joguinhos, que se tornariam o principal meio de disseminação dos ainda incipientes vírus eletrônicos, e estes, o mote dos meus primeiros escritos sobre informática e segurança digital. Mas isso já é outra conversa.

Foi também graças à evolução tecnológica que o custo do megabyte baixou de assustadores US$ 200 para alguns centavos, permitindo que os HDDs, que levaram décadas para quebrar a barreira do gigabyte, se tornassem verdadeiros latifúndios. Hoje em dia, qualquer desktop ou notebook de configuração chinfrim conta com algo entre 500 GB e 1 TB de espaço em disco.

É importante não confundir espaço em disco com memória RAM. No jargão da informática, "memória" remete a qualquer meio destinado ao armazenamento de dados, mas, por convenção, sempre que falamos "genericamente" em memória estamos nos referindo à RAM, que é a memória física do computador e principal ferramenta de trabalho do processador. É nela que o sistema, aplicativos e demais arquivos são carregados — a partir do HDD, SSD ou outro dispositivo de armazenamento persistente — para serem processados/editados. Claro que eles não são carregados integralmente (ou não haveria RAM que bastasse), mas divididos em páginas (pedaços do mesmo tamanho) ou em segmentos (pedaços de tamanhos diferentes). Além das memórias física (RAM) e de massa (discos rígidos e drives de memória sólida), o computador utiliza outras tecnologias com finalidades específicas, como as memórias ROM, de vídeo, cache, flash etc., mas isso já é outra conversa.

Criado pela Sony no final dos anos 1960 e lançado comercialmente em 1971, o disquete embarcou na crescente popularização dos PCs e se tornou a solução primária para armazenamento externo e transporte de arquivos digitais. Mas nem tudo eram flores: além de oferecerem espaço miserável, os disquinhos eram frágeis e emboloravam e desmagnetizavam com facilidade. Os primeiros modelos, de 8 polegadas (cerca de 20 cm), comportavam míseros 8 KB. Nos de 5 ¼ polegadas, a capacidade inicial de 160 KB chegou a 1,2 MB em 1984, quando eles deixaram de ser produzidos. As versões de 3 ½ polegadas foram extremamente populares, a despeito de sua capacidade medíocre (1,44 MB). Versões de 2,88 MB e 5,76 MB chegaram a ser lançadas, mas por alguma razão não se popularizaram.

Observação: Considerando que seriam necessários cerca de 700 disquetes de 1.44 MB para armazenar 1 GB de dados, para gravar nesse tipo de mídia os arquivos de instalação do Win7 seriam necessários 11.000 disquinhos (que formariam uma pilha da altura de um edifício de 9 andares).

Com o advento das mídias ópticas (CD, DVD e Blu-ray), os disquetes se tornaram "coisa do passado". Mesmo assim, a Sony a fabricá-los até 2011, quando finalmente jogou a toalha. Deveria tê-lo feito bem antes: a virada do século trouxe o pendrive e, mais adiante, o HD externo  dispositivos de memória flash com interface USB que oferecem latifúndios de espaço. Somados aos drives virtuais (armazenamento em nuvem), essas tecnologias levaram os fabricantes de PC, que já tinham excluídos o drive de disquete de suas planilhas de custo, a eliminar também o drive de mídia óptica.

O resto fica para o próximo capítulo.

quarta-feira, 14 de agosto de 2019

AINDA SOBRE O DESLIGAMENTO DO PC


NO JAPÃO, CORRUPTO SE SUICIDA; NA CHINA, É FUZILADO; NA ITÁLIA, É PRESO; NO BRASIL, É ELEITO.

O padrão AT para gabinetes, placas-mãe e fontes de alimentação foi desenvolvido pela Intel na década de 1980 e reinou absoluto até por volta da virada do século, quando começou a ser substituído progressivamente pelo ATX (também da Intel), que, dentre outros aprimoramentos, introduziu o conceito de fonte inteligente.


No AT, além de abrir o menu Iniciar do Windows e selecionar a opção Desligar, como fazemos atualmente, era preciso esperar que a mensagem que se vê na imagem à esquerda e então mudar o Power Switch (interruptor de energia do gabinete) para a posição “desligado”. 

Já no ATX  — que continua em uso até hoje —, o desligamento por software comanda tanto o encerramento do sistema quanto a interrupção do fornecimento de energia, ou seja, desliga o aparelho em nível de hardware sem que seja preciso acionar nenhum botão. Com isso, os gabinetes deixaram de integrar o botão de "reset" — que servia para reiniciar o computador numa época em que o Windows travava com uma frequência irritante — e o "turbo" — que não aumentava a frequência de operação do processador, mas sim reduzia-a, permitindo a execução de programas ainda mais antigos. Mais adiante, os fabricantes de PCs eliminariam também os drives de disquete (primeiro os de 5 ¼", depois os de 3 ½") e os drives de mídia óptica (CD, DVD, BD), mas isso já é outra conversa.

Deve-se ainda ao ATX a adoção dos botões soft touch para ligar/desligar o computador. Até então, era preciso mudar um switch (interruptor) da posição "desligado" para "ligado" e vice-versa. A partir daí, um simples toque no botão de energia liga o aparelho — bem como o desliga, pois desde a versão XP do Windows que tocar nesse botão quando o PC está ligado produz o mesmo efeito que clicar na opção "desligar" do menu Iniciar, ou seja, fecha os programas, encerra o sistema da maneira adequada e corta o fornecimento de energia para o hardware.

O Seven possibilitou a personalização da função desse botão (as opções são as mesmas oferecidas pela setinha à esquerda comando Desligar do Menu Iniciar). Para fazer essa personalização no Win10, basta clicar em Iniciar > Configurações > Sistema > Energia e Suspensão > Configurações de energia adicionais > Escolher as funções dos botões de energia e fazer os ajustes desejados.

Observação: Quando e se o sistema travar a ponto de nem o mouse nem o teclado responderem, manter o botão de energia pressionado por 5 segundos  desliga o computador "na marra" , mas você dever recorrer a esse esse recurso somente se não houver alternativa, pois, no desligamento forçado, o aparelho é desligado sem que seja encerrado adequadamente, o que pode acarretar perda de dados, corrupção de arquivos e outras sequelas indesejáveis. Note que, independentemente da função que você atribuir ao botão de energia, mantê-lo pressionado por 5 segundos desligará o computador “na marra”.

Continua no próximo capítulo.