Complementando o que foi dito no post anterior, veremos a
seguir como instalar um driver genérico que permita ao Windows “enxergar” um smartphone que não tenha sido reconhecido
automaticamente. Acompanhe:
― Abra o Gerenciador
de Dispositivos (no Windows 10, dê
um clique direito no botão que convoca o Menu
Iniciar e, no menu que se abre em seguida, selecione a opção Gerenciador de Dispositivos).
― Na janela do Gerenciador,
localize e expanda a entrada “Outros dispositivos” e verifique qual das
opções disponíveis corresponde ao “dispositivo desconhecido” ― que, para efeito
desta postagem, é seu smartphone (para facilitar identificação, desconecte e reconectar
o cabo USB que conecta o telefoninho
ao computador).
― Depois de descobrir qual das opções é a correta, dê um
clique direito sobre ela e selecione Propriedades.
― Na tela das Propriedades
de Dispositivo desconhecido, clique em Atualizar
driver... e selecione a opção Procurar software de driver no computador.
― Clique em Permitir que eu escolha em uma lista de
drivers no computador.
― Localize a opção Dispositivos Portáteis,
selecione-a, clique em Avançar.
― Finalmente, selecione Dispositivo USB MTP e clique
em Avançar.
O Windows irá instalar o driver genérico.
Quando o processo estiver concluído, é só você clicar em Fechar, abrir o Explorador
de arquivos, clicar no ícone Computador
(na coluna à esquerda) e verificar se o smartphone foi reconhecido.
Para encerrar esta sequência, segue um apanhado das
regrinhas básicas de segurança e algumas considerações complementares. Confira.
Um arsenal de defesa responsável ― antivírus, antispyware e
firewall ―, atualizado e bem
configurado talvez não ofereça uma proteção inexpugnável, mas nem por isso
deixa de ser indispensável.
Igualmente importante é atentar para as
mensagens que a ferramenta de segurança exibe, de maneira a adotar a atitude
correta sempre que algo suspeito for detectado no computador ― digo isso porque
muitos usuários se deparam com mensagens do antivírus ou do firewall e
simplesmente fecham a caixa de diálogo e seguem adiante como se nada de anormal
estivesse acontecendo.
Nenhum computador estará seguro se o sistema operacional e
os aplicativos não dispuserem de todas as atualizações críticas criadas pelos
fabricantes. Releia os capítulos anteriores para saber como ativar as atualizações automáticas no Windows 10 e como facilitar a atualização/update
de versão de softwares “não-Microsoft”.
Tome cuidado ao abrir anexos ou clicar em links recebidos
por email, programas mensageiros e redes sociais. Na dúvida, entre em contato
com o remetente para saber se ele realmente enviou o email em questão, e no
caso de comunicados recebidos [supostamente] de Bancos, administradoras de
cartões e órgãos governamentais, por exemplo, jamais forneça as informações solicitadas. Fale
com o gerente da sua agência ou ligue para o 0800 ou outro
telefone de contato disponível no site da empresa/instituição.
Programas de computador renomados podem custar caríssimo, mas muitos
apps que a gente usa no dia têm similares de outros fabricantes, que geralmente custam bem menos ou são distribuídos gratuitamente para uso pessoal/não comercial.
Observação: Existe uma profusão de aplicativos
distribuídos nas modalidades Shareware
e Freeware.
Os primeiros podem ser instalados e testados sem ônus por um prazo
pré-determinado (ao final, se você quiser mantê-los, é só pagar a taxa de
licença para receber a respectiva chave de ativação). Nos freewares,
a gratuidade não expira,
e ainda que nem sempre ofereçam todos os recursos das versões pagas, eles são
uma excelente alternativa à pirataria.
Sempre que possível, recorra aos webservices ― em muitos casos, instalar um aplicativo residente é
mais uma questão de hábito do que de real necessidade. Embora uma rápida pesquisa
no Google retorne um sem-número de ofertas de programas comerciais “craqueados”, desconfie.
Quando algum desconhecido lhe oferece algo com uma mão, é porque quer lhe tomar
algo com as duas. Evite baixar apps de origens suspeitas, ou mesmo navegar
por sites suspeitos: às vezes, basta acessar uma página maliciosa para o internauta ser
infectado por um spyware ou outra
praga.
Desde a edição XP
que a Microsoft vem aprimorando a
política de contas de usuários e senhasdo Windows.
Então, habitue-se a usar uma conta com poderes limitados no dia a dia e se
logar com sua conta de Administrador
somente quando isso se fizer necessário. Assim, se você deletar acidentalmente
um arquivo importante do sistema ou for infectado por alguma praga que seu
arsenal de segurança não tenha conseguido barrar e não seja capaz de
neutralizar, é só deletar essa conta, criar outra e tocar a vida adiante. Aliás,
essa dica vale também para quem compartilha o computador com outras pessoas
(como cônjuge, filhos, etc.). Em sendo o seu caso, evite aborrecimentos criando
contas limitadas para cada uma delas.
Observação: Para criar uma nova conta no Windows 10, abra o menu Iniciar, clique em Configurações > Contas > Família e outros usuários > Adicionar outra pessoa a este PC, digite um nome de usuário, defina uma senha, uma dica de senha, clique em Avançar, e pronto.
O primo do sobrinho da sua empregada ― ou outro “cobra” em
computação qualquer ― pode ajudá-lo a resolver problemas com o PC, mas é bom
confiar desconfiando. Prefira sempre que possível recorrer a um computer guy responsável e que atenda
em domicílio(assim o
computador não sai das suas vistas e você pode acompanhar o serviço e
esclarecer eventuais dúvidas). E jamais entregue a máquina a terceiros sem
antes criar backups de seus arquivos importantes e armazená-los em pendrives ou
outro tipo de mídia removível.
Se você carrega seu note ou tablet para toda parte, proteja-o
com uma senha
segura. Em locais públicos (no ambiente de trabalho, no escritório de
um cliente, ou mesmo num restaurante, por exemplo), coloque o sistema em espera
sempre que precisar se afastar da máquina por alguns minutos, evitando, assim,
que algum curioso bisbilhote seus arquivos.
AQUELE QUE
FAZ E PROMOVE O BEM CULTIVA O SEU PRÓPRIO ÊXITO.
Ao longo dos anos, a Microsoft
criou diversas soluções para acelerar o desempenho do Windows, mas elas nem sempre produziram o resultado desejado. O Superfetch, por exemplo, é uma versão
revista e atualizada do Prefetch,
que por sua vez foi implementado no XP
para monitorar as aplicações que o usuário utiliza com maior frequência e
mantê-las carregadas num cache
de memória, visando abreviar seu tempo de inicialização. A partir do Windows Vista, esse recurso foi aprimorado,
renomeado (como Superfetch), e assim
continuou a ser nas edições subsequentes do sistema.
Em teoria, tudo muito bonito, mas na prática constatou-se
que esse implemento podia provocar o efeito inverso, notadamente a partir do Windows
7, quando ele se revelou um voraz consumidor de memória. Aliás, já no XP
era preciso limpar regularmente a pasta Prefetch para melhorar o
desempenho ― confira nesta
postagem de 2008 ―, até porque os PCs daquela época dispunham de
míserascentenas de megabytes de memória
RAM.
Hoje o cenário é bem outro ― qualquer máquina de entrada de
linha já conta com de 2 ou mais gigabytes de RAM ―, e modificar o funcionamento do Prefetch pode parecer
desnecessário ou até contraproducente, já que um aplicativo iniciado a partir
da memória de massa do computador (HDD
ou SSD) leva mais tempo para
carregar do quando é lançado a partir do cache.
Além disso, a despeito de consumir memória, o Superfetch gerencia esse cache
de maneira mais “inteligente” ― sempre
que algum aplicativo em execução precisa de mais memória, a quantidade
reservada anteriormente para o serviço é automaticamente disponibilizada ―,
além de ser capaz de se auto desativar ao detectar um disco rígido de alto
desempenho (ou um drive sólido), o que torna recomendável deixar que o próprio Windows
decida se o utiliza ou não.
O fato é que o Superfetch divide opiniões: enquanto
uns acham que desabilitá-lo não traz benefício algum, outros recomendam
fazê-lo, notadamente em sistemas com menos de 4 GB de RAM. A meu ver, não custa nada experimentar desabilitá-lo,
especialmente se o seu PC dispõe de um SSD, até porque o ajuste é simples e fácil de desfazer.
Confira:
― Para conferir se o Superfetch
está habilitado, pressione a combinação de teclas Win+R, digite services.msc
na caixa do menu Executar, tecle Enter, e confira o status do
serviçona coluna respectiva (se estiver como Iniciado, é porque
ele está operante).
― Para avaliar como o sistema se comporta sem ele, dê um
clique direito sobre a entrada respectiva, clique em Propriedades e, em Tipo
de inicialização, selecione Desativado, pressione Aplicar,
confirme em OK e reinicie o computador.
― Para retornar à configuração original, repita os mesmos
passos, altere o padrão para Automático e torne a reiniciar o computador.
MUITAS VEZES É A FALTA DE CARÁTER QUE
DECIDE UMA PARTIDA. NÃO SE FAZ LITERATURA, POLÍTICA E FUTEBOL COM BONS
SENTIMENTOS.
Se você instalou um SSD
(detalhes na postagem anterior), usar o AHCI (Advanced Host Controller Interface),
que está presente na maioria das placas-mãe de fabricação recente e costuma vir
ativado por padrão, pois melhora o desempenho do drive em até 15%, é
fundamental para garantir o aproveitamento de todos os recursos das unidades
que trabalham com o barramento SATA.
O AHCI exige um driver especial, que deve ser
adicionado e ativado por ocasião da instalação do Windows. Na falta dele, o sistema usará um driver genérico, que, como sabemos, não proporciona os melhores
resultados (mais detalhes na sequência de postagens iniciada por esta aqui).
Observação: AHCI (Advanced
Host Controller Interface) está presente nos chips Intel mais modernos. No BIOS,
geralmente há 3 configurações disponíveis: IDE,
AHCI e RAID. As últimas duas requerem a inclusão de um driver especial,
que pode ser feita na instalação do sistema operacional por meio da tecla F6 e o auxílio de um pendrive. Dentre outras vantagens, o modo AHCI permite que as unidades SATA aceitem mais de um comando por vez
e os reorganizem dinamicamente para máxima eficiência; oferece suporte à troca
a quente (hot plugging) de dispositivos e suporte a rotações escalonadas entre
várias unidades no momento da inicialização. Se você instalou o Windows no modo IDE (o que significa que você não usou a tecla F6 nem forneceu um disco de driver), a simples troca da
configuração BIOS para o modo AHCI, acompanhada da reinicialização,
fará com que o Windows falhe e
demandará uma instalação de reparo. Apesar de ser possível instalar o driver em
questão a posteriori, a maioria dos especialistas aconselha reinstalar o Windows se a finalidade for ativar o AHCI. Para mais informações, clique aqui.
Para verificar qual driver está instalado e fazer atualizações,
você pode acessar o Gerenciador de
Dispositivos”, dar um clique direito sobre Controladores IDE/ATA ATAPI (isso lhe permitirá ver informações
sobre a versão do driver e outros detalhes). Mas é bem mais prático e seguro
recorrer ao Driver Booster ou ao Driver Max, apenas para ficar nos
exemplos que eu já analisei no Blog (a propósito, reveja esta postagem).
Outro ajuste recomendável ― independentemente de a unidade
de armazenamento de massa ser sólida ou eletromecânica ― pode ser feito através
das Opções de Energia. No Windows 10, clique no botão Iniciar > em Configurações > Sistema >
Energia e Suspensão e, no Plano de Energia ativo, selecione Alto Desempenho. Notebooks costumam priorizar o consumo de energia para favorecer a
autonomia da bateria, mas a despeito de a Microsoft
sugerir a opção Equilibrado
(recomendável), eu recomendo configurar seu sistema para Alto desempenho ― só não se esqueça de
mudar esse ajuste sempre que for usar seu portátil sem uma tomada à mão para
plugar a fonte de alimentação.
Instalar um SSDSATA III numa placa-mãe que não suporta essa versão do barramento
pode não justificar o investimento e o trabalho, conforme eu disse na postagem
anterior. Para entender isso melhor, vejamos conceitos de informatiquês
traduzidos para o português. Acompanhe.
Se compararmos o
processador ao “cérebro” do PC, a placa-mãe (ou motherboard, ou ainda placa-de-sistema)
será seu “coração”. É ele que integra o BIOS e o chipset,
que provê funcionalidade ao computador e determina, dentre outras coisas, quais
processadores podem ser utilizados, o tipo e a quantidade máxima de memória
suportada, as frequências dos barramentos, a quantidade de slots de expansão, portas
seriais, paralelas e USB (que definem
quais e quantos dispositivos podem ser agregados ao sistema), além de
oferecer soquetes para o processador e para os módulos de memória,
controladoras para interfaces SATA
e/ou IDE/ATA (drives de HD e
ópticos), conectores para teclado e mouse, sem mencionar os indefectíveis
reguladores de tensão, circuitos de
apoio, bateria e outros que tais.
Para entender melhor
os barramentos, podemos compará-los a linhas de metrô ― que, no computador, interligam
o processador, as memórias e os demais dispositivos e pelas quais trafegam uma
quantidade absurda de dados.
Observação: Não confunda barramentos com slots: ainda usando a analogia do metrô, um barramento seria um linha
(física) e um slot, uma estação de desembarque ― na forma de soquetes e
conectores onde são encaixadas as placas de expansão (vídeo, modem, som, rede,
etc.) e conectados os cabos lógicos através dos quais os periféricos se
comunicam com a placa.
Os primeiros PCs
utilizavam um único barramento geral, já que a convivência entre componentes
rápidos (como a CPU e a memória) e lentos (como os periféricos) não causava
grandes prejuízos à performance do sistema. Mais adiante, conforme os
dispositivos foram se tornando mais rápidos, surgiram novos barramentos (frontal,
local, backside, de I/O, etc.). Note que cada slot está associado a um
barramento, mas a placa-mãe pode manter barramentos sem associá-los a slots,
como era o caso do ISA, no tempo em que o controlador de drive de
disquetes, o alto-falante, as portas seriais, paralelas e OS/2 ainda dependiam dele.
O padrão SATA (de
Serial AT Attachment) foi desenvolvido no final dos anos 1990 a partir
de uma iniciativa da Intel, pois tecnologias
futuras de armazenamento de dados exigiriam taxas de transferência não
suportadas pelo PATA (de Parallel ATA, também conhecido como ATA
ou IDE ATA). As principais diferenças entre essas tecnologias estão na
maneira como os dados são transferidos e nos cabos de dados e de energia. No SATA, os
bits trafegam em série, um de cada vez, ao passo que no PATA eles seguem
em paralelo, com blocos de 16 bits cada.
Em tese, mais bits sendo
transferidos simultaneamente proporcionam maior velocidade, mas a perda de
dados decorrente de interferências ― fenômeno conhecido como ruído ― e de outros fatores cuja
discussão foge aos propósitos desta abordagem limitou a taxa de transferência do PATA 133 a 1 Gbps. Já no SATA o ruído é praticamente inexistente, mesmo em frequências (clock) elevadas, de modo que sua taxa de transferência chega 6 Gbps. Além disso, os cabos que
conectam os drives às interfaces SATA da placa-mãe têm dimensões reduzidas
(são apenas 4 vias em vez das 40 ou 80 vias dos cabos flat usados no PATA, como você pode ver na imagem que ilustra esta postagem). E por ocuparem menos espaço, os cabos do SATA não atrapalham a circulação de ar no interior do gabinete, minimizando problemas de superaquecimento. Isso sem mencionar que é praticamente impossível conectar um cabo SATA de maneira invertida, ao contrario dos cabos flat do PATA, que entravam na posição errada sem grande esforço do integrador ― e o mesmo se aplica aos conectores de alimentação elétrica.
É mais vantajoso usar o SATA também com HDDs convencionais (eletromecânicos), tanto pelas taxas de transferência mais elevadas quanto por esse padrão dispensar a configuração
MASTER/SLAVE (cada dispositivo
utiliza um único canal de transmissão) e oferecer suporte ao hot-swap ― que permite a troca do drive
“a quente”, ou seja, com o computador ligado, o que é muito útil em servidores,
embora essas máquinas costumam usar o SAS (Serial Attached SCSI),
mas isso também foge aos propósitos desta abordagem.
Por hoje chega, pessoal. Amanhã a gente retoma daqui.
Quase ninguém mais monta PCs por conta própria
hoje em dia ― não só porque sai mais barato comprar um modelo de grife, mas
também pelo fato de os notebooks
serem mais versáteis, substituírem com vantagens o computador de mesa e ainda
poderem ser levados de casa para o escritório, para a casa de praia ou de
campo, em viagens de trabalho, enfim...
Ainda assim, algum gato-pingado pode
achar que vale a pena investir uma grana na troca do drive de HD do seu desktop velho de guerra por
um modelo de estado sólido. Eu, particularmente,
acho melhor comprar um PC com essa tecnologia já embarcada, mas se você acha
que sua máquina vale o investimento, não deixe de conferir qual a versão do barramento SATA suportado pela placa-mãe, porque instalar um SSD que opera em SATA III num PC cuja placa não vai além
do SATA II pode não ser vantajoso do
ponto de vista da performance nem justificar o desembolso (voltaremos a esse
assunto oportunamente).
Algumas placas trazem essa informação impressa no próprio
chassis, mas é mais fácil consultar o manual do aparelho (no caso de um PC de
grife) ou da própria motherboard (no
caso de uma integração caseira). Caso você não disponha dessa documentação ― ou
ela não inclua essa informação ―, faça uma busca no Google a partir da marca e modelo da placa,
Falando no vil metal,drives
sólidos de grandes capacidades custam caro, mas modelos híbridos (SSHD) já são encontrados a preços mais palatáveis. A rigor, esses
dispositivos são drives eletromecânicos que dispõem também de chips de memória flash, e assim proporcionam um
ganho de performance considerável. Mas tenha em mente que os drives híbridos
não são a melhor opção para quem trabalha com softwares pesados ou é fã de
games radicais ― situação na qual um SDD
“puro” é a melhor solução.
Note também que, se adicionar um drive sólido no seu
computador e mantiver o HDD, você não deve ceder ao comodismo e deixar o Windows
na unidade eletromecânica. Em outras palavras, ou se reinstala o sistema e
todos os drivers no SSD, ou não se usufrui integralmente do potencial que essa unidade tem a oferecer.
Se os drives sólidos, (SSD na
sigla em inglês) ainda não aposentaram os HDDs
eletromecânicos, é porque seu custo de fabricação torna muito caras as unidades com com grande capacidade de armazenamento.
SSDs são
compostos basicamente por células de memória flash e uma controladora ― que gerencia
o cache de leitura e gravação dos dados, criptografa informações, mapeia trechos
defeituosos da memória, e por aí vai. Eles não têm motor, pratos, braços,
agulhas eletromagnéticas nem qualquer outra peça móvel, razão pela qual são
menores, mais resistentes e milhares de vezes mais rápidos que os discos
rígidos tradicionais, sem mencionar que seu baixo consumo de energia os torna
uma excelente opção para os fabricantes de notebooks.
Como não há pratos magnéticos formatados em trilhas, setores
e cilindros para armazenar os arquivos ― nos SSDs, a gravação/leitura é feita mais ou menos como na memória RAM ―, a fragmentação dos dados
não chega a ser um problema. Portanto, embora seja possível desfragmentar esses
drives, os fabricantes recomendam não o fazer ― primeiro, por não trazer benefício
algum; segundo, porque a desfragmentação consiste numa longa sequência de leituras e regravações, e o número de vezes que
uma célula de memória flash pode ser regravada não é infinito.
Observação: Segundo
os fabricantes, os SSDs duram entre 5
e 10 anos ― o que pode parecer pouco, mas quem é que ainda não trocou o
computador, hoje em dia, depois de 5 anos de uso? Mesmo assim, diante da
possibilidade de uma ou outra célula de memória falhar antes do tempo, o
controlador do drive é incumbido de remapear as páginas defeituosas (utilizado
setores de uma área de armazenamento temporário) conforme os defeitos vão surgindo,
o que concede uma "sobrevida" aos drives sólidos.
Como eu disse mais cedo, o grande entrava na popularização
dos SSDs é o custo de produção. Daí os modelos de grandes capacidades serem
direcionados a notebooks top de linha (e preços estratosféricos) e as máquinas
de preços mais acessíveis manterem a tecnologia anterior (mídia
eletromagnética) ou combinarem um drive sólido de capacidade modesta com um HDD com profusão de espaço. E como os SSDs funcionam melhor com pelo menos
25% de espaço livre (isso evita que os blocos de memória “encham” e,
consequentemente, preservam a performance original do drive), o indicado é
instalar neles apenas o sistema operacional e os aplicativos mais usados e
manter o restante no HDD.
Como qualquer outro componente do PC, o SSD depende de drivers de
hardware para funcionar, sendo importante mantê-los sempre atualizados,
notadamente se o drive estiver instalado numa controladora AHCI, que aumenta o desempenho do “disco” em até 15% em relação à IDE (voltaremos a esse assunto em outra oportunidade).
Observação: Drivers (ou controladores) são programinhas de baixo nível
(designação que nada tem a ver com o grau de sofisticação do software, mas sim
com seu envolvimento com o hardware) que funcionam como uma “ponte” entre o
sistema operacional e os dispositivos de hardware que integram ou estão
conectados ao computador. Sem o driver da impressora, por exemplo,
o sistema não saberia qual é a versão do aparelho, em qual porta ele está
conectado, se está ou não funcional, se há papel na bandeja e tinta nos
cartuchos, e assim por diante.
Outra maneira de aumentar consideravelmente o desempenho dos
SSDs é habilitar o TRIM, que identifica blocos de memória com
dados inválidos e apaga o conteúdo automaticamente. Para conferir se esse
recurso está ativo e operante, abra o prompt de comando e digite fsutil
behavior query DisableDeleteNotify. Se a resposta for 0, o TRIM está ativo; se for 1, digite o comando fsutil behavior set
DisableDeleteNotify 0e o recurso será ativado.
Assista a um
comparativo interessante entre o HDD
e o SSD (se o vídeo não abrir, siga este link: https://youtu.be/rjCmLJtITK4).
Bom feriado e até quinta-feira. Visite minhas comunidades na Rede
.Link:
LEMBRE-SE DE
QUE GRANDES REALIZAÇÕES E GRANDES AMORES ENVOLVEM GRANDES RISCOS.
Recapitulando: conforme a gente
cria, edita e deleta arquivos, instala e remove aplicativos e executa determinados
procedimentos de manutenção, surgem lacunas
ao longo das trilhas do HDD (detalhes
no capítulo 4), que o Windows tenta preencher conforme grava novos
arquivos. A questão é que esses arquivos nem sempre cabem integralmente nesses
espaços, e aí o sistema os fraciona e distribui os “pedaços” pelos
clusters livres que vai encontrando ao longo das trilhas.
Essa solução funciona bem quando a máquina é nova e o HDD está vazio, mas o uso do computador
torna os arquivos tão “fragmentados” que, na hora de carregá-los na memória RAM, as cabeças magnéticas do drive atuam como se montassem um grande quebra-cabeça, já que os fragmentos podem
estar no final da trilha, em outra trilha, em outra face do disco ou até mesmo
em outro disco. E quanto mais fragmentados os arquivos estiverem, mais tempo
será necessário para remonta-los, daí porque a fragmentação deixa o computador
mais lento.
O Windows ganhou um desfragmentador nativo na edição 95, mas até o surgimento do XP que
usar a ferramenta era um teste de paciência: além de o procedimento demorar horrores, era preciso executá-lo no modo de segurança ou, no mínimo, encerrar os
aplicativos e fechar todos os processos listados no Gerenciador de Tarefas
(com exceção do EXPLORER e do SYSTRAY), de modo a evitar que qualquer
modificação no conteúdo do drive forçasse o programinha a reiniciar, conferir
tudo que havia e feito e só então retomar a tarefa do ponto em que havia
parado.
Nas encarnações mais recentes do Windows, é possível agendar o Defrag
para rodar num horário em que a máquina estiver ociosa ― ou mesmo executá-lo em
segundo plano e continuar trabalhando com o computador. No
entanto, como a desfragmentação consiste basicamente em localizar todos os
“pedaços” dos arquivos, salvá-los temporariamente na memória, definir o melhor
local para acomodá-los em então regravá-los em clusters contíguos, o sistema
tende a ficar consideravelmente lento durante o processo. Então, a menos que
você tenha uma CPU de responsa e memória RAM de sobra, evite operar a máquina enquanto a desfragmentação está em curso.
Tanto o Defrag
quanto os desfragmentadores de varejo evoluíram bastante
nos últimos anos. Além disso, o NTFS
tornou “mais inteligente” a maneira como o Windows
gerencia os arquivos ― para prevenir a fragmentação, eles são gravados no primeiro espaço vago capaz de abrigá-los
integralmente, ou seja, os clusters livres que
porventura existam no início da trilha são desconsiderados, a menos que sejam suficientes para
armazenar o arquivo inteiro. Aliás, isso levou a Microsoft a automatizar
o Defrag no Windows Vista e
suprimir o comando que até então permitia acionar a ferramenta manualmente, mas
a mudança não foi bem aceita pelos usuários e a empresa voltou atrás no Windows 7.
No Windows 10,
podemos convocar o Defrag clicando
no botão Iniciar e selecionando a opção respectiva sob Ferramentas
Administrativas, mas é mais fácil fazê-lo a partir da pasta Computador,
dando um clique direito no ícone que representa a unidade que desejamos
desfragmentar, selecionando Propriedades, abrindo a abaFerramentas
e pressionando o botão Otimizar.
O resto fica para o próximo capítulo, pessoal. Até lá.
O SERIADO HOUSE OF CARDS FOI CANCELADO PELA NETFLIX. DEPOIS QUE TEMER SE SAFOU MAIS UMA VEZ E CABRAL MONTOU UM HOME THEATER NA PRISÃO, OS REDATORES AMERICANOS DESISTIRAM DE TENTAR SUPERAR A REALIDADE BRASILEIRA.
As pilhas elétricas
são compostas de dois eletrodos (o negativo e o positivo) e um eletrólito
(ou ponte salina), que pode ser ácido (caso das pilhas comuns) ou básico
(caso das alcalinas). Vazamentos ― e até explosões ― podem ocorrer com produtos de ambas as
tecnologias, bem como com baterias , já que, numa definição
elementar, elas nada mais são que duas ou mais pilhas recarregáveis
interligadas em série ou em paralelo.
Observação: Em caso de explosão, as pilhas AA (pequenas)
ou AAA (palito) danificam os dispositivos, mas não costumam ir além
disso. No entanto, há registros de pessoas que se feriram seriamente devido a
explosões de baterias de smartphones e notebooks.
Pilhas alcalinas diferem das comuns pela durabilidade (e pelo preço, naturalmente). No
entanto, a maioria de nós prefere as primeiras, que duram bem mais. Só que
alguns especialistas defendem o uso das comuns, notadamente em controles remotos e outros dispositivos que permanentemente em standby. Isso porque, durando menos tempo, elas não chegam a acumular hidrogênio suficiente para “inchar”, vazar ou
estourar (a menos que esqueçamos uma lanterna no porta-luvas ou no fundo de
uma gaveta, por exemplo).
Entre as principais causas de vazamentos e estouros de
pilhas estão a remoção do envoltório
(capa de proteção), a inversão da polaridade e a exposição ao calor. Tentar recarregarpilhas não recarregáveis também pode provocar explosões, já que o
carregador promove uma inversão na reação química que ocorre dentro das pilhas, e que, nas recarregáveis,
restaura a carga original. Já as pilhas comuns não foram pensadas para ser
submetidas e esse processo, daí o risco de explosão.
Pilhas com eletrólitos
ácidos vazam um líquido amarronzado; as alcalinas, uma substância
granulada, esbranquiçada, parecida com o azinhavre que se forma no borne positivo
das baterias automotivas. Ambas as substâncias podem danificar ― ou mesmo inutilizar ― o dispositivo dentro do qual ocorreu o vazamento, bem como irritar a
pele e abrir buracos nas roupas de quem as manusear sem os devidos cuidados.
Pilhas não
recarregáveis têm uma vida útil limitada, que varia conforme a
utilização do equipamento que elas alimentam. Mas mesmo quando o aparelho
não é usado ― ou quando as pilhas são guardadas por muito tempo ― a perda de
carga é inexorável. E de nada adianta mudá-las de lado no compartimento,
aquecê-las (calor excessivo tende a aumentar a produção de hidrogênio) ou colocá-las na geladeira ou no freezer
(o frio excessivo pode produzir efeito contrário ao desejado, fazendo com que
as pilhas deixem de fornecer energia antes mesmo de sua carga útil se esgotar).
Veremos na próxima postagem como (tentar) salvar um aparelho
em cujo interior as pilhas vazaram. Aguardo vocês lá.
SE O VENTO
SOPRAR DE UMA ÚNICA DIREÇÃO, A ÁRVORE CRESCERÁ INCLINADA.
Prosseguindo no assunto iniciado no post anterior, se você consegue navegar com o smartphone ou com o tablet (pela rede wireless, não pela 3G/4G/5G), mas
não com o notebook, o problema não é na rede. Veja se o botão do Wi-Fido note não
está desativado.
Note que, em alguns modelos, esse recurso é comandado por uma
tecla de função ― geralmente F2, F5 ou F12 ―, identificada por uma antena em funcionamento (como na imagem
que ilustra este post), e que pode ou não contar com uma luzinha (que fica
acesa quando o Wi-Fi está ativo). Como a tecla Fn ― que, pressionada em conjunto com as teclas numéricas,
fazem-nas assumir o papel de “teclas de função” ― fica ao lado da tecla com o logo do Windows, você pode ter
desativado o Wi-Fi acidentalmente.
O problema não é esse? Bem, quanto mais próximo você estiver do roteador, melhor serão a
qualidade e a intensidade do sinal. Posicioná-lo num ponto central da casa ― e elevado
em relação ao piso ― minimiza a
ocorrência de “áreas de sombra”, ainda que paredes, móveis e outros obstáculos
físicos possam comprometer a conexão em determinados cômodos.
Curiosamente, o
sinal que não chega até seu quarto ou varanda pode alcançar a casa ao lado ou
apartamentos vários andares acima ou abaixo do seu, daí a importância de
proteger a rede com senha e criptografia (mas isso é conversa para outra hora).
Caso o roteador esteja cercado de obstáculos, como paredes, livros,
móveis, etc., tente reposicioná-lo mais próximo ao teto ― ou comprar um repetidor de sinal (para mais
informações, basta seguir este link).
Se o problema começou logo após você trocar seu telefone sem
fio, por exemplo, é provável que ele seja o vilão da história, pois, se operar
na mesma frequência do router, poderá interferir no sinal. Desconecte o
telefone da linha; se o note acessar a internet, mude o canal do telefone e
veja se isso resolve o problema.
Novos aplicativos também podem gerar conflitos. Se você
adicionou algum programa no seu notebook, talvez seja ele o responsável. Aliás,
atualizações do Windows também são
suspeitas, pois podem envolver drivers
de hardware. O computador depende de um driver específico para operar o
Wi-Fi; se esse driver estiver faltando ou desatualizado, a conexão não se
estabelece.
Como checar os drivers via Gerenciador de Dispositivos é complicado e trabalhoso, sugiro
recorrer ao DriverMax ou ao Driver Booster, que não só identificam
componentes com drivers desatualizados ou ausentes, mas também baixam e
instalam as versões adequadas de forma rápida e segura. Ambos são
disponibilizados gratuitamente, mas vale a pena comprar a licença, já que as
versões pagas proporcionam diversas vantagens adicionais, como você pode
conferir nesta postagem.
Os drivers estão ok? Então, se você consegue navegar com o
smartphone ou o tablet, mas não com o notebook, dê um clique direito no ícone do Wi-Fi, na área de notificação
do sistema (ao lado do relógio), e selecione Abrir a Central de Rede e Compartilhamento. Selecione a opção Solucionar Problemas e, com alguma
sorte, o próprio sistema identificará a anormalidade e apresentará soluções
para você ter sua rede operando novamente.
Complementando o que foi explicado no post anterior, mas sem descer a detalhes técnicos que transcenderiam o escopo as possibilidades desta matéria ― e mais complicariam do que esclareceriam o assunto ―, vale dizer que:
Alguns dos principais arquivos do Windows (dentre os quais o Registro) ficam bloqueados quando o sistema está carregado, e uma vez que diversos procedimentos ― como a instalação de drivers ou as atualizações do próprio sistema operacional, apenas para ficar nos exemplos mais notórios ― precisam acessar esses arquivos, a reinicialização do computador é necessária para a validação das alterações.
Na hipótese de problemas meramente pontuais, reiniciar o aparelho é mais prático e rápido do que tentar descobrir as causas da anormalidade ― aliás, se o aborrecimento não se repetir, sua causa é irrelevante, embora erros recorrentes devam ser investigados a fundo, mas isso já outra história.
Tanto o sistema quanto os aplicativos e arquivos que manipulamos quando operamos o computador, o smartphone, etc. são carregados na memória RAM, e mesmo que o Windows, em suas edições mais recentes e em determinadas versões, seja capaz de reconhecer e gerenciar centenas de gigabytes de memória RAM, a maioria dos PCs dispõe de algo entre 6 GB e 8 GB, e à medida que esse espaço vai sendo ocupado, a memória virtual entra em ação para evitar as aborrecidas mensagens de memória insuficiente (que eram recorrentes nas edições antigas do Windows). No entanto, a memória virtual é apenas um paliativo, e por ser baseada no disco rígido (que é muito mais lento que a RAM), ela reduz drasticamente o desempenho global do sistema. Então, para restabelecer o status quo ante, encerre os programas ociosos. Caso isso não resolva o problema, reinicie o computador, pois a RAM é volátil e os dados que armazena “evaporam” no instante em que o fornecimento energia é interrompido.
Observação: Todo programa em execução ocupa espaço na memória, mas alguns não liberam esse espaço quando são finalizados. Outros, ainda, tornam-se gulosos durante a sessão e vão se apoderando de mais e mais memória. O resultado é lentidão generalizada e, em situações extremas, travamentos, às vezes acompanhados de uma tela azul da morte. A boa notícia é que na maioria das vezes o computador volta ao normal após ser desligado e religado depois de um ou dois minutos.
Costuma-se dizer que reinicializações frequentes reduzem a vida útil do HD, o que não deixa de fazer sentido. No entanto, esse dispositivo é dimensionado para suportar milhares de ciclos liga/desliga. De modo geral, na improvável hipótese de você reiniciar sua máquina 20 vezes por dia, seu HD só deve dar os primeiros sinais de fadiga depois de uns cinco ou seis anos, ou seja, quando já estiver mais que na hora de você comprar um PC novo.
Observação: Ainda que deixar o computador em standby ou em hibernação seja vantajoso em determinadas circunstâncias, até porque a máquina "desperta" mais rapidamente do quando é religada depois de um desligamento total, prolongar uma sessão do Windows por dias a fio (mesmo que ela seja seccionada por suspensões e/ou hibernações) resultará fatalmente em lentidão ou instabilidades que acabarão levando a um crash total. Portanto, não se acanhe em reiniciar a máquina ao menor sinal de problemas iminentes.
Conforme foi dito em outras postagens, DLLé a sigla de Dynamic Link Library e remete a uma solução (desenvolvida pela Microsoft) mediante a qual as principais funções usadas pelos aplicativos são armazenadas em "bibliotecas" pré-compiladas e compartilhadas pelos executáveis. Assim, quando um programa é encerrado, os arquivos DLL que ele utilizou permanecem carregados na memória, dada a possibilidade de esse mesmo aplicativo voltar a ser aberto ou de o usuário executar outros programas que compartilham as mesmas bibliotecas. Mas isso acarreta um desperdício significativo de RAM e, consequentemente, aumenta o uso do swap-file (arquivo de troca da memória virtual). Como a RAM é volátil, a reinicialização “limpa” os chips de memória, fazendo com que o sistema ressurja lépido e fagueiro (ou nem tanto, dependendo do tempo de uso e da regularidade com que o usuário executa os indispensáveis procedimentos de manutenção).
Observação: Reiniciar um aparelho consiste basicamente em desligá-lo e tornar a ligá-lo logo em seguida. O termo reinicializar não significa exatamente a mesma coisa, mas o uso consagra a regra e eu não pretendo encompridar este texto discutindo questões semânticas. Interessa dizer é que desligar o computador interrompe o fornecimento da energia que alimenta os circuitos e capacitores da placa-mãe e demais componentes, propiciando o "esvaziamento" das memórias voláteis. Já quando recorremos à opção "Reiniciar" do menu de desligamento do Windows, o intervalo entre o encerramento do sistema e o boot subsequente pode não ser suficiente para o esgotamento total das reservas de energia, razão pela qual, para não errar, desligue o computador e torne a ligá-lo depois de alguns minutos sempre que uma reinicialização se fizer necessária.
O que foi dito nesta sequência de postagens se aplica ao PC, mas, guardadas as devidas proporções, vale também para smartphones, tablets e outros dispositivos eletroeletrônicos comandados por um sistema operativo, por mais simples que ele seja.
TEMER, O INCANSÁVEL
TRABALHADOR
Desde maio do ano passado, quando assumiu o timão da nau dos
insensatos, Michel Temer nunca
trabalhou tanto como nas últimas semanas. Pena que esse afã não visasse aos
interesses da nação, mas apenas a evitar a abertura do inquérito no supremo que
pode torná-lo mais um candidato a hóspede do sistema penitenciário tupiniquim
com escala no gabinete mais cobiçado do Palácio do Planalto. Afinal, Lula já está bem encaminhado nessa
direção, Dilma deve segui-lo em
breve e os atuais presidentes da Câmara e do Senado não tardam a seguir pela
mesma trilha, já que ambos são investigados na Lava-Jato e ainda não se
tornaram réus porque, no STF, as
denúncias avançam a passo de cágado perneta.
E o pior é que, no Supremo, as coisas se arrastam mesmo depois
da condenação. Prova disso é o fato de Paulo
Maluf continuar livre, leve e solto, a despeito de ter sido condenado pela
1ª Turma a 7 anos, 9 meses e 10
dias de prisão por lavagem de dinheiro (com início da pena em regime
fechado), além de pagamento de multa e perda do mandato de deputado federal. A
decisão foi proferida em maio, mas até agora não surtiu qualquer efeito.
Talvez
os ministros estejam confiantes de que Maluf
seja preso pela Interpol ― vale lembrar que a Corte de Apelações de Paris
condenou o conspícuo deputado a três anos de prisão e pagamento de multa de 200
mil euros, além de determinar o confisco de 1,84 milhão de euros. Sua esposa, Silvia Lutfalla Maluf, também foi
condenada a três anos, com multa de 100 mil euros. Mas para isso o turco lalau
terá de sair do país, já que o Brasil não extradita seus cidadãos. Muito
conveniente, né?
Voltando a Michelma belle: para comprar
o voto das marafonas do parlamento, que se vendem como prostitutas em bordéis
da boca-do-luxo, somente neste mês o presidente liberou cercade
R$ 2 bilhões em emendas (valor equivalente ao total de todo o
primeiro semestre). Isso quando a previsão é de que as contas públicas
fechem o ano com um rombo de R$140 bilhões ― ou um pouco menos, já
que, para fazer caixa, sua insolência resolveu se espelhar em sua abilolada
antecessora e tascar um tarifaço de impostos nos combustíveis. A liminar do
juiz federal Renato Borelli, que anulava o aumento, já foi derrubada pelo desembargador Hilton Queiroz, presidente do TRF1. Cabe recurso, naturalmente, mas
aí a decisão final fica sabe lá Deus para quando, e mesmo que a medida
presidencial seja cassada, o governo certamente encontrará maneiras de
escorchar o contribuinte e forçá-lo a pagar a conta de sua incompetência, até
porque, pelo visto, cortar gastos está fora de cogitação.
Da sociedade, Temer e seus comparsas esperam boa vontade, solidariedade e compreensão.
Faz sentido: se o cidadão já é assaltado por bandidos cotidianamente, por que
não ser assaltado também por um Estado inchado, ineficiente e incapaz?
TUDO É RELATIVO: O TEMPO QUE DURA
UM MINUTO DEPENDE DE QUE LADO DA PORTA DO BANHEIRO VOCÊ ESTÁ.
Os computadores evoluíram muito desde o ábaco dos antigos
egípcios, mas mais ainda e muito mais depressa nas últimas duas ou três
décadas. Até o final dos anos 1960, a computação pessoal era apenas um sonho
distante. Thomas Watson, presidente da
gigante IBM, saiu-se, em meados dos
anos 1940, com a seguinte pérola: “Eu acredito que há mercado para talvez
cinco computadores”. Claro que naquela
época essas máquinas maravilhosas ainda eram gigantescos mainframes, que jamais
caberiam numa residência comum. Mas as previsões continuaram cambaias durante
anos. Ken Olsen, presidente e fundador da Digital Equipment Corp.,
disse em 1977: “Não há nenhuma razão para alguém querer um computador em
casa” ― e viveu tempo suficiente para se arrepender amargamente da sua
falta de previsão.
O fato é que os PCs
atuais (e não estou falando apenas em desktops e notebooks, mas também nos tão
populares tablets e smartphones, que são os verdadeiros “microcomputadores”) já
não ocupam salões enormes ou precisam ser mantidos sob forte refrigeração como
os gigantescos computadores usados quase que exclusivamente por órgãos governamentais
e grandes corporações até o início da década de 80. Mesmo assim, essas
maravilhas da tecnologia ainda não atingiram a perfeição (e provavelmente jamais
atingirão, embora venham chegando cada vez mais perto disso).
Computadores como os
conhecemos, seja o tradicional modelo de mesa, seja um portátil ou um ultra
portátil, são comandados por um sistema operacional e trabalham com aplicativos.
Esses programas são criados e desenvolvidos por seres humanos, e se somos todos
falíveis, o mesmo se aplica a eles, daí a necessidade de os mantermos
atualizados, pois, durante seu ciclo de vida, os softwares costumam receber correções
e atualizações que não só os deixam mais seguros, mas também lhes agregam novos
recursos e funções.
Por outro lado, a
maneira como tudo isso funciona, com o sistema e os programas sendo armazenados
de forma persistente na memória de massa e de lá carregados para a memória
física (RAM) pelo processador ― tido e havido como o cérebro do
computador ― continua sendo basicamente a mesma do início da era PC, a despeito
de o hardware ter evoluindo significativamente e se tornado mais poderoso e
eficiente a cada nova versão. Do ponto de vista do sistema operativo, a
substituição do Windows 9x/ME pelo XP, na virada do século, trouxe
melhorias notáveis. Ainda assim, instabilidades, congelamentos e travamentos
ainda podem ocorrer, mesmo que com uma frequência muito menor do que ocorriam
nos anos 90.
Conforme eu já
comentei em dezenas de postagens, o grande vilão dessa história nem sempre é o
hardware ou o Windows, e sim o uso de drivers da placa-mãe, chipset e
dispositivos problemáticos ou inadequados, aplicativos conflitantes com o
sistema ou com outros aplicativos, e por aí vai. O lado bom da história
é que uma saudável reinicialização geralmente repõe o bonde nos trilhos,
seja no PC de mesa, seja nos notebooks,smartphones e tablets ― e, por que
não dizer, nos modems, roteadores, impressoras, decoders de
TV por assinatura e dispositivos eletrônicos assemelhados.
Observação: Reiniciar o computador também é uma
etapa indispensável para a correta
instalação de uma vasta gama de aplicativos, reconhecimento de novos componentes de hardware, validação de atualizações de software
e diversas tarefas de manutenção.
Concluímos amanhã. Um ótimo dia a todos e até lá.
ESTÃO BRINCANDO COM FOGO. VÃO ACABAR SE QUEIMANDO.
Petistas, peemedebistas e maus políticos de outras
agremiações preparam um golpe para outubro. No debate sobre o novo Código de Processo Penal na Câmara,
numa clara mobilização para reprimir a Lava-Jato e salvar seus rabos sujos,
suas insolências discutem mudanças nas regras de delação premiada, prisão
preventiva e condução coercitiva, além da revogação do entendimento de que as
penas podem começar a ser cumpridas após a condenação em segunda instância
(matéria já pacificada pelo STF, mas se a alteração for votada, aprovada e
inserida no novo CPP, fica o dito pelo não dito).
O deputado petista Vicente
Cândido, relator do projeto da (eterna) reforma política, escamoteou em seu
parecer uma regra que visa aumentar 16
vezes o período de imunidade temporária desfrutada por candidatos, que,
atualmente, não podem ser presos ― a não ser em flagrante delito ― a partir do
15º dia que antecede ao da eleição. Por razões óbvias, essa proposta foi
batizada de “Emenda Lula” ― o
deputado e o deus pai da petralhada são amigos de longa data, desde antes da
fundação do PT ―, mas Cândido garante que o filho do Brasil e
alma viva mais honesta da galáxia não sabia de nada, que o apelido é pura
maldade da mídia. Só faltou explicar como e por que resolveu incluir em seu
relatório essa emenda estapafúrdia dois dias depois da condenação de Lula em primeira instância.
Outros participantes da comissão da reforma política dizem
que não foram consultados sobre a mudança e classificam a proposta de indecente. “Daqui a pouco a candidatura
vai ser um passe livre para bandido. (...) Não fui consultado e vou votar
contra. É apenas uma tentativa de blindar bandido para se candidatar”, disse o
deputado Espiridião Amin.
Na avaliação do deputado tucano Betinho Gomes, a proposta do colega petista é uma
"provocação", e, assim como Amin,
diz que votará contra. “Na condição de relator, ele pode apresentar qualquer
coisa, inclusive esse abuso. Isso é um achincalhe, uma provocação. É um
escárnio com a sociedade, algo que foge totalmente ao bom senso ―, afirmou o
tucano.
A postura de nossos conspícuos parlamentares é
estarrecedora. Se isto aqui fosse um país sério, nenhum deles receberia um voto
sequer (além do próprio e de familiares, naturalmente) nas próximas eleições,
quando, além do presidente da Banânia, serão eleitos (ou reeleitos,
considerando os que tencionam continuar mamando nas tetas do Congresso) todos
os 513 deputados federais e 2/3 dos 81 senadores. Brasília parece um mundo à
parte, um planeta distante, de onde não se vê e nem se sabe o que se passa no
restante do país.
Semanas atrás, para obstruir a votação da reforma
trabalhista, a senadora petista Gleisi
Hoffmann ― ré na Lava-Jato e atual presidente do PT ― e outras quatro colegas “de esquerda” se abancaram na mesa
diretora do Senado por mais de 6 horas, numa cena de pura poesia revolucionária orquestrado à socapa pelo
ex-guerrilheiro de festim e ora presidiário (temporariamente em prisão
domiciliar, mas ainda assim presidiário) José
Dirceu.
A reforma acabou passando, mas o mais estarrecedor foi saber
que, durante todo o motim, as bravas
senadoras lutavam pelos direitos da mulher trabalhadora obedecendo por telefone
às instruções do presidente da CUT. Para um país que mal superou o trauma
de ter como primeira presidente mulher uma besta teleguiada pelo padrinho ―
aliás, Dilma também telefonou para
prestar solidariedade às cumpanhêras
senadoras ―, o protesto feminista com
controle remoto masculino foi algo lamentável.
Basta por ora. O resto fica para uma próxima postagem.
“MEU SILÊNCIO NÃO ESTÁ À VENDA”, DISSE CUNHA.
ORA, SE NÃO ESTÁ À VENDA, MUITO PROVAVELMENTE É PORQUE JÁ FOI COMPRADO.
O subsistema
de vídeo, formado pelo monitor e pela placa gráfica, representa o principal
meio de comunicação do PC com o usuário. De uma década para cá, os anacrônicos,
volumosos e desajeitados monitores "de tubo" (CRT) deram lugar às telas de cristal líquido (LCD), que são mais finas e elegantes, gastam menos energia, geram
menos calor, acumulam menos poeira e não estão sujeitas ao famigerado efeito flicker (cintilação).
Observação: Houve quem apostasse nas telas de plasma como substitutas do velho
tubo, mas por diversas razões (dentre as quais vale citar o custo de produção
elevado e, consequentemente, o preço final nas alturas), essa tecnologia acabou
sendo aproveitada na construção de monitores de TV de telas imensas.
As caixas
acústicas foram incorporadas aos PCs quando os drives de CD se popularizaram. Até
o final dos anos 90, era preciso comprar esse componente em separado, o que não
fazia muito sentido, pois os aparelhos nem sequer dispunham de uma placa de som
― contavam apenas com um pequeno alto-falante, no interior do gabinete, que era
mais do que suficiente para reproduzir os "bips" produzidos pelo BIOS durante o boot e os sons rudimentares
de alguns games. Todavia, quem gosta de ouvir música no PC (ou assistir a
clipes de vídeo e filmes em streaming) não ficará satisfeito com o som
reproduzido pelas caixinhas chinfrim que acompanham os desktops ― ou os falantes
embutidos nos notebooks. Nesse caso, vale a pena adquirir um conjunto de melhor
qualidade, amplificado e com sub-woofer integrado, ou, alternativamente,
recorrer a bons fones de ouvido.
O modem analógico também não acompanhava
os PCs de primeiras safras, mas passou a ser integrado quando o acesso à
Internet via rede dial-up (conexão discada, lembrar?) começou a se tornar
popular entre usuários domésticos. Anos mais tarde, a disseminação da banda
larga levou os fabricantes a não mais fornecer o dispositivo (e o mesmo
aconteceu com o floppy drive e o drive de mídia óptica, primeiro nos notebooks,
depois nos modelos all-in-one). Já a placa
de rede (LAN), utilizada na conexão em banda larga cabeada, também vem
sumindo das prateleiras, notadamente depois que os smartphones e, mais adiante,
os tablets popularizaram o uso dos ― hoje onipresentes ― roteadores wireless.
Por último,
mas não menos importante, o teclado e o mouse, que são os principais
dispositivos de entrada de dados. Existem modelos para todos os gostos e
bolsos, mas um conjunto básico wireless (sem fio) das marcas Microsoft ou Logitech, por exemplo, oferece
funcionalidade bastante aceitáveis e são comercializados a preços acessíveis.
Quanto à conexão com o PC, a interface utilizada atualmente é a USB, que
apresenta vantagens indiscutíveis em relação aos obsoletos conectores
DIN/Mini-DIN, que desapareceram das prateleiras.
Observação: Não é boa política pagar caro por teclados ou mouses repletos de
funções que você dificilmente irá utilizar e uma profusão de botões cuja
finalidade você dificilmente se dará ao trabalho de programar
Se você usa
um notebook como substituto do desktop, saiba que pode “substituir” o touchpad (aquele "tapetinho"
que faz o papel do mouse) e o próprio teclado do aparelho por modelos
convencionais, com interfaces USB.
Na maioria dos casos, basta plugar os periféricos e reiniciar o computador para
que o Windows os reconheça
automaticamente.
Já os joysticks são úteis para gamers de
carteirinha, já que alguns jogos são tão complexos que é quase impossível
executá-los via teclado/mouse.
Alguns modelos são até melhores do que os consoles dedicados, mas só vale
investir nisso se você realmente é fã de games; do contrário, esses
dispositivos são tão inúteis quanto pente em bolso de careca.
Isso encerra esta sequência, pessoal. Abraços e até o próximo post.
IMPRESTÁVEIS DO PRIMEIRO AO QUINTO!
PT, sindicatos e
movimentos sociais ligados à quadrilha ficaram de realizar atos em defesa de Lula e pelo “Fora Temer”, pelas “diretas
já” e outras bobagens que tais. Aqui em Sampa, a corja de desocupados e os vândalos que tradicionalmente
vêm no pacote prometeram se reunir defronte o vão livre do MASP, como já se acostumaram a fazer. Parece que a festinha de
embalo, marcada para o final da tarde desta quinta-feira, vai contar com a
presença da bandida/chefa da quadrilha e ré na Lava-Jato Gleisi Hoffmann, do comandante máximo da ORCRIM e de uma certa anta vermelha com cérebro de ameba. Para quem
gosta de merda, é um prato cheio.
Observação: Estou escrevendo este texto no meio da tarde
da quinta-feira, de modo que a avaliação dos movimentos ficará para a manhã de sexta.
Além da capital e do estado de São Paulo, Rio, Bahia, Minas,
Rio Grande do Sul, Santa Catarina e Brasília também devem ser brindados
com atos similares. E no próximo dia 27 será a vez do Vem Pra Rua, com sua “Marcha
Contra a Impunidade e Pela Renovação”, que pede a saída de Temer, a prisão de Lula, e o andamento célere das condenações e a prisão dos facínoras
que tomaram de assalto o país.
Está mais que na hora de acabar com essa palhaçada, jogar
uma pá de cal nesse revanchismo idiota e formar uma frente coesa contra a
impunidade, em prol de uma reforma cabal na política, com a imediata deposição
de TODOS os parlamentares enrolados na Justiça e substituição do purgativo Michel Miguel Elias Temer Lulia pelo
próximo na linha sucessória QUE NÃO SEJA
RÉU NEM ALVO DE INVESTIGAÇÃO NA LAVA-JATO.
Esse enredo falacioso de “ruim com Temer, pior sem ele” é tão convincente quanto a inocência
de Lula. Pior sem Temer? Só se for para ele e seus
confluentes, como já se viu no plano internacional ― onde o presidente já não
encontra abrigo ―, na economia ― onde o mercado já “precificou” a troca de
comando ―, e na política ― onde é a presença de Temer, e não seu possível afastamento, o maior fator de
instabilidade. Essa história de que a deposição (mais uma) do chefe do
Executivo agravaria a crise só reverbera entre a reduzidíssima confraria de
apaniguados que apoia MichelTemer por interesses pessoais. Fora do
círculo de ministros e assessores do presidente, contam-se nos dedos (da mão
esquerda de Lula) os poucos
gatos-pingados que defendem sua permanência no cargo ― e apesar do esforço que
o Planalto tem feito para demonstrar o contrário, Rodrigo Maia não é um deles, como ficou claro, na última terça-feira.
É certo que tudo isso não passa de um jogo de interesses, no qual as peças mudam no tabuleiro como as
imagens num caleidoscópio. Temer,
ministros e dirigentes do DEMminimizaram os fatos e agora dizem
que a questão está superada. Pode até estar, mas não se sabe até quando.
Claro que não é hora para construir muros, mas sim pontes na
relação com aliados. Todavia, como cada deputado irá votar no próximo dia 2 ―
caso se consiga quórum de 342 parlamentares, sem o que a votação não pode ser
iniciada ― vai depender do que acontecer até lá. Faltam 11 dias, mas no
contexto político atual, onde tudo muda o tempo todo... Enfim, vamos acompanhar
e ver o que vai dar.
E já que estamos falando em imprestáveis, Lula parece alimentar esperanças de reverter a condenação imposta
por Moro no TRF4. A cantilena é a de sempre, ou seja, ele é uma vítima
inocente, um perseguido político, e blá, blá, blá. Segundo a Folha de S. Paulo,
dois dos desembargadores da 8ª Turma,
que vai julgar o recurso de Lula,
aplicaram, na última quarta-feira, aquela que pode ser a maior pena da Lava
Jato. Eles condenaram Sérgio Mendes,
da Mendes Jr, a 47 anos e 3 meses de
prisão ― a sentença do juiz Sergio Moro
tinha sido bem mais camarada: 19 anos e 4 meses. Lula lá!
Para encerrar, a versão condensada de um texto de Ricardo Noblat:
Nada mais natural e ao
mesmo tempo moralmente indefensável do que distribuir cargos e verbas em troca
de votos de parlamentares. É o que Michel
Temer vem fazendo desde o primeiro dia como presidente (interino), o que
fizeram todos os governos que o antecederam e o que farão os que o sucederem,
infelizmente. Até porque um presidente que se cercasse de adversários e
desprezasse os aliados não resistiria no cargo durante muito tempo. Mas aqui os
cargos e verbas públicas são usadas para que parlamentares abiquem de suas
convicções e traiam seus eleitores.
Os presidentes não loteiam os cargos com o
propósito de que eles sejam usados para roubar, mas sabem isso ocorrerá,
discreta ou explicitamente, e é por isso que o sistema político brasileiro
apodreceu. Raros são os candidatos que bancam do próprio bolso a sua campanha.
A maioria paga as contas e forram seus bolsos com o dinheiro do fundo do
partidário e com o que arrecadam através de apaniguados bem colocados no
serviço público.
É à base do
toma-lá-me-dá-cá que são produzidas as mais tenebrosas transações e, ao final,
quem paga a conta são os contribuintes. É por isso que governos impopulares
como o atual conseguem sobreviver às mais precárias situações. Podem ser fracos
da porta da rua para fora, mas são fortes da porta do Congresso para dentro.