Mostrando postagens classificadas por data para a consulta maestro chinfrim. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta maestro chinfrim. Ordenar por relevância Mostrar todas as postagens

quarta-feira, 15 de abril de 2026

MISTÉRIOS DA MEIA-NOITE — AINDA SOBRE A CONSCIÊNCIA

SESSENTA ANOS ATRÁS, EU SABIA TUDO. HOJE, SEI QUE NADA SEI. A EXPERIÊNCIA É: SE ALGUMA COISA PODE DAR ERRADO, DARÁ, E DA PIOR MANEIRA, NO PIOR MOMENTO E DE MODO A CAUSAR O MAIOR DANO POSSÍVEL.

Um experimento conhecido como borracha quântica de escolha retardada comprovou que, ao atravessarem uma barreira com duas fendas, os fótons podem se comportar tanto como partícula quanto como onda, “decidindo” a cada vez como agir com base na maneira com que são observados.


Esse experimento utilizou fótons emaranhados e espelhos para retardar a escolha em tempo real em relação ao observador, visando “forçar” a luz a reagir a uma decisão que ainda não fora tomada, e os fótons não se deixavam enganar, demonstrando que as decisões de hoje podem ser o resultado das escolhas de amanhã.


CONTINUA DEPOIS DA POLÍTICA


O relatório final da CPI do Crime Organizado, que pedia o indiciamento de três ministros do Supremo e do PGR, foi rejeitado com a ajuda decisiva do governo federal. Mas a repercussão desse formidável escândalo político ficou — e é de proporções que nenhum noticiário fabricado sob medida conseguirá encobrir por muito tempo.

O relatório é uma peça política dentro de um embate muito mais amplo entre os Poderes, e, no momento atual, a crise institucional é pautada não apenas por decisões do STF enquanto colegiado, mas pela conduta individual de alguns de seus membros — notadamente aqueles que a CPI tentou indiciar. Essa distinção importa, mas não muda o fato de que a crise de credibilidade e de legitimidade da corte transformou-se em fator eleitoral de grande projeção, e é aí que reside o verdadeiro escândalo político: um tribunal que deveria estar acima das disputas tornou-se protagonista delas, e não por acaso.

Com o poder do Supremo visto como exagerado, injusto e inaceitável por uma parcela significativa dos eleitores, a resposta de pelo menos um dos ministros citados no relatório foi a de sempre: a cassação dos senadores que ousaram pedir o indiciamento das togas, sob o pretexto de que críticas à Corte equivalem a ataques à democracia. É o tipo de argumento que não cola mais — se é que colou algum dia fora dos círculos que se beneficiam dele. Confundir a instituição com as pessoas que a ocupam é um truque antigo; usá-lo para silenciar adversários é algo que tem nome, e esse nome não é democracia.

A crise do Supremo tem dono, e esse dono é o próprio Supremo. Seus ministros sabem tanto o tamanho do abismo quanto a razão pela qual ele apareceu sob seus pés. Edson Fachin, atual maestro do supremo circo mambembe, gosta de lembrar que cada "clown" é responsável pelas próprias escolhas. Perfeito. Se fosse levado a sério por todos ali dentro, o espetáculo chinfrim não estaria rolando desfiladeiro abaixo graças a magistrados que imaginam não dever explicações a ninguém — muito menos ao povo em cujo nome deveriam exercer o poder.

Houve um tempo em que eu tive vergonha de ser brasileiro. Hoje, tenho nojo.


Ao longo dos últimos 50 anos, cientistas conceituados realizaram uma série de testes que fortaleceram a tese da consciência não—local. Curiosamente, tentativas meticulosas de repetir ensaios como o Experimento Ganzfeld fracassaram ou foram inconclusivas, levando os céticos a tratar a noética como pseudociência e seus defensores como afoitos ou charlatões.


O psicólogo social Daryl Bem, autor de um artigo controverso chamado Sentir o Futuro (2011) — forneceu aos participantes de um experimento uma lista de palavras aleatórias e lhes pediu que as memorizassem. No dia seguinte, ele entregou uma seleção curta de palavras escolhidas aleatoriamente e pediu que as memorizassem. Os resultados do primeiro dia indicaram claramente que os participantes tinham maior probabilidade de recordar palavras que só veriam e memorizariam no segundo dia. Isso pode parecer incrível, mas resultados como esse alimentam a hipótese de que a retrocausalidade é real, como observaram pesquisadores sérios em diversos experimentos. 

  

Na história religiosa, alegações publicadas são frequentemente atacadas no debate entre crédulos e incrédulos. A datação por carbono 14 comprovou que Sudário de Turim era 1.200 anos posterior à crucificação de Cristo. A célebre Inscrição do Ossuário de Tiago de 2002 também foi falsificada, a exemplo do decreto imperial conhecido como Doação de Constantino, que se revelou uma fraude criada pela Igreja para consolidar seu poder.


A ideia de que o tempo anda para trás parece não fazer o menor sentido, mas é bom lembrar que o conceito de seta do tempo remonta à Segunda Lei da Termodinâmica, que foi proposta por Nicolas Léonard Sadi Carnot no século XIX, e não é uma unanimidade entre os cientistas, já que a entropia descreve fenômenos macroscópicos, e as interações fundamentais da física em escalas microscópicas — como as equações da mecânica quântica e da relatividade geral — funcionam igualmente nos dois sentidos do tempo.


Voltando à consciência não-local, se os noéticos estiverem certos, o Universo não é limitado pelo tempo linear, como os seres humanos o vivenciam, pois opera como um “todo atemporal” no qual passado, presente e futuro coexistem. Se um atleta bate um recorde mundial, ninguém conclui que as câmeras enganaram todo mundo ou que os espectadores sofreram uma alucinação coletiva. E o fato de o mesmo feito não ser reproduzido por outros atletas não significa que ele não ocorreu. 


A replicabilidade é fundamental no processo científico, mas torna-se problemática quando descemos ao nível quântico, mesmo porque a característica mais marcante da física quântica é justamente a imprevisibilidade. Ondas de probabilidade, flutuações quânticas, tunelamento quântico, superposições, dualidades, caos e o princípio da incerteza podem ser descritos em linguagem comum como “não se sabe o que vai acontecer porque as regras da física clássica não se aplicam”. 


Já a consciência não é um órgão físico, feito de carne e osso. A dificuldade em observá-la com qualquer previsibilidade ou replicabilidade advém do fato de ela existir no plano quântico. Tentar observá-la com a própria consciência seria como tentar observar nossos próprios olhos sem usar um espelho.


Continua…

segunda-feira, 3 de novembro de 2025

COMO ESCOLHER UM SMARTPHONE

NÃO HÁ LÓGICA MAIS INARGUMENTÁVEL E LOUCA QUE A DOS FANÁTICOS OBCECADOS.

O processador sempre foi considerado o “cérebro” do computador. No alvorecer da “era PC”, as pessoas se referiam a seus aparelhos pelo modelo da CPU — acrônimo de Central Processing Unit, que designa o chip principal, e não o gabinete, como muita gente ainda parece achar. 


Assim, fulano tinha um “386” (referência ao chip Intel 80386); sicrano, um “Pentium 200” (alusão aos 200 MHz, que correspondem a 200 milhões de ciclos por segundo); beltrano, um “K6 II” (modelo da AMD que precedeu o Athlon e concorreu diretamente com o Pentium II), e assim por diante.

 

Naquela época, a diferença entre um 386 e um 486, ou entre um Pentium 100 e um Pentium 200, saltava aos olhos, e os usuários sabiam que ter mais MHz significava aplicações rodando mais rápido. Mas isso mudou quando os fabricantes introduziram inovações como coprocessador matemático, cache de memória e multiplicador de clock em seus microchips. Em tese, quanto maior o clock, melhor o desempenho; na prática, duas CPUs operando a 3 GHz realizam 3 bilhões de ciclos por segundo, mas o que cada uma é capaz de fazer em cada ciclo é outra história.

 

Hoje, raramente ouvimos alguém dizer que tem um “Core i7-13700K”, por exemplo. Mesmo quem não domina as sutilezas do hardware sabe que a quantidade de RAM, o tipo de armazenamento (SSD ou HDD) e a placa gráfica são igualmente importantes — ou até mais, pois as CPUs modernas dão conta da maioria das tarefas cotidianas. Um chip Core i3 atual, por exemplo, supera com folga os Intel Pentium III — que eram “a última bolacha do pacote” em 1999 —, mas o desempenho do aparelho como um todo pode ser limitado pelo armazenamento ou pela quantidade de memória RAM disponível.

 

Como vimos anteriormente, depois que os celulares se tornaram verdadeiros microcomputadores ultraportáteis, os desktops e notebooks foram relegados a situações que exigem telas de grandes dimensões, teclado e mouse físicos e mais “poder de fogo” do que a maioria dos smartphones medianos é capaz de oferecer. No entanto, ao escolher um celular ou tablet, as pessoas costumam se ater ao tamanho da tela, ao armazenamento interno e, em menor medida, à quantidade de memória RAM e à capacidade da bateria (lembrando que 10% dos brasileiros sofrem de nomofobia). Embora seja o "regente da orquestra, o processador raramente é lembrado, e músicos competentes podem mascarar a inépcia de um maestro chinfrim, mas nem André Rieu proporciona um bom espetáculo sem a contrapartida de cada integrante de sua orquestra.

 

No âmbito dos celulares, o chip Snapdragon 8 Gen 3 e o Snapdragon 8 Gen 3 for Galaxy estão entre os mais utilizados. Eles fazem basicamente o mesmo que as CPUs dos desktops e notebooks, mas o segundo foi desenvolvido especialmente para equipar os Samsung Galaxy S25 e Z Fold 7 (lançados no início deste ano). Já o primeiro chegou ao mercado em outubro de 2023 com foco em turbinar a inteligência artificial em smartphones e tablets premium com sistema Android, como o Galaxy Z Flip 6 e o Asus ROG Phone 8 Pro. Em meados deste ano, a Qualcomm lançou duas variantes mais modestas do Snapdragon 8 Gen 3, com apenas 6 núcleos (em vez de 8), voltadas a aparelhos intermediários.

 

Para não errar, tenha em mente que escolher um celular só pela aparência ou pelo número de câmeras é como escolher um carro pela cor. A ficha técnica está ali por um motivo, e entender pelo menos o básico sobre três itens — processador, memória RAM e armazenamento interno — pode evitar gastos desnecessários e eventuais arrependimentos. Já vimos que o processador tem impacto direto na velocidade, fluidez e capacidade de multitarefa do aparelho. 

 

Em linhas gerais, quanto mais núcleos, mais tarefas simultâneas podem ser realizadas; e quanto maior a frequência, maior tende a ser a velocidade de execução. Mas isso não quer dizer que um chip octa-core (8 núcleos) seja necessariamente melhor que um hexa-core (6 núcleos), já que geração do processador também entra na equação. Chips mais modernos tendem a ser mais potentes e eficientes, mesmo com menos núcleos ou frequência inferior à de modelos antigos, além de consumirem menos energia e, consequentemente, gerarem menos calor.

 

A memória RAM é responsável por manter os aplicativos funcionando sem engasgos. Quanto mais RAM, melhor a experiência de uso — especialmente para quem abre várias abas do navegador, usa redes sociais, jogar ou assiste a vídeos ao mesmo tempo. Para tarefas básicas (WhatsApp, navegador, YouTube, redes sociais), 4 GB ainda dão conta do recado, mas o mínimo recomendável hoje é 6 GB (se seu bolso permitir, invista num modelo com 8 GB ou mais).

 

O armazenamento interno também segue a velha regra do “quanto mais, melhor”. Prefira um aparelho com 128 GB ou 256 GB (ou mesmo 512 GB, se o orçamento permitir). Evite modelos com 64 GB, mesmo que haja suporte a cartões microSD — recurso, aliás, cada vez mais ausente. Lembre-se de que uma parte considerável do armazenamento é ocupada pelo sistema operacional e pelos aplicativos pré-instalados pelo fabricante (crapware), que só podem ser removidos por meio de um processo conhecido como "root" (mais detalhes nesta sequência). Fotos, músicas, vídeos e outros arquivos volumosos podem até ser transferidos para o PC ou para a nuvem, mas isso já é outra conversa.

 

A Black Friday está aí, e o Natal não demora a chegar. Seguindo essas dicas e consultado o preço do modelo pretendido em várias lojas (físicas ou online) você certamente fará uma boa compra. Na pior das hipóteses, torça para que Papai Noel esteja de bom humor quando receber sua cartinha. Vai que cola...

quinta-feira, 26 de maio de 2022

AINDA SOBRE APLICATIVOS, MEMÓRIA RAM E TASK KILLERS

PARA O TRIUNFO DO MAL, BASTA QUE OS BONS FIQUEM DE BRAÇOS CRUZADOS.

Computadores integram memórias de diversas tecnologias em quantidades variáveis, mas sempre expressas em múltiplos do byte. Assim, é comum as pessoas confundirem a RAM (memória física ou primária) com o HDD/SSD (memória de massa, ou secundária, ou ainda "armazenamento") do sistema. 

 

A título de contextualização, relembro que o bit (de “BInary digiT”) é a menor unidade de informação manipulada pelo computador. Oito bits formam um byte; 1 kB (quilobyte) equivale a 1024 bytes (ou meia página de texto); 1024 kB, a um megabyte (espaço suficiente para armazenar um quinto da obra de Shakespeare). Um gigabyte corresponde a 1024 MB (espaço suficiente para gravar um filme de uma hora de duração); 1.000 GB formam 1 terabyte (15 terabytes são suficientes para digitalizar toda a biblioteca do congresso dos EUA); 1024 TB perfazem 1 Petabyte (1/5 do conteúdo de todas as cartas distribuídas pelo correio norte-americano), e assim por diante. 

 

A RAM (de Random Access Memory) é a memória física (ou primária) do computador. Isso vale para desktops, notebooks, smartphones e tablets. É nela que que o software é carregado e os dados, processados. Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.  

 

Nos PCs, a memória de massa (ou secundária) é provida tradicionalmente por um disco rígido (os modelos mais recentes contam com drives de memória sólida). É nessa memória (e a partir dela) que os dados são carregados na RAM — claro que não integralmente, ou não haveria espaço que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). Para saber mais, leia esta sequência de postagens.

 

Costuma-se dizer que um computador é tão rápido quanto seu componente mais lento. No âmbito das memórias, a secundária é milhares de vezes mais lenta que primária, que por sua vez é muito mais lenta que o processador. Assim, uma máquina que dispuser de 8 GB de RAM e de um processador mediano será “mais rápida” do que outra que conte com um chip de topo de linha e míseros 2 GB de RAM. A questão é que a RAM é volátil, daí a necessidade de haver um dispositivo capaz de armazenar o software de forma “persistente”, ou seja, que retenha os dados mesmo depois que o computador for desligado.

 

Em tese, quanto mais memória física o computador tiver, mais "rápido" ele será. Para agilizar ainda mais o trabalho do processador, o cache de memória (ou memória cache, ou simplesmente cache), representado por uma pequena quantidade de memória RAM estática e ultraveloz (e bem mais cara do que a RAM convencional), armazena as informações e instruções que são acessadas mais frequentemente e outros dados que o sistema “prevê” que o processador terá de acessar em seguida.

 

O conceito de memória cache remonta aos tempo dos jurássicos 386, quando se constatou que a lentidão da RAM obrigava a CPU (isto é, o processador; a caixa que abriga os componentes internos do computador se chama "case" ou "gabinete") a desperdiçar preciosos ciclos de clock aguardando a liberação dos dados necessários à execução das tarefas. 


Fica mais fácil de entender se compararmos o computador a uma orquestra e o processador ao maestro. Para uma boa apresentação, não basta um regente competente. Na verdade, músicos qualificados, afinados e entrosados podem até mascarar as limitações de um maestro chinfrim, mas não o contrário. Guardadas as devidas proporções, isso se aplica à performance do computador, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados.

 

Embora pareça um contrassenso, cabe ao gerenciamento de memória do sistema operacional manter o uso da memória o mais alto possível. Primeiro, porque memória é hardware — a gente paga por ela quando compra o aparelho, e não utilizar aquilo pelo que se pagou é desperdício de dinheiro. Segundo, porque, como dito linhas acima, a RAM é muito mais rápida que a memória secundária, e mantê-la ocupada é aproveitar melhor o dinheiro que investimos na compra do aparelho. 

 

Uma CPU de ponta será subutilizada se contar com pouca memória RAM. Para evitar mensagens de “memória insuficiente” (comuns na pré-história da computação pessoal, quando éramos obrigados a encerrar um ou mais aplicativos para que outros pudessem ser carregados e executados), a Intel criou a memória virtual (ou “swap file”, como alguns preferem dizer), que consiste num espaço alocado na memória de massa para o qual o Gerenciador de Memória Virtual (VMM) transfere as seções que não são prioritárias naquele momento e de onde as traz de volta quando necessário.

 

Convém ter em mente que a memória virtual é apenas um paliativo, não um substituto eficiente da RAM, uma vez que (como também já foi mencionado) a memória de massa, mesmo quando representada por um SSD, é muitas vezes mais lenta do que a memória física, e a constante troca de arquivos degrada consideravelmente o desempenho global do sistema.

 

Continua na próxima postagem.

quinta-feira, 10 de dezembro de 2020

SOLUÇÃO DE PROBLEMAS... PARTE VIII

A VAIDADE DE MUITA CIÊNCIA É PROVA DE POUCO SABER.

Bilhões de interruptores nanoscópicos abrindo e fechando bilhões de vezes por segundo, dentro de uma pastilha de silício menor do que um selo postal, geram uma quantidade monstruosa de calor. Somado a outras limitações físicas cujo detalhamento foge ao escopo desta postagem, esse problema levou os fabricantes a buscar alternativas para aumentar o poder de processamento de seus chips sem elevar ainda mais a frequência de operação.

Após seis anos no mesmo processo e cinco na mesma arquitetura, a Intel introduziu diversos aprimoramentos em seus produtos, como o STIM (material de interface térmica de solda) de matriz mais fina, que melhora o desempenho térmico e permite ao chip operar a até 5,3 GHz (no caso do Core i9-10900K). Mas, quando se executam os benchmarks, fica claro que a empresa atingiu seu limite com os 14 nm. Não fossem assim, seu processadores estariam operando na casa das dezenas de Gigahertz, mas empacaram nos 3,5 GHz — embora testes realizados com o Intel Core i7-3770K demonstrem que o chip suporta overclock de 100% (o que eleva a frequência de operação a mais de 7 GHz).

AMD vem aumentado sua participação no segmento de CPUs. Em setembro, a empresa abocanhou cerca de 25%; dois meses depois, sua fatia cresceu para 26,91%. Com a série Ryzen 5000 de 7 nm — que apresenta excelentes resultados, tanto para trabalho quanto para diversão —, e o lançamento do Zen 4 de 5 nm previsto para o próximo ano, tudo indica que esse percentual cresça ainda mais e mais rapidamente. Já a Intel deve lançar sua linha Rocket Lake (que utiliza uma variante de 14 nm) ainda no primeiro semestre de 2021. 

No que concerne a aceleradoras gráficas, a participação da AMD permanece bastante estável (de junho do ano passado a novembro deste, sua fatia aumentou de 14,8% para 16,5%). Isso se deve sobretudo à concorrência monstruosa do Ampere, da Nvidiamas isso já é uma outra história e vai ter de ficar para uma outra vez.

Como vimos, não se deve confundir a frequência de operação do processador com o desempenho do computador, já que a “velocidade” do chip é apenas uma das variáveis que determinam a performance do sistema como um todo. Aliás, a AMD deixou isso claro com a fórmula P = F x IPC, onde “P” é a performance; “F”, a frequência de operação e IPC, o número de instruções que o chip é capaz de executar a cada ciclo de clock.

Para facilitar a compreensão, pense no computador como uma orquestra, na qual o processador é o maestro e os demais dispositivos de hardware, os músicos. Além de um regente competente, uma boa apresentação exige que o oboísta, o contrabaixista, o violinista, o trompetista, o violoncelista e os demais componentes da orquestra sejam qualificados, afinados e integrados entre si. Bons músicos até podem suprir — ou disfarçar — as limitações de um maestro chinfrim, mas a recíproca não é verdadeira.

Guardadas as devidas proporções, esse mesmo raciocínio se aplica ao computador, cujo desempenho só será satisfatório se a configuração de hardware for equilibrada, com componentes adequados e bem dimensionados (volto a lembrar o ensinamento de Mestre Morimoto: todo computador será tão rápido quanto seu componente mais lento).

Claro que é importante ter uma CPU veloz, que esbanje poder de processamento. No entanto, se não houver memória RAM suficiente, o processador perderá ciclos e mais ciclos de clock esperando a memória virtual entregar os dados solicitados.

Observação: A memória virtual emula memória física a partir de um arquivo de troca (swap file) criado no disco rígido, para onde o Gerenciador de Memória Virtual remete as sessões que não são prioritárias naquele momento — e de onde as traz de volta quando necessário. Esse recurso, desenvolvido pela Intel e aprimorado ao longo dos anos, continua sendo usado até hoje, em que pese a lentidão que ele acarreta ao sistema por ser baseado no drive de HD — um dispositivo ultrapassado e milhares de vezes mais lento que a já relativamente lenta memória RAM.

Outra analogia de que gosto muito remete à dinâmica entre o processador, a RAM e o HDD. Vamos a ela:

Imagine o PC como um escritório e o processador como um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, esse incansável colaborador atende ligações, recebe informações, transmite instruções, elabora cartas e relatórios, responde emails e por aí afora, tudo praticamente ao mesmo tempo. No entanto, sempre que algum elemento indispensável ao trabalho não está sobre a mesa, o já assoberbado funcionário perde um bocado de tempo escarafunchando gavetas abarrotadas e estantes desarrumadas (quem mandou não desfragmentar o HDD?). E a situação fica ainda pior se ele precisa abrir espaço sobre a mesa atulhada para acomodar mais livros e pastas — isso sem falar que o coitado terá de arrumar tudo de novo antes de retomar a tarefa interrompida. 

Para quem não ligou os pontos, a escrivaninha corresponde à memória cache, as gavetas, à memória física (RAM), as estantes, à memória de massa (HDD) e a “abertura de espaço”, à memória virtual (ou arquivo de troca, arquivo de paginação, ou ainda swap-file).

Continua.

quinta-feira, 17 de outubro de 2019

CONHEÇA MELHOR SEU PC — CONTINUAÇÃO


A IDEIA DE QUE DEUS É UM GIGANTE BARBUDO DE PELE BRANCA SENTADO NO CÉU É RIDÍCULA. MAS SE, COM ESSE CONCEITO, VOCÊ SE REFERIR A UM CONJUNTO DE LEIS FÍSICAS QUE REGEM O UNIVERSO, ENTÃO CLARAMENTE EXISTE UM DEUS. SÓ QUE ELE É EMOCIONALMENTE FRUSTRANTE: AFINAL, NÃO FAZ MUITO SENTIDO REZAR PARA A LEI DA GRAVIDADE.

O que se convencionou chamar de microcomputador (ou PC) é a combinação de dois subsistemas distintos, conquanto interdependentes: o hardware e o software. Por hardware, entenda-se o conjunto de componentes físicos — placa de sistema, placas de expansão, processador, memórias, gabinete, etc., além de periféricos como monitor de vídeo, teclado, mouse, entre outros — e por software, o sistema operacional e os aplicativos (além de programas de baixo nível como drivers de dispositivo, firmwares e outros).

Antigamente, os veteranos costumavam dizer aos novatos que hardware era tudo aquilo que eles podiam chutar, e software, aquilo que eles só podiam xingar, mas isso já é outra história.

Como em qualquer "conjunto" — seja uma banda, uma orquestra ou um PC — o desempenho individual influencia, positiva ou negativamente, a performance global. No caso específico do computador, esse conceito tem mais a ver com o hardware que com o software, mas isso não quer dizer que o sistema e os programas não tenham sua parcela de responsabilidade.

Por mais habilidoso que seja o maestro, músicos desafinados e desentrosados dificilmente produzirão um bom espetáculo, da mesma forma que uma CPU de ponta só exibirá seu "poder de fogo" com a contrapartida de um SSD responsável e fartura de memória (claro que os demais componentes também contam, só que em menor escala).

Por outro lado, um processador mediano pode se sair bem se contar com muita memória RAM e um HDD (drive eletromecânico ultrapassado, mas bem mais acessível que os modelos baseados em memória flash) de preço acessível, mas espaçoso e veloz. A conclusão que se tira é que, a menos que dinheiro não seja problema, melhor investir numa máquina de configuração mediana, mas equilibrada (como diziam os antigos, in medio stat virtus), do que num modelo com processador de ponta, mas com pouca memória e HDD chinfrim.

Amanhã trataremos do software.

quinta-feira, 21 de fevereiro de 2019

AINDA SOBRE O DESEMPENHO DO PC


O HOMEM É ESSENCIALMENTE GANANCIOSO, TODO HOMEM INVESTIDO DE PODER É TENTADO A ABUSAR DELE.

Eu já disse, mas não custa repetir: um PC de configuração chinfrim é como um veículo popular 1.0: ambos se movem, mas nenhum deles tem um desempenho de tirar o fôlego. 

No caso do computador, minha recomendação sempre foi priorizar uma configuração equilibrada — um processador de ponta só mostra do que é capaz se contar com a contrapartida das memórias (física e de massa). Seria como numa orquestra, onde o maestro só consegue proporcionar um bom espetáculo se contar com músicos competentes, afinados e entrosados entre si. Substitua a orquestra pelo computador, o maestro pelo processador e os músicos pelos demais componentes e você terá uma boa ideia do que eu estou querendo dizer.

Observação: O computador é formado por dois segmentos distintos, mas interdependentes: o hardware e o software. O primeiro é a parte física — ou aquilo que você chuta — e o segundo, a parte “invisível” — ou aquilo que você xinga. Sistemas e programas (isto é, o software) estão cada vez mais exigentes (por recursos de hardware, como processamento, memória, etc.). Comprar um desktop de entrada de linha, daqueles que custam pouco mais de mil reais, e querer rodar programas como o Adobe Photoshop e games radicais, por exemplo, é arrependimento garantido. E ainda que seja possível fazer um upgrade posterior (de memória, HDD, e até de processador), o molho costuma sair mais caro do que o peixe. Então, ao escolher um PC, não se baseie unicamente pelo preço — nem tudo que é caro é bom, mas o que é bom geralmente custa mais caro.

Se você acha que seu PC ainda dá caldo — ou que o momento não é indicado para comprar uma máquina mais adequada às suas expectativas —, reveja as dicas que eu publiquei ao longo das últimas postagens e ponha em prática as que você achar que podem ajudar. Adicionalmente, remova todos os inutilitários, instale uma boa suíte de manutenção, faça uma faxina em regra no sistema, corrija eventuais erros no disco rígido e desfragmente os dados

O Windows dispõe nativamente de um limpador de disco e de ferramentas para corrigir erros e desfragmentar os dados no HDD, mas eu uso e recomendo o Advanced System Care e/ou o CCleaner (detalhes nas postagens anteriores), cuja gama de funções vai bem além dos limitados recursos dos utilitários nativos do sistema.

Manter o Windows e os demais aplicativos atualizados é fundamental. Clique em Configurações > Atualização e segurança > Windows Update > Verificar atualizações e instale todas as atualizações críticas, de segurança e de driver. Os programas "não Microsoft" não são contemplados pelo WU, mas a maioria avisa quando há atualizações disponíveis; para os que não o fazem, ou você faz o trabalho manualmente, ou recorre a ferramentas como o FILEHIPPO APP MANAGER, o OUTDATEFIGHTER, o R-UPDATER e o KASPERSKY SOFTWARE UPDATER, que poupam um boado de tempo e trabalho.

É verdade que um outro patch pode produzir resultados inesperados e indesejados, mas a Microsoft procura solucionar o problema com a possível urgência, e não é por causa de uma laranja podre que você vai jogar fora a caixa inteira. No geral, as atualizações aprimoram a segurança e o funcionamento do sistema como um todo, devendo ser implementadas sempre que estiverem disponíveis.

Desde que começaram a ser usados em PCs domésticos, os antivírus foram eleitos os grandes culpados pela lentidão do computador. É fato que a maioria deles tem um apetite voraz por recursos (processamento, memória, etc.), e que, para piorar, esse é o tipo de programa que precisa ser carregados na inicialização do sistema. Embora seu impacto no desempenho costume ser mais sentido durante as varreduras, é recomendável usar antivírus mais “leves” em máquinas de configurações mais pobres.

Observação: Uma alternativa ao antivírus é a virtualização do sistema (detalhes nesta postagem), mas eu considero essa solução mais adequada a computadores públicos (como os de lanhouses, cibercafés etc.) do que aos domésticos.

Se sua máquina estiver particularmente lenta e você tiver motivos para suspeitar do antivírus, experimente desativá-lo temporariamente e veja como o sistema se comporta. Se a melhora for palpável, substitua a ferramenta por outra que drene menos recursos (eu gosto muito do AVAST PREMIER, mas não tome qualquer decisão sem analisar o TOTAL AV, o PC PROTECT e o KASPERSKY INTERNET SECURITY, além, é claro, dos festejados produtos da SYMANTEC).

Volto a frisar que a influência do drive de disco rígido (memória de massa) no desempenho global do sistema é significativa. Os modelos baseados em memória sólida (SSD) vêm substituindo (a conta-gotas) os eletromecânicos, mas unidades de grandes capacidades ainda custam muito caro. Drives híbridos reúnem o melhor dos dois mundos, combinando um SSD de pequena capacidade (64 GB, p.e.) com um HDD convencional (eletromecânico). Assim, a memória sólida funciona como cache, armazenando os aquivos mais usados e agilizando o acesso a eles, enquanto os pratos magnéticos se encarregam dos demais conteúdos (música, vídeo, imagem, texto, etc.). Note que o processo é transparente e automático, ou seja, tanto o usuário quanto o sistema "enxergam um drive comum”.

Cumpre salientar que a desfragmentação de drives de memória sólida é desnecessária e desaconselhável, mas os modelos convencionais devem ser desfragmentados quinzenal ou mensalmente, conforme o uso do computador. Antes de executar a desfragmentação, veja qual o percentual de espaço livre na unidade. Se mais de 70% do total estiver ocupado, ponha as barbichas de molho (mais detalhes na próxima postagem).

O desfragmentador nativo do Windows 10 cumpre sua função, mas eu uso e recomendo o Smart Defrag, que é rápido, amigável, e oferece recursos como a desfragmentação off-line (feita durante a inicialização, de modo a contemplar arquivos que ficam inacessíveis quando o sistema está carregado), a otimização (que regrava os arquivos do sistema no início do disco para aprimorar o desempenho), a consolidação do espaço livre, e por aí vai.

É o que tínhamos para hoje, pessoal. Volto amanhã com mais dicas sobre o HDD e o desempenho do PC.

quinta-feira, 26 de outubro de 2017

A VOTAÇÃO DA SEGUNDA DENÚNCIA CONTRA TEMER E A CONSPIRAÇÃO CONTRA A LAVA-JATO



Como era esperado, Michel Temer conseguiu sepultar a segunda denúncia. Num espetáculo lamentável, mas que nos custou uma fortuna, a maioria dos “nobres deputados”, ao justificar o voto contra ou a favor do relatório da CCJ, usou e abusou dos mais estapafúrdios disparates. Detalhe: maioria é força de expressão, porque o placar foi de 251 a 233, com 2 abstenções e 25 ausências.

Pode-se contar nos dedos os parlamentares que disseram textualmente que não viam elementos suficientes para a autorizar a abertura de inquérito contra o presidente e seus comparsas ― o que é incrível, considerando o teor da conversa entre Temer e Joesley, a mala de dinheiro de Rocha Loures, etecetera, etecetera e tal, mas era isso que estava em discussão. A patuleia desvairada, então, ressuscitou o tal “golpe contra uma presidente honesta e honrada”, defendeu a volta de Lula e vociferou outros absurdos que tais. Nem imagino o que essa gente anda cheirando, mas deve ser forte pra cacete.

Uns poucos gatos pingados disseram votar contra o parecer em respeito a seus eleitores. Outros lembraram o índice de aprovação do presidente, que é de míseros 3%, mas apenas uns 2 ou 3 defenderam a prisão de Lula, Temer, Dilma, Aécio e demais corruptos ― no dia que isso acontecer, o Congresso ficará tão vazio quando cabeça da militante petista. Um deputado (não me lembro qual), disse exatamente o que eu venho sempre dizendo aqui: Se Temer não teme, por que tem tanto medo da investigação?

É certo que este não seria o melhor momento para trocar (novamente) o maestro desta orquestra chinfrim ― até mesmo em razão de quem seria promovido ao posto. Mas também é certo que a função dos deputados não era fazer esse tipo de julgamento, mas decidir, de forma ilibada e imparcial, se havia ou não indícios suficientes para autorizar a abertura de inquérito contra Temer e seus comparas. Mas o que esperar desse caterva se, dois dias atrás, o conselho de ética do Senado arquivou o pedido de afastamento de Aécio, o mineirinho safado que traiu 51 milhões de eleitores? A única explicação, a meu ver, é que o vocábulo “ética”, para nossos caríssimos congressistas, não tem o mesmo significado registrado pelos dicionaristas.

Temer recebeu alta e deixou o hospital ainda na noite de ontem. Conforme eu publiquei mais cedo, ele havia sido internado devido a uma obstrução na uretra, mas conseguiu esvaziar a bexiga com o auxílio de uma sonda ― embora não tenha precisado de ajuda para esvaziar os cofres na hora de comprar as marafonas da Câmara e se safar do processo no Supremo.

Enfim, chegamos ao day after com os aliados cantando vitória, apesar do placar decepcionante. Mas é inegável que eles conseguiram atravessar a ponte, ainda que aos trancos e barrancos. Agora, é preciso retomar a agenda econômica, e não será fácil conseguir os 308 votos necessários para a aprovação de PECs como a da Previdência.

Segundo O GLOBORodrigo Bolinha Maia, disse que o governo terá de repensar a estratégia para reconstruir a maioria entre os parlamentares. Aliás, a postura do presidente da Câmara sinalizará o futuro deste governo ― como aliado do Planalto, ele foi essencial para as vitórias de Temer no Congresso, mas, de olho nas eleições de 2018, vem mudando sua postura, até porque ninguém merece ser visto como aliado de um governo que tem míseros 3% de aprovação popular. Demais disso, é natural que, a esta altura do campeonato, os parlamentares foquem mais nas urnas do que na agenda do governo. Basta ver que, na votação de ontem, o PSDB ― maior partido da base aliada ― deu 20 votos ao Planalto e 23 contrários; o DEM e o próprio PMDB também deram menos votos ao governo que na primeira denúncia.


Se temos mesmo de aturar sua insolência por mais 14 meses, que isso surta efeitos positivos, que os mercados reajam bem, que economia continue se recuperando. Isso se Temer conseguir realmente chegar ao final do mandato, com 77 anos nas costas e indicação de repouso depois passar sete horas no hospital. Aliás, além de se recuperar fisicamente, o maior desafio de Temer, a partir e hoje, é mostrar que seu governo não acabou 14 meses antes do fim.

Por enquanto é só, pessoal. Enquanto esperamos a poeira baixar para fazer uma análise mais detalhada do quadro atual, deixo aqui um clipe de vídeo em que a jornalista Joyce Hasselmann tece considerações preocupantes sobre a possibilidade de o STF rever sua posição sobre a prisão após a confirmação da sentença em segunda instância, o que não só poderá definir a participação de Lula nas próximas eleições, mas também o futuro da Lava-Jato.


Até mais ler.

Visite minhas comunidades na Rede .Link: