Mostrando postagens classificadas por relevância para a consulta maestro chinfrim. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta maestro chinfrim. Ordenar por data Mostrar todas as postagens

terça-feira, 18 de outubro de 2016

SISTEMAS OPERACIONAIS ― Final (aleluia!!!)

O MUNDO NÃO ESTÁ AMEAÇADO PELAS PESSOAS MÁS, E SIM POR AQUELAS QUE PERMITEM A MALDADE.

Para finalizar esta novela, vale recapitular o que vimos sobre o processador com o auxílio de duas analogias que eu usei largamente nos meus primeiros escritos sobre TI, há quase 20 anos (muita água rolou por baixo desde então, é verdade, mas elas ainda cumprem sua função didática com maestria). 

A primeira compara o PC a uma orquestra, na qual o processador faz o papel de maestro, e salienta que uma boa apresentação não depende só de um regente competente, mas também de músicos qualificados, afinados e integrados entre si. Bons músicos podem até suprir ― ou disfarçar ― as limitações de um maestro chinfrim, mas não o inverso ― por mais que o maestro se descabele, a incompetência da equipe comprometerá inexoravelmente o concerto. Guardadas as devidas proporções, o mesmo se dá em relação ao PC, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados. Por exemplo, uma CPU de primeiríssima é subutilizada quando o subsistema de memórias é lento ― ou subdimensionado, situação em que a CPU passa a depender da memória virtual, que é baseada no HD (é como o disco rígido é milhares e milhares de vezes mais lento do que a RAM, a conclusão é óbvia).

Moral da história: mais vale um sistema equilibrado com uma CPU mediana do que um maestro de altíssimo gabarito regendo uma orquestra composta por elementos desafinados e mal-ajambrados.

A segunda analogia visa facilitar o entendimento da dinâmica entre o processador, as memórias e o disco rígido. Vamos a ela: Imagine o PC como um escritório, e a CPU como um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, esse hipotético funcionário atende a telefonemas, recebe e transmite informações e instruções, elabora cartas e relatórios, responde e-mails, e por aí afora ― tudo quase ao mesmo tempo. No entanto, se algum elemento indispensável ao trabalho não está sobre a mesa, nosso pobre e assoberbado colaborador perde um bocado de tempo escarafunchando gavetas abarrotadas e estantes desarrumadas (quem mandou você não desfragmentar seu disco rígido?). E a situação fica ainda pior quando ele tem de abrir espaço na mesa (já atulhada) para acomodar outros livros e pastas, sem mencionar que, depois, precisa arrumar tudo de novo antes de retornar à tarefa interrompida (aos desatentos, vale frisar que a escrivaninha corresponde à memória cache; as gavetas à RAM; as estantes ao HD e a "abertura de espaço" à memória virtual).

Antes de encerrar, cabem mais algumas considerações:

No caso dos computadores pessoais, que é o que mais nos interessa, o SO fica gravado na memória de massa do sistema computacional (HD ou SSD) e dali é carregado para a RAM quando o PC é ligado, depois que o BIOS realiza o boot e outras tarefas de inicialização. Claro que ele não é carregado inteiro — ou não haveria espaço que chegasse —, mas dividido em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes), que são transferidos para a memória e devolvidos para o disco, conforme as necessidades.

Na pré-história da computação pessoal, as máquinas não tinham sistema operacional, devendo ser programadas pelo usuário para executar as tarefas ― coisa que exigia conhecimentos avançados e, consequentemente, desestimulava o uso de computadores por quem não fosse “do ramo”. Mas o DOS facilitou enormemente esse trabalho, embora ainda fosse um sistema primário e difícil de operar (se comparado com as versões mais recentes do Windows e outros sistemas concorrentes, como o Linux e o Mac OS). Ainda assim, sua interface baseada em linha de comando exigia a memorização de um vasto leque de combinações de letras, símbolos, números e acrônimos que obedeciam a uma sintaxe pré-definida, e bastava um erro de digitação para a instrução não ser acatada e o sistema exibir uma mensagem de erro ou de comando inválido. Um tormento!

Atualmente, os sistemas operacionais (e muitos aplicativos, por que não dizer) são obras de engenharia computacional compostas por milhões de linhas de código ― o Seven, têm 40 milhões de linhas; o Office 2013, cerca de 50 milhões; e o Mac OS X “Tiger”, quase 90 milhões ―, o que aumentou barbaramente o consumo de recursos de hardware (sobretudo no que concerne a poder de processamento e espaço nas memórias física e de massa), mas a evolução tecnológica fez a sua parte: enquanto os PCs do final dos anos 90 contavam com 4 ou 8 MB de memória e algumas dezenas de MB de espaço no HD (isso mesmo, MEGABYTES), qualquer máquina atual, mesmo de entrada de linha, já conta com 2, 3 ou mais GIGABYTES de RAM e 500GB a 1TB de espaço em disco.

Observação: A título de curiosidade, o Windows, em suas primeiras edições, era disponibilizado em disquetes de 1.44 MB (13 disquinhos no Win95, se não me falha a memória). Com a popularização das leitoras de mídia óptica, todavia, tanto ele quanto os aplicativos comerciais passaram a ser fornecidos em CDs e, mais adiante, em DVDs. Afinal, seriam necessários cerca de 2.100 disquetes para abrigar os arquivos de instalação do Windows 7 ― imagine a trabalheira e o tempo necessário à instalação do sistema a partir deles disquinhos ―, e bastaria um disquinho embolorar ou desmagnetizar para comprometer todo o conjunto.

Para encerrar, resta dizer que os sistemas operacionais modernos devem muito a dois pioneiros: Unix ― “pai” das distribuições Linux e primeiro sistema multitarefa, multiusuário e direcionado à computação em rede ―, que foi criado por Ken Thompson para uso pessoal e aprimorado posteriormente nos laboratórios da BELL e da AT&T, nos anos 1970; e o XEROX PARK, responsável por diversas evoluções tecnológicas de grande impacto na indústria da computação, dentre as quais a interface gráfica e o uso do mouse (mesmo assim, os computadores da Xerox fossem um retumbante fracasso comercial, sobretudo pelo preço elevado e por não usarem processadores padrão).

LULA E SUA CAPIVARA

A “capivara” (jargão policial para folha corrida) de Lula não para de crescer. Além de réu por corrupção passiva, lavagem de dinheiro, ocultação de patrimônio e tentativa de obstrução da Justiça, o petralha foi denunciado também por participação em organização criminosa. Uma ficha e tanto.
Na denúncia apresentada na semana passada, o dito-cujo carcará é acusado pelo MPF de ter cometido crime de lavagem de dinheiro nada menos que 44 vezes, conforme relatou O Globo.

As falcatruas remetem a operações de empréstimos do BNDES para financiar obras da Odebrecht no exterior, notadamente em Angola, com contratos fraudulentos que, segundo O Estado, podem chegar a R$ 30 milhões, dos quais R$ 4 milhões podem ter ido parar no bolso da “alma viva mais honesta do Brasil”.

As denúncias foram divididas em dois blocos: uma parte apura ilícitos cometidos quando o lalau já havia deixado a Presidência da República ― época em que teria praticado crime de tráfico de influência ―, e a outra quando ele ainda ocupava o cargo ― crime de corrupção passiva. A nova denúncia carrega os mesmos traços das investigações anteriores, além de envolver parentes de Lula no recebimento de benefícios ilícitos e uso de estruturas do Estado, em especial as polpudas linhas de financiamento do BNDES, para encher os bolsos do petralha e de sua família.

Desta vez, o artífice das maracutaias é o “sobrinho torto” Taiguara Rodrigues dos Santos, e até plano de saúde de um irmão de Lula pode ter entrado na conta da propina. As novas irregularidades ora investigadas pelo MP vão tão longe que o BNDES decidiu alterar seus procedimentos referentes a financiamentos no exterior, suspendendo repasses de US$ 4,7 bilhões relacionados a contratos de empreiteiras em nove países, como Cuba, Venezuela e Angola. Na lista do Banco, estão 25 operações que podem ter funcionado como sorvedouro de dinheiro público nos governos do PT. O valor envolvido representa quase metade da carteira de exportação de serviços da instituição ― segundo o TCU, das operações feitas nos últimos dez anos, 82% foram direcionadas à Odebrecht.

Foi nesta montanha de dinheiro que Lula nadou de braçada e agora corre o risco de se afogar, sufocado por sua prodigiosa “capivara”.

Era isso, pessoal. Agradeço a paciência e espero que tenham gostado.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

terça-feira, 20 de junho de 2017

AINDA SOBRE O DESEMPENHO DO WINDOWS 10

A MANOBRA CONTRIBUI PARA A LIBERDADE DE AÇÃO E REDUZ AS PRÓPRIAS VULNERABILIDADES.

Antes de abordar o Superfetch ― que seria o tema alvo desta postagem ―, eu achei por bem relembrar alguns conceitos importantes. Acompanhe:

PCs da mesma marca e modelo têm configurações de hardware semelhantes, mas podem se comportar de maneira distinta porque o desempenho de cada um depende em grande medida da configuração do Windows, da quantidade de aplicativos instalados, da maneira como eles são inicializados, da regularidade com que são feitas as manutenções preventivo-corretivas e por aí vai.

Modelos de entrada de linha costumam integrar componentes de baixo custo ― processadores chinfrins e memória RAM genérica e em quantidade aquém das reais necessidades do aparelho ― o que impacta negativamente no desempenho do sistema. Na esteira da evolução do hardware, o software foi se tornando cada vez mais exigente. Veja que, enquanto o Win95 rodava com apenas 8MB de RAM, o Ten de 32-bit pede 1GB (para as versões de 64-bit, a Microsoft recomenda 2GB). Ainda assim, se você está pensando em trocar seu PC, assegure-se de que o novo venha com pelo menos 4GB de memória.

Conforme a gente já discutiu uma porção de vezes, o processador é o cérebro do computador, mas uma configuração equilibrada faz toda a diferença. Isso porque de nada adianta ter uma CPU de ponta sem que haja contrapartida das memórias HDD. Aliás, isso nos remete a duas analogias simpáticas, que meus leitores habituais já conhecem, mas que eu repito em atenção aos que caíram aqui por acaso ou que passaram a me acompanhar há pouco tempo. Vamos a elas:

Na primeira, eu comparo o PC a uma orquestra, onde o processador faz o papel de maestro, e saliento que uma boa apresentação depende não só de um regente competente, mas também de músicos qualificados, afinados e integrados entre si. Bons músicos podem até suprir ― ou disfarçar ― as limitações de um maestro chinfrim, mas não o contrário: por mais que o maestro se descabele, a incompetência da equipe comprometerá inexoravelmente o sucesso do concerto. Guardadas as devidas proporções, o mesmo se dá em relação ao PC, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados. Uma CPU será subutilizada se o subsistema de memórias for lento ― ou subdimensionado, situação em que o processador passa a depender da memória virtual, que é baseada no HDD (detalhes mais abaixo). E da feita que essa memória de massa é milhares de vezes mais lenta que a memória física, a conclusão é óbvia.

Moral da história: mais vale um sistema equilibrado, mesmo que com uma CPU mediana, do que um maestro de altíssimo gabarito regendo uma orquestra composta por elementos desafinados e mal-ajambrados.

A segunda analogia visa facilitar o entendimento da dinâmica entre o processador, as memórias e o disco rígido: Imagine o PC como um escritório e a CPU como um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, nosso hipotético funcionário atende a telefonemas, recebe e transmite informações e instruções, elabora cartas e relatórios, responde emails, e por aí afora ― tudo praticamente ao mesmo tempo. No entanto, quando algum elemento indispensável ao trabalho não está sobre a mesa, nosso pobre e assoberbado colaborador perde um bocado de tempo escarafunchando gavetas abarrotadas e estantes desarrumadas (quem mandou não desfragmentar o HDD?). E a situação fica ainda pior quando ele tem de abrir espaço na mesa (já atulhada) para acomodar outros livros e pastas, sem mencionar que, depois, será preciso arrumar tudo de novo antes de retornar à tarefa interrompida (aos desatentos, vale frisar que a escrivaninha corresponde à memória cache, as gavetas, à RAM; as estantes, ao HDD, e a “abertura de espaço”, à memória virtual).

Observação: Esses termos grafados em azul são hiperlinks clicáveis, e remetem a postagens ― ou sequências de postagens ― que tratam da memória RAM, do disco rígido e da memória virtual. Garanto a você que clicar neles não estraga sem mouse nem machuca sua mão. Portanto, a menos que você não tenha interesse pelo assunto, faça-o.

Para não espichar ainda mais este texto, o Superfetch fica para o próximo post.

QUASE LÁ.

Conforme eu relembrei recentemente, hoje, 20 de junho, termina o prazo concedido pelo juiz Sergio Moro para as defesas dos réus apresentarem suas razões finais no processo sobre o renegado tríplex do Guarujá ― como se costuma dizer, o sucesso tem muitos pais, mas o fracasso é órfão. Depois disso, os autos ficarão conclusos para sentença e, juntamente com outras seis ações da Lava-Jato que tramitam na 13ª Vara Federal de Curitiba, aguardarão a decisão do magistrado (que, ao todo, conduz 35 processos oriundos da Operação, sem mencionar duas denúncias do MPF ― uma contra Lula e outra contra Dirceu ― que ainda pendem de aceitação para se tornarem processos). Por lei, processos que envolvem réus presos tem prioridade sobre os demais ― como é o caso do tríplex, no qual Léo Pinheiro e corréu e está preso preventivamente desde setembro do ano passado ―, mas não há um prazo determinado para a prolação da sentença.

Segundo informações da Gazeta do Povo, a ação penal oriunda da Lava-Jato em trâmite há mais tempo na Justiça Federal e que aguarda decisão já tem mais de mil dias. A denúncia foi oferecida pelo MPF em abril de 2014 e envolve o ex-diretor da Petrobras Paulo Roberto Costa e três parentes dele, todos acusados de obstrução da Justiça ― aliás, um deles morreu em janeiro deste ano. Outro processo iniciado em 2014 (um mês depois da deflagração da Lava-Jato) e que também aguarda uma sentença de Moro envolve o doleiro Carlos Habib Chater. Além destes, pendem de decisão processos envolvendo o ex-ministro Antônio Palocci, o ex-diretor da Petrobras Renato Duque, os executivos da Andrade Gutierrez e o doleiro Alberto Youssef.

O tempo que o magistrado leva para avaliar cada processo varia caso a caso, conforme a complexidade, o número e a situação dos réus, e por aí afora. A sentença mais rápida determinada demorou apenas quatro meses, a contar da data da denúncia oferecida pelo MPF, e resultou na condenação do ex-deputado federal petista André Vargas a 14 anos e quatro meses de prisão. O publicitário Ricardo Hoffmann foi condenado a 12 anos e 10 meses e o irmão do ex-deputado, Leon Vargas, a 11 anos e quatro meses. A denúncia havia sido oferecida pelo MPF em maio daquele ano. O único que respondeu ao processo em liberdade foi Leon Vargas.

No outro extremo, o doleiro Raul Henrique Srour foi condenado a 7 anos e 2 meses de prisão depois de 2 anos 1 um mês contados a partir do oferecimento da denúncia. O processo mais antigo da Lava-Jato (ainda em tramitação) é contra a doleira Nelma Kodama, que cumpre prisão domiciliar depois de firmar um acordo de colaboração premiada. A denúncia foi oferecida em 10 de abril de 2014, e a última movimentação na ação se deu em novembro de 2015.

Outros nove processos iniciados em 2014 ainda tramitam sob os cuidados de Moro. Um deles envolve a família do ex-deputado federal José Janene, morto em 2010. Seis pessoas, incluindo a ex-mulher, um irmão e duas filhas de Janene respondem pelos crimes de lavagem de dinheiro. A denúncia foi oferecida em julho de 2014 e a última movimentação processual foi em novembro do ano passado. Como não há réus presos, não há estimativa de quando o processo pode chegar ao fim.

E Lula lá! Quanto antes, melhor.

Confira minhas atualizações diárias sobre política em www.cenario-politico-tupiniquim.link.blog.br/

quinta-feira, 26 de maio de 2022

AINDA SOBRE APLICATIVOS, MEMÓRIA RAM E TASK KILLERS

PARA O TRIUNFO DO MAL, BASTA QUE OS BONS FIQUEM DE BRAÇOS CRUZADOS.

Computadores integram memórias de diversas tecnologias em quantidades variáveis, mas sempre expressas em múltiplos do byte. Assim, é comum as pessoas confundirem a RAM (memória física ou primária) com o HDD/SSD (memória de massa, ou secundária, ou ainda "armazenamento") do sistema. 

 

A título de contextualização, relembro que o bit (de “BInary digiT”) é a menor unidade de informação manipulada pelo computador. Oito bits formam um byte; 1 kB (quilobyte) equivale a 1024 bytes (ou meia página de texto); 1024 kB, a um megabyte (espaço suficiente para armazenar um quinto da obra de Shakespeare). Um gigabyte corresponde a 1024 MB (espaço suficiente para gravar um filme de uma hora de duração); 1.000 GB formam 1 terabyte (15 terabytes são suficientes para digitalizar toda a biblioteca do congresso dos EUA); 1024 TB perfazem 1 Petabyte (1/5 do conteúdo de todas as cartas distribuídas pelo correio norte-americano), e assim por diante. 

 

A RAM (de Random Access Memory) é a memória física (ou primária) do computador. Isso vale para desktops, notebooks, smartphones e tablets. É nela que que o software é carregado e os dados, processados. Do sistema operacional a um simples documento de texto, tudo é executado na RAM. Nenhum dispositivo computacional atual, seja uma simples calculadora de bolso ou um gigantesco mainframe corporativo, funciona sem uma quantidade (mínima que seja) dessa memória volátil e de acesso aleatório.  

 

Nos PCs, a memória de massa (ou secundária) é provida tradicionalmente por um disco rígido (os modelos mais recentes contam com drives de memória sólida). É nessa memória (e a partir dela) que os dados são carregados na RAM — claro que não integralmente, ou não haveria espaço que bastasse, mas divididos em páginas (pedaços do mesmo tamanho) ou segmentos (pedaços de tamanhos diferentes). Para saber mais, leia esta sequência de postagens.

 

Costuma-se dizer que um computador é tão rápido quanto seu componente mais lento. No âmbito das memórias, a secundária é milhares de vezes mais lenta que primária, que por sua vez é muito mais lenta que o processador. Assim, uma máquina que dispuser de 8 GB de RAM e de um processador mediano será “mais rápida” do que outra que conte com um chip de topo de linha e míseros 2 GB de RAM. A questão é que a RAM é volátil, daí a necessidade de haver um dispositivo capaz de armazenar o software de forma “persistente”, ou seja, que retenha os dados mesmo depois que o computador for desligado.

 

Em tese, quanto mais memória física o computador tiver, mais "rápido" ele será. Para agilizar ainda mais o trabalho do processador, o cache de memória (ou memória cache, ou simplesmente cache), representado por uma pequena quantidade de memória RAM estática e ultraveloz (e bem mais cara do que a RAM convencional), armazena as informações e instruções que são acessadas mais frequentemente e outros dados que o sistema “prevê” que o processador terá de acessar em seguida.

 

O conceito de memória cache remonta aos tempo dos jurássicos 386, quando se constatou que a lentidão da RAM obrigava a CPU (isto é, o processador; a caixa que abriga os componentes internos do computador se chama "case" ou "gabinete") a desperdiçar preciosos ciclos de clock aguardando a liberação dos dados necessários à execução das tarefas. 


Fica mais fácil de entender se compararmos o computador a uma orquestra e o processador ao maestro. Para uma boa apresentação, não basta um regente competente. Na verdade, músicos qualificados, afinados e entrosados podem até mascarar as limitações de um maestro chinfrim, mas não o contrário. Guardadas as devidas proporções, isso se aplica à performance do computador, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados.

 

Embora pareça um contrassenso, cabe ao gerenciamento de memória do sistema operacional manter o uso da memória o mais alto possível. Primeiro, porque memória é hardware — a gente paga por ela quando compra o aparelho, e não utilizar aquilo pelo que se pagou é desperdício de dinheiro. Segundo, porque, como dito linhas acima, a RAM é muito mais rápida que a memória secundária, e mantê-la ocupada é aproveitar melhor o dinheiro que investimos na compra do aparelho. 

 

Uma CPU de ponta será subutilizada se contar com pouca memória RAM. Para evitar mensagens de “memória insuficiente” (comuns na pré-história da computação pessoal, quando éramos obrigados a encerrar um ou mais aplicativos para que outros pudessem ser carregados e executados), a Intel criou a memória virtual (ou “swap file”, como alguns preferem dizer), que consiste num espaço alocado na memória de massa para o qual o Gerenciador de Memória Virtual (VMM) transfere as seções que não são prioritárias naquele momento e de onde as traz de volta quando necessário.

 

Convém ter em mente que a memória virtual é apenas um paliativo, não um substituto eficiente da RAM, uma vez que (como também já foi mencionado) a memória de massa, mesmo quando representada por um SSD, é muitas vezes mais lenta do que a memória física, e a constante troca de arquivos degrada consideravelmente o desempenho global do sistema.

 

Continua na próxima postagem.

quinta-feira, 12 de abril de 2007

O computador, a orquestra, o processador...

Conforme adiantei na postagem de ontem, vou repetir aqui, a pedidos de alguns visitantes, uma analogia entre o computador e a orquestra, onde o processador faz o papel do maestro (essa "historinha" foi usada originalmente numa matéria que eu publiquei há alguns anos na revista PC Turbo, no início da minha pareceria com o Robério - abraços, compadre).

Como todos sabemos, uma boa apresentação requer mais que um regente competente. Todos os músicos devem ser igualmente qualificados, afinados e integrados entre si. Bons músicos podem até suprir - ou disfarçar - as limitações de um maestro chinfrim, mas o contrário não é possível: a despeito dos esforços do regente, a platéia não será brindada com um espetáculo de qualidade se os demais integrantes do conjunto não corresponderem à expectativa.
Resguardadas as devidas proporções, o mesmo se dá em relação ao PC, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados. Uma CPU de ponta pode até esbanjar poder de processamento, mas irá perder ciclos e ciclos de clock aguardando que os dados sejam liberados por um subsistema de memória lento (pior ainda se a quantidade de RAM for insuficiente, porque aí o sistema terá de recorrer à memória virtual - swap file -, e como o HD é mais lento que RAM, o PC irá se tornar uma "carroça").
Moral da história: mais vale um sistema equilibrado, ainda que com uma CPU mediana, que um processador veloz "regendo" um conjunto de componentes medíocres.

Aproveitando o embalo, passemos a outra historinha que visa facilitar o entendimento da dinâmica entre o processador, as memórias e o disco rígido:

Imaginem o PC como um escritório, onde o processador faça as vezes de um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, esse hipotético funcionário atende telefonemas, recebe e transmite informações e instruções, elabora cartas e relatórios, responde e-mails, fax etc. (tudo quase ao mesmo tempo), mas se algum elemento indispensável ao trabalho não estiver sobre a mesa, ele perderá um bocado de tempo escarafunchando gavetas e estantes desarrumadas (quem mandou você não desfragmentar seu disco rígido?). E a situação fica ainda pior quando ele tem de abrir espaço para acomodar sobre a mesa - já abarrotada - outros livros e pastas - e, depois, tornar a arrumar tudo de novo para retomar a tarefa interrompida.
Claro que vocês já associaram a escrivaninha à memória cache; as gavetas à RAM; as estantes ao HD e a "abertura de espaço" à memória virtual, não é mesmo?

Espero que tenham gostado.
Abraços a todos e até amanhã.

quinta-feira, 10 de dezembro de 2020

SOLUÇÃO DE PROBLEMAS... PARTE VIII

A VAIDADE DE MUITA CIÊNCIA É PROVA DE POUCO SABER.

Bilhões de interruptores nanoscópicos abrindo e fechando bilhões de vezes por segundo, dentro de uma pastilha de silício menor do que um selo postal, geram uma quantidade monstruosa de calor. Somado a outras limitações físicas cujo detalhamento foge ao escopo desta postagem, esse problema levou os fabricantes a buscar alternativas para aumentar o poder de processamento de seus chips sem elevar ainda mais a frequência de operação.

Após seis anos no mesmo processo e cinco na mesma arquitetura, a Intel introduziu diversos aprimoramentos em seus produtos, como o STIM (material de interface térmica de solda) de matriz mais fina, que melhora o desempenho térmico e permite ao chip operar a até 5,3 GHz (no caso do Core i9-10900K). Mas, quando se executam os benchmarks, fica claro que a empresa atingiu seu limite com os 14 nm. Não fossem assim, seu processadores estariam operando na casa das dezenas de Gigahertz, mas empacaram nos 3,5 GHz — embora testes realizados com o Intel Core i7-3770K demonstrem que o chip suporta overclock de 100% (o que eleva a frequência de operação a mais de 7 GHz).

AMD vem aumentado sua participação no segmento de CPUs. Em setembro, a empresa abocanhou cerca de 25%; dois meses depois, sua fatia cresceu para 26,91%. Com a série Ryzen 5000 de 7 nm — que apresenta excelentes resultados, tanto para trabalho quanto para diversão —, e o lançamento do Zen 4 de 5 nm previsto para o próximo ano, tudo indica que esse percentual cresça ainda mais e mais rapidamente. Já a Intel deve lançar sua linha Rocket Lake (que utiliza uma variante de 14 nm) ainda no primeiro semestre de 2021. 

No que concerne a aceleradoras gráficas, a participação da AMD permanece bastante estável (de junho do ano passado a novembro deste, sua fatia aumentou de 14,8% para 16,5%). Isso se deve sobretudo à concorrência monstruosa do Ampere, da Nvidiamas isso já é uma outra história e vai ter de ficar para uma outra vez.

Como vimos, não se deve confundir a frequência de operação do processador com o desempenho do computador, já que a “velocidade” do chip é apenas uma das variáveis que determinam a performance do sistema como um todo. Aliás, a AMD deixou isso claro com a fórmula P = F x IPC, onde “P” é a performance; “F”, a frequência de operação e IPC, o número de instruções que o chip é capaz de executar a cada ciclo de clock.

Para facilitar a compreensão, pense no computador como uma orquestra, na qual o processador é o maestro e os demais dispositivos de hardware, os músicos. Além de um regente competente, uma boa apresentação exige que o oboísta, o contrabaixista, o violinista, o trompetista, o violoncelista e os demais componentes da orquestra sejam qualificados, afinados e integrados entre si. Bons músicos até podem suprir — ou disfarçar — as limitações de um maestro chinfrim, mas a recíproca não é verdadeira.

Guardadas as devidas proporções, esse mesmo raciocínio se aplica ao computador, cujo desempenho só será satisfatório se a configuração de hardware for equilibrada, com componentes adequados e bem dimensionados (volto a lembrar o ensinamento de Mestre Morimoto: todo computador será tão rápido quanto seu componente mais lento).

Claro que é importante ter uma CPU veloz, que esbanje poder de processamento. No entanto, se não houver memória RAM suficiente, o processador perderá ciclos e mais ciclos de clock esperando a memória virtual entregar os dados solicitados.

Observação: A memória virtual emula memória física a partir de um arquivo de troca (swap file) criado no disco rígido, para onde o Gerenciador de Memória Virtual remete as sessões que não são prioritárias naquele momento — e de onde as traz de volta quando necessário. Esse recurso, desenvolvido pela Intel e aprimorado ao longo dos anos, continua sendo usado até hoje, em que pese a lentidão que ele acarreta ao sistema por ser baseado no drive de HD — um dispositivo ultrapassado e milhares de vezes mais lento que a já relativamente lenta memória RAM.

Outra analogia de que gosto muito remete à dinâmica entre o processador, a RAM e o HDD. Vamos a ela:

Imagine o PC como um escritório e o processador como um funcionário extremamente diligente, mas sem iniciativa própria. Durante o expediente, esse incansável colaborador atende ligações, recebe informações, transmite instruções, elabora cartas e relatórios, responde emails e por aí afora, tudo praticamente ao mesmo tempo. No entanto, sempre que algum elemento indispensável ao trabalho não está sobre a mesa, o já assoberbado funcionário perde um bocado de tempo escarafunchando gavetas abarrotadas e estantes desarrumadas (quem mandou não desfragmentar o HDD?). E a situação fica ainda pior se ele precisa abrir espaço sobre a mesa atulhada para acomodar mais livros e pastas — isso sem falar que o coitado terá de arrumar tudo de novo antes de retomar a tarefa interrompida. 

Para quem não ligou os pontos, a escrivaninha corresponde à memória cache, as gavetas, à memória física (RAM), as estantes, à memória de massa (HDD) e a “abertura de espaço”, à memória virtual (ou arquivo de troca, arquivo de paginação, ou ainda swap-file).

Continua.

segunda-feira, 3 de novembro de 2008

O melhor entre os melhores...

As perguntas deixadas pela Roberta nas postagens da última semana (especialmente na de segunda-feira passada) me levaram a dedicar o post de hoje a algumas considerações que reputo interessantes. A escolha do “melhor processador” – ou do “melhor computador”, ou do “melhor produto”, seja ele qual for – envolve diversos aspectos subjetivos que devem ser levados em consta, dentre os quais o perfil personalíssimo de cada usuário e as aplicações pretendidas.
Veja que um automóvel “popular” pode atender as necessidades de alguém que rode sozinho no trânsito urbano, mas a falta de espaço e de potência desses carrinhos (afinal, quem gosta de motorzinho é dentista) certamente infernizará a vida de um casal com quatro filhos que viaje para o litoral todo final de semana (especialmente na hora de subir a serra). Resguardadas as devidas proporções, esse mesmo raciocínio vale para um computador – ou para um processador, que é o componente suscitado pela Roberta em seus comentários.
Quem acompanha meus modestos escritos desde os tempos do saudoso Curso Dinâmico de Hardware deve estar lembrado da analogia entre o PC e a orquestra, onde o processador faz o papel do maestro. Nesse caso, se os demais integrantes do grupo não forem competentes, a apresentação deixará a desejar, inobstante a excelência do regente, ao passo que bons músicos podem até compensar (ou disfarçar) as limitações de um maestro chinfrim. Assim, não basta um processador de ponta para fazer de sua máquina “um avião”. Por melhor que seja a CPU, a performance global do sistema ficará prejudicada se não houver contrapartida dos demais componentes, notadamente da placa-mãe, das memórias e do disco rígido.
Feitas essas ponderações, passemos ao que interessa: há cerca de um ano e meio, quando do meu último upgrade de hardware, eu optei por uma CPU Intel Pentium D (dual core) de 3.4 GHz – que, embora inferior aos chips Core2Duo – muito caros, naquela época –, me serviu e continua servido satisfatoriamente. Hoje, todavia, o contexto mudou (a despeito da crise econômica mundial, cuja poeira ainda não assentou), e já é possível encontrar máquinas de grife (ou realizar uma integração caseira) com chips quad-core por valores acessíveis (conforme as possibilidades de cada usuário, porque esse também é um aspecto subjetivo e personalíssimo).
A título de ilustração, o Intel Core 2 Extreme QX9650 (de quatro núcleos) atende os usuários mais exigentes, que desejam e/ou precisam de uma máquina com configuração de topo de linha para rodar aplicações pesadas, games e ferramentas de virtualização. Nessa mesma linha, o Phenom 9900, da AMD, custa menos da metade do preço e apresenta desempenho semelhante ao do concorrente, apesar de ter clock e cache inferiores – e de não ser compatível com memórias DDR3, aspecto que restringe as possibilidades de futuros upgrades. Já para quem quer gastar menos, o Phenom X3 8750, de 2.4 GHz, pode ser uma boa opção (esse processador de três núcleos da AMD oferece desempenho superior ao de um dual-core por preço bem inferior ao de um quad-core).
Abraços a todos e até mais ler.

quinta-feira, 14 de agosto de 2014

HD SAUDÁVEL, PC FUNCIONAL

O BRASIL É UMA NAÇÃO DE ESPERTOS QUE, REUNIDOS, FORMAM UMA MULTIDÃO DE IDIOTAS. 

GOSTARIA DE REGISTRAR AQUI MINHA CONSTERNAÇÃO PELO LAMENTÁVEL EPISÓDIO OCORRIDO NA MANHÃ FRIA E CHUVOSA DE ONTEM, NA CIDADE DE SANTOS (LITORAL PAULISTA), ONDE EDUARDO CAMPOS, NETO DE MIGUEL ARRAES E UM DOS CANDIDATOS À SUCESSÃO PRESIDENCIAL TUPINIQUIM, MORREU TRAGICAMENTE NUM ACIDENTE DE AVIÃO, CUJAS CAUSAS AINDA NÃO FORAM DEVIDAMENTE ESCLARECIDAS. 
CURIOSAMENTE, TANTO ELE QUANTO SEU FINADO AVÔ, O FESTEJADO "CORONEL" PERNAMBUCANO MIGUEL ARRAES, FALECIDO EM 2005 AOS 88 ANOS, DEIXARAM ESTE MUNDO NO DIA 13 DE AGOSTO. SUPERSTIÇÕES À PARTE, TERIA O PT COMEÇADO A DERRUBAR SEUS ADVERSÁRIOS? 

A despeito de o processador ser o “cérebro” de um sistema computacional, tanto as memórias quanto o HD têm importância fundamental no desempenho global da máquina, como você pode inferir da analogia transcrita abaixo:

Além de um regente competente, uma boa apresentação requer que todos os músicos sejam igualmente qualificados, afinados e integrados entre si. Bons músicos podem até suprir - ou disfarçar - as limitações de um maestro chinfrim, mas o contrário não é possível.
Resguardadas as devidas proporções, o mesmo se dá em relação ao micro, que depende de uma configuração equilibrada, com componentes adequados e bem dimensionados. Uma CPU de ponta pode até esbanjar poder de processamento, mas irá perder ciclos e ciclos de clock aguardando que os dados sejam liberados por um subsistema de memória lento (pior ainda se a quantidade de RAM for insuficiente, porque aí o sistema terá de recorrer à memória virtual - swap file -, e como o HD é milhares e milhares de vezes mais lento que RAM, não é difícil prever o resultado).

Houve tempo em que o PC não dispunha de disco rígido – O primeiro HD de que se tem notícia foi construído pela IBM em 1956, e embora fosse composto por 50 pratos de 24 polegadas de diâmetro cada e custasse cerca de US$ 30 mil, essa monstruosidade armazenava míseros 4.36 MB (5 milhões de caracteres, com 7 bits cada um), o que equivale a pouco mais do que uma faixa musical em MP3.
Ainda que tenha diminuído substancialmente de tamanho e aumentado astronomicamente o espaço disponibilizado para a gravação de dados, o HD continua sendo um frágil dispositivo eletromecânico, sensível a impactos e interrupções inesperadas no fornecimento de energia. Para manter a eficiência e prolongar a vida útil desse componente, é preciso remover arquivos inúteis e temporários, localizar e corrigir eventuais erros nos discos e desfragmentar regularmente os dados neles armazenados. Isso pode ser feito com as ferramentas nativas do Windows ou com suítes de manutenção de terceiros, tais como os excelentes TuneUp Utilities, System Mechanic, Advanced System Care, CCleaner, etc. (todas elas já foram analisadas aqui no Blog, de maneira que basta você digitar o nome em nossa caixa de pesquisas para ter acesso às resenhas e links para downloads).
Enfim, volta agora ao assunto para sugerir o DAYU DISK MASTER FREE – suíte de manutenção com foco no disco rígido, que integra um conjunto de ferramentas para criação e restauração de backups,.
backups, clonagem de discos inteiros, criação de drives de memória virtual e muito mais. O programinha é compatível com as edições XP, Vista, 7, 8 e 8.1.



QUE DEUS NOS AJUDE A TODOS!

quinta-feira, 21 de fevereiro de 2019

AINDA SOBRE O DESEMPENHO DO PC


O HOMEM É ESSENCIALMENTE GANANCIOSO, TODO HOMEM INVESTIDO DE PODER É TENTADO A ABUSAR DELE.

Eu já disse, mas não custa repetir: um PC de configuração chinfrim é como um veículo popular 1.0: ambos se movem, mas nenhum deles tem um desempenho de tirar o fôlego. 

No caso do computador, minha recomendação sempre foi priorizar uma configuração equilibrada — um processador de ponta só mostra do que é capaz se contar com a contrapartida das memórias (física e de massa). Seria como numa orquestra, onde o maestro só consegue proporcionar um bom espetáculo se contar com músicos competentes, afinados e entrosados entre si. Substitua a orquestra pelo computador, o maestro pelo processador e os músicos pelos demais componentes e você terá uma boa ideia do que eu estou querendo dizer.

Observação: O computador é formado por dois segmentos distintos, mas interdependentes: o hardware e o software. O primeiro é a parte física — ou aquilo que você chuta — e o segundo, a parte “invisível” — ou aquilo que você xinga. Sistemas e programas (isto é, o software) estão cada vez mais exigentes (por recursos de hardware, como processamento, memória, etc.). Comprar um desktop de entrada de linha, daqueles que custam pouco mais de mil reais, e querer rodar programas como o Adobe Photoshop e games radicais, por exemplo, é arrependimento garantido. E ainda que seja possível fazer um upgrade posterior (de memória, HDD, e até de processador), o molho costuma sair mais caro do que o peixe. Então, ao escolher um PC, não se baseie unicamente pelo preço — nem tudo que é caro é bom, mas o que é bom geralmente custa mais caro.

Se você acha que seu PC ainda dá caldo — ou que o momento não é indicado para comprar uma máquina mais adequada às suas expectativas —, reveja as dicas que eu publiquei ao longo das últimas postagens e ponha em prática as que você achar que podem ajudar. Adicionalmente, remova todos os inutilitários, instale uma boa suíte de manutenção, faça uma faxina em regra no sistema, corrija eventuais erros no disco rígido e desfragmente os dados

O Windows dispõe nativamente de um limpador de disco e de ferramentas para corrigir erros e desfragmentar os dados no HDD, mas eu uso e recomendo o Advanced System Care e/ou o CCleaner (detalhes nas postagens anteriores), cuja gama de funções vai bem além dos limitados recursos dos utilitários nativos do sistema.

Manter o Windows e os demais aplicativos atualizados é fundamental. Clique em Configurações > Atualização e segurança > Windows Update > Verificar atualizações e instale todas as atualizações críticas, de segurança e de driver. Os programas "não Microsoft" não são contemplados pelo WU, mas a maioria avisa quando há atualizações disponíveis; para os que não o fazem, ou você faz o trabalho manualmente, ou recorre a ferramentas como o FILEHIPPO APP MANAGER, o OUTDATEFIGHTER, o R-UPDATER e o KASPERSKY SOFTWARE UPDATER, que poupam um boado de tempo e trabalho.

É verdade que um outro patch pode produzir resultados inesperados e indesejados, mas a Microsoft procura solucionar o problema com a possível urgência, e não é por causa de uma laranja podre que você vai jogar fora a caixa inteira. No geral, as atualizações aprimoram a segurança e o funcionamento do sistema como um todo, devendo ser implementadas sempre que estiverem disponíveis.

Desde que começaram a ser usados em PCs domésticos, os antivírus foram eleitos os grandes culpados pela lentidão do computador. É fato que a maioria deles tem um apetite voraz por recursos (processamento, memória, etc.), e que, para piorar, esse é o tipo de programa que precisa ser carregados na inicialização do sistema. Embora seu impacto no desempenho costume ser mais sentido durante as varreduras, é recomendável usar antivírus mais “leves” em máquinas de configurações mais pobres.

Observação: Uma alternativa ao antivírus é a virtualização do sistema (detalhes nesta postagem), mas eu considero essa solução mais adequada a computadores públicos (como os de lanhouses, cibercafés etc.) do que aos domésticos.

Se sua máquina estiver particularmente lenta e você tiver motivos para suspeitar do antivírus, experimente desativá-lo temporariamente e veja como o sistema se comporta. Se a melhora for palpável, substitua a ferramenta por outra que drene menos recursos (eu gosto muito do AVAST PREMIER, mas não tome qualquer decisão sem analisar o TOTAL AV, o PC PROTECT e o KASPERSKY INTERNET SECURITY, além, é claro, dos festejados produtos da SYMANTEC).

Volto a frisar que a influência do drive de disco rígido (memória de massa) no desempenho global do sistema é significativa. Os modelos baseados em memória sólida (SSD) vêm substituindo (a conta-gotas) os eletromecânicos, mas unidades de grandes capacidades ainda custam muito caro. Drives híbridos reúnem o melhor dos dois mundos, combinando um SSD de pequena capacidade (64 GB, p.e.) com um HDD convencional (eletromecânico). Assim, a memória sólida funciona como cache, armazenando os aquivos mais usados e agilizando o acesso a eles, enquanto os pratos magnéticos se encarregam dos demais conteúdos (música, vídeo, imagem, texto, etc.). Note que o processo é transparente e automático, ou seja, tanto o usuário quanto o sistema "enxergam um drive comum”.

Cumpre salientar que a desfragmentação de drives de memória sólida é desnecessária e desaconselhável, mas os modelos convencionais devem ser desfragmentados quinzenal ou mensalmente, conforme o uso do computador. Antes de executar a desfragmentação, veja qual o percentual de espaço livre na unidade. Se mais de 70% do total estiver ocupado, ponha as barbichas de molho (mais detalhes na próxima postagem).

O desfragmentador nativo do Windows 10 cumpre sua função, mas eu uso e recomendo o Smart Defrag, que é rápido, amigável, e oferece recursos como a desfragmentação off-line (feita durante a inicialização, de modo a contemplar arquivos que ficam inacessíveis quando o sistema está carregado), a otimização (que regrava os arquivos do sistema no início do disco para aprimorar o desempenho), a consolidação do espaço livre, e por aí vai.

É o que tínhamos para hoje, pessoal. Volto amanhã com mais dicas sobre o HDD e o desempenho do PC.

segunda-feira, 26 de julho de 2010

De volta ao processador

Fuçando aqui nos meus alfarrábios, encontrei numa edição antiga do saudoso Curso Dinâmico de Hardware uma matéria sobre microprocessadores que eu redigi lá pela virada do século. Com a sensação de quem reencontra um velho amigo, li o texto de cabo a rabo e constatei que ele continua “atual”, embora tenha sido escrito na época áurea dos Intel Pentium. Cheguei a pensar até em transcrevê-lo na íntegra, mas desisti devido ao tamanho (8 páginas da revista). Entretanto, nada me impede de usá-lo como base para criar uma ou duas postagens sobre o processador mais adequado às nossas necessidades, já que isso é uma questão complicada: embora as opções se restrinjam basicamente a chips da Intel e da AMD, cada um desses fabricantes dispõe de várias famílias com arquiteturas, especificações e recursos distintos.

O microprocessador (ou CPU, ou simplesmente processador) é cantado em prosa e verso como sendo o “cérebro” do computador. No entanto, da mesma forma que um cérebro precisa de um corpo que o abrigue e de um coração que o alimente, a performance de um sistema computacional depende de cada um dos elementos que o integram. Parafraseando o Mestre Carlos Morimoto, todo PC é tão rápido quanto seu dispositivo mais lento.

Observação: A “velocidade” da CPU não deve ser vista como única referência de performance – nem do processador nem (muito menos) do sistema. Essa idéia talvez fosse admissível nos primórdios da informática, mas não hoje, quando outras variáveis se tornaram tão ou mais importantes do que o clock: embora ele espelhe o número de operações executadas a cada segundo, o que o processador é capaz de fazer em cada operação é outra história. Ainda que a “velocidade” da CPU seja tomada como parâmetro de desempenho, ela expressa somente o número de operações executadas pelo chip a cada segundo – uma CPU que opere a 3 GHz, por exemplo, executa três bilhões de operações por segundo.

Para entender melhor essa questão, podemos comparar o sistema computacional a uma orquestra, onde o maestro e os músicos devem atuar em perfeita harmonia para proporcionar um bom espetáculo – músicos gabaritados até podem mascarar a incompetência de um regente chinfrim, mas a recíproca quase nunca é verdadeira. Reproduzindo um exemplo que eu citei na matéria original, o desempenho de um jurássico 486 de 100 MHz era 50% inferior ao de um Pentium de mesma frequência, mas se abastecido com 32 MB de RAM, ele era capaz de rodar o Win95 com mais desenvoltura do que um Pentium III de 1 GHz com apenas 8 MB.

Conquanto fosse interessante detalhar o processo de fabricação dos microchips, sua evolução, formatos, soquetes e outros que tais, isso não teria grande relevância para quem precisa escolher o “maestro que irá reger sua “orquestra”, de modo que fica para outra oportunidade. De momento, cumpre ressalvar apenas que diversos aprimoramentos (aumento do número de transistores, incorporação do coprocessador matemático e da memória cache, dentre outras coisas) tiveram enorme impacto no desempenho e na maneira como as CPUs passaram a decodificar e processar as instruções. Para se ter uma ideia da importância do cache do processador, no final do século passado, quando estava perdendo parte do mercado de PCs de baixo custo para a AMD, a Intel resolveu lançar uma linha de chips mais baratos – que eram basicamente modelos Pentium II desprovidos de cache L2 integrado, com desempenho 40% inferior. Por conta disso, o Celeron não teve boa aceitação e foi severamente criticado pela imprensa especializada. Mesmo que a burrada tenha sido corrigida mais adiante, muitos usuários até hoje torcem o nariz para os integrantes dessa família de microchips.

Amanhã a gente conclui; abraços e até lá.

domingo, 22 de outubro de 2006

Sutilezas do HD

Foi só a gente falar que o HD influencia o desempenho global do PC para receber um par de e-mails solicitando informações adicionais. E como a questão é de interesse geral, a despeito de eu ter encaminhado respostas diretamente aos interessados, vou sintetizar nesta postagem dominical algumas considerações e dicas.
Sempre que escrevo sobre hardware em publicações direcionadas a um público leigo ou iniciante, costumo comparar o sistema computacional (não confundir com "sistema operacional") a uma orquestra, onde o processador faz as vezes do maestro. Uma orquestra medíocre dificilmente irá proporcionar uma boa apresentação, ainda que conte com um maestro de primeiro time, ao passo que músicos de alto gabarito poderão "compensar" as deficiências de um regente chinfrim.

Assim, ao escolher um computador, privilegie sempre uma configuração equilibrada. CPUs (processadores) de primeira linha custam caro, mas só são capazes de mostrar todo o seu "pode de fogo" quando auxiliadas por uma placa-mãe de boa estirpe, um subsistema de memórias compatível e um HD responsável. Desconfie de máquinas "Pentium4" muito baratas: só o chip, se de última geração, custa mais de 1.000 Reais (se o PC completo, incluindo sistema operacional e monitor de vídeo, estiver sendo vendido por, digamos, uns 1.500 Reais, algo deve estar errado).
Voltando agora ao HD, vale lembrar que, como todos os demais componentes, ele também apresenta diversas especificações importantes. A primeira delas a ser avaliada é a rotação (que geralmente vai de 5.400 a 10.000 ou mais RPM) - via de regra, quanto maior a rotação, tanto melhor será o desempenho.
Da mesma forma o processador, o HD utiliza um buffer (cache de memória). Também nesse caso, quanto maior, melhor (um disco rígido com buffer de memória de 8 MB será sempre preferível a outro de 2 MB, por exemplo). E embora esse quesito não seja crucial em aplicações menos exigentes, quase ninguém, hoje em dia, usa o computador apenas para redigir documentos de texto.
O "tempo de acesso" da unidade de disco remete à velocidade com que o drive é capaz de localizar os arquivos armazenados - nesse caso, quanto menor for o tempo, melhor será o desempenho (e menor a possibilidade de o HD criar um gargalo no sistema).

Já a taxa de transferência externa (quantidade de dados que passam pelo barramento) é igualmente importante, mas nem sempre fácil de avaliar, até porque os fabricantes não apresentam esses valores de forma padronizada.
Temperatura máxima operacional, nível de ruído e consumo de energia são grandezas relevantes, mas igualmente difíceis de avaliar, especialmente por usuários domésticos menos iniciados nos "segredos" do hardware.

Em face do exposto, a sugestão é escolher um HD de fabricantes conhecidos e renomados (Iomega, Maxtron, Samsung e Seagate são bons exemplos), com fartura de espaço (preferencialmente acima dos 100 GB) e alta velocidade - fatores que não garantem, mas pelo menos indicam melhor desempenho.
Bom domingo a todos.

quinta-feira, 26 de outubro de 2017

A VOTAÇÃO DA SEGUNDA DENÚNCIA CONTRA TEMER E A CONSPIRAÇÃO CONTRA A LAVA-JATO



Como era esperado, Michel Temer conseguiu sepultar a segunda denúncia. Num espetáculo lamentável, mas que nos custou uma fortuna, a maioria dos “nobres deputados”, ao justificar o voto contra ou a favor do relatório da CCJ, usou e abusou dos mais estapafúrdios disparates. Detalhe: maioria é força de expressão, porque o placar foi de 251 a 233, com 2 abstenções e 25 ausências.

Pode-se contar nos dedos os parlamentares que disseram textualmente que não viam elementos suficientes para a autorizar a abertura de inquérito contra o presidente e seus comparsas ― o que é incrível, considerando o teor da conversa entre Temer e Joesley, a mala de dinheiro de Rocha Loures, etecetera, etecetera e tal, mas era isso que estava em discussão. A patuleia desvairada, então, ressuscitou o tal “golpe contra uma presidente honesta e honrada”, defendeu a volta de Lula e vociferou outros absurdos que tais. Nem imagino o que essa gente anda cheirando, mas deve ser forte pra cacete.

Uns poucos gatos pingados disseram votar contra o parecer em respeito a seus eleitores. Outros lembraram o índice de aprovação do presidente, que é de míseros 3%, mas apenas uns 2 ou 3 defenderam a prisão de Lula, Temer, Dilma, Aécio e demais corruptos ― no dia que isso acontecer, o Congresso ficará tão vazio quando cabeça da militante petista. Um deputado (não me lembro qual), disse exatamente o que eu venho sempre dizendo aqui: Se Temer não teme, por que tem tanto medo da investigação?

É certo que este não seria o melhor momento para trocar (novamente) o maestro desta orquestra chinfrim ― até mesmo em razão de quem seria promovido ao posto. Mas também é certo que a função dos deputados não era fazer esse tipo de julgamento, mas decidir, de forma ilibada e imparcial, se havia ou não indícios suficientes para autorizar a abertura de inquérito contra Temer e seus comparas. Mas o que esperar desse caterva se, dois dias atrás, o conselho de ética do Senado arquivou o pedido de afastamento de Aécio, o mineirinho safado que traiu 51 milhões de eleitores? A única explicação, a meu ver, é que o vocábulo “ética”, para nossos caríssimos congressistas, não tem o mesmo significado registrado pelos dicionaristas.

Temer recebeu alta e deixou o hospital ainda na noite de ontem. Conforme eu publiquei mais cedo, ele havia sido internado devido a uma obstrução na uretra, mas conseguiu esvaziar a bexiga com o auxílio de uma sonda ― embora não tenha precisado de ajuda para esvaziar os cofres na hora de comprar as marafonas da Câmara e se safar do processo no Supremo.

Enfim, chegamos ao day after com os aliados cantando vitória, apesar do placar decepcionante. Mas é inegável que eles conseguiram atravessar a ponte, ainda que aos trancos e barrancos. Agora, é preciso retomar a agenda econômica, e não será fácil conseguir os 308 votos necessários para a aprovação de PECs como a da Previdência.

Segundo O GLOBORodrigo Bolinha Maia, disse que o governo terá de repensar a estratégia para reconstruir a maioria entre os parlamentares. Aliás, a postura do presidente da Câmara sinalizará o futuro deste governo ― como aliado do Planalto, ele foi essencial para as vitórias de Temer no Congresso, mas, de olho nas eleições de 2018, vem mudando sua postura, até porque ninguém merece ser visto como aliado de um governo que tem míseros 3% de aprovação popular. Demais disso, é natural que, a esta altura do campeonato, os parlamentares foquem mais nas urnas do que na agenda do governo. Basta ver que, na votação de ontem, o PSDB ― maior partido da base aliada ― deu 20 votos ao Planalto e 23 contrários; o DEM e o próprio PMDB também deram menos votos ao governo que na primeira denúncia.


Se temos mesmo de aturar sua insolência por mais 14 meses, que isso surta efeitos positivos, que os mercados reajam bem, que economia continue se recuperando. Isso se Temer conseguir realmente chegar ao final do mandato, com 77 anos nas costas e indicação de repouso depois passar sete horas no hospital. Aliás, além de se recuperar fisicamente, o maior desafio de Temer, a partir e hoje, é mostrar que seu governo não acabou 14 meses antes do fim.

Por enquanto é só, pessoal. Enquanto esperamos a poeira baixar para fazer uma análise mais detalhada do quadro atual, deixo aqui um clipe de vídeo em que a jornalista Joyce Hasselmann tece considerações preocupantes sobre a possibilidade de o STF rever sua posição sobre a prisão após a confirmação da sentença em segunda instância, o que não só poderá definir a participação de Lula nas próximas eleições, mas também o futuro da Lava-Jato.


Até mais ler.

Visite minhas comunidades na Rede .Link:

quinta-feira, 17 de outubro de 2019

CONHEÇA MELHOR SEU PC — CONTINUAÇÃO


A IDEIA DE QUE DEUS É UM GIGANTE BARBUDO DE PELE BRANCA SENTADO NO CÉU É RIDÍCULA. MAS SE, COM ESSE CONCEITO, VOCÊ SE REFERIR A UM CONJUNTO DE LEIS FÍSICAS QUE REGEM O UNIVERSO, ENTÃO CLARAMENTE EXISTE UM DEUS. SÓ QUE ELE É EMOCIONALMENTE FRUSTRANTE: AFINAL, NÃO FAZ MUITO SENTIDO REZAR PARA A LEI DA GRAVIDADE.

O que se convencionou chamar de microcomputador (ou PC) é a combinação de dois subsistemas distintos, conquanto interdependentes: o hardware e o software. Por hardware, entenda-se o conjunto de componentes físicos — placa de sistema, placas de expansão, processador, memórias, gabinete, etc., além de periféricos como monitor de vídeo, teclado, mouse, entre outros — e por software, o sistema operacional e os aplicativos (além de programas de baixo nível como drivers de dispositivo, firmwares e outros).

Antigamente, os veteranos costumavam dizer aos novatos que hardware era tudo aquilo que eles podiam chutar, e software, aquilo que eles só podiam xingar, mas isso já é outra história.

Como em qualquer "conjunto" — seja uma banda, uma orquestra ou um PC — o desempenho individual influencia, positiva ou negativamente, a performance global. No caso específico do computador, esse conceito tem mais a ver com o hardware que com o software, mas isso não quer dizer que o sistema e os programas não tenham sua parcela de responsabilidade.

Por mais habilidoso que seja o maestro, músicos desafinados e desentrosados dificilmente produzirão um bom espetáculo, da mesma forma que uma CPU de ponta só exibirá seu "poder de fogo" com a contrapartida de um SSD responsável e fartura de memória (claro que os demais componentes também contam, só que em menor escala).

Por outro lado, um processador mediano pode se sair bem se contar com muita memória RAM e um HDD (drive eletromecânico ultrapassado, mas bem mais acessível que os modelos baseados em memória flash) de preço acessível, mas espaçoso e veloz. A conclusão que se tira é que, a menos que dinheiro não seja problema, melhor investir numa máquina de configuração mediana, mas equilibrada (como diziam os antigos, in medio stat virtus), do que num modelo com processador de ponta, mas com pouca memória e HDD chinfrim.

Amanhã trataremos do software.