Mostrando postagens com marcador CPU. Mostrar todas as postagens
Mostrando postagens com marcador CPU. Mostrar todas as postagens

quarta-feira, 10 de agosto de 2011

Upgrade de CPU

Depois do upgrade da memória e do HD, é hora de tecermos algumas considerações sobre o processador – tido e havido (muito apropriadamente) como o cérebro do computador. Antes, porém, vale lembrar que cada dispositivo tem sua importância (tanto relativa quanto absoluta), e que o PC é como uma orquestra, onde músicos de boa estirpe até conseguem mascarar a incompetência de um regente chinfrim, conquanto a recíproca não seja verdadeira.
No alvorecer da computação pessoal, o desempenho do sistema dependia diretamente da freqüência de operação da CPU, mas a demanda por poder de processamento exigiu a adoção de novas soluções (como a integração do co-processador aritmético ao chip principal, a multiplicação de clock e a introdução da memória cache, dentre tantos outros). Desde então, a “velocidade” do chip deixou de ser a referência primária de desempenho, pois expressa somente a quantidade de operações que ele é capaz de executar a cada segundo. Uma CPU que opere a 3 GHz, por exemplo, realiza três bilhões de operações por segundo, mas o que ela é capaz de fazer em cada operação já é outra história.
Demais disso, conforme o aumento da freqüência de operação foi se tornando inviável, os fabricantes buscaram soluções alternativas (como o multiprocessamento lógico e a inclusão de dois ou mais núcleos numa mesma pastilha de silício, por exemplo), que permitem a chips com clock inferior a 2 GHz darem de lavada em modelos de 3 ou mais GHz de alguns anos atrás.

Observação: No final do século passado, quando estava perdendo parte do mercado de PCs de baixo custo para a AMD, a Intel resolveu lançar uma linha de chips mais baratos. Os Celeron eram basicamente modelos Pentium II desprovidos de cache L2 integrado, mas não tiveram boa aceitação, pois seu desempenho era 40% inferior ao dos PII de mesmo clock. Ainda que a burrada tenha sido corrigida mais adiante, muita gente ainda torce o nariz para essa família de processadores.

Passando ao que interessa, os portões para o upgrade de processador se abriram quando esse componente deixou de vir soldado nos circuitos da placa-mãe e passou a ser encaixado num soquete apropriado. Conforme surgiam modelos mais velozes, bastava remover o antigo e espetar o novo – notadamente durante o “reinado” do o festejado “Socket7”, que suportava uma vasta gama de processadores, inclusive de fabricantes diferentes. Mas essa “festa” acabou quando o desenvolvimento de novas arquiteturas e tecnologias resultou numa expressiva interdependência entre a CPU, o chipset e as memórias (o “trio calafrio”, como dizia meu velho amigo e parceiro Robério), limitando, conseqüentemente, as possibilidades de upgrade. A título de ilustração, quando a Intel lançou o P4, o único chipset que lhe oferecia suporte era o i850, da própria Intel, que usava módulos de memória RIMM (da malfadada e cara tecnologia RAMBUS).
Em face do exposto, não é difícil entender por que o upgrade de processador pode ser economicamente inviável. Se, para implementá-lo, você precisar substituir também a placa-mãe e os módulos de memória (que dependem essencialmente do FSB da CPU e das opções suportadas pelo chipset da placa), talvez seja melhor gastar um pouco mais e comprar um PC novo.
Não obstante, há casos em que é possível obter ganhos consideráveis com a pura e simples troca do chip por outro que integre mais memória cache ou opere em velocidade superior, desde que utilize o mesmo soquete, mas isso já é assunto para o post de amanhã.
Abraços e até lá.

sexta-feira, 1 de abril de 2011

BlackBox, Firefox e humor de sexta-feira

Chamamos “caixa preta” àquele artefato que ajuda a elucidar acidentes aéreos mediante o fornecimento de informações sobre a situação do vôo, os últimos 30 minutos de conversa entre a aeronave e a torre de controle, além da velocidade, altitude, direção e ângulos de subida e descida do aparelho no momento do acidente. Aliás, ao contrário do que se costuma imaginar, ela não é preta, mas geralmente cor de laranja, e não fica na cabine (principal ponto de impacto numa queda), e sim na cauda da aeronave.
Mudando de pato para ganso, interessa dizer que o nome BlackBox também remete a uma ferramenta de diagnóstico e benchmark gratuita que esquadrinha, analisa e quantifica os recursos de hardware do computador (mais informações e download em http://hwmblackbox.com/). Dentre diversos outros recursos, ela atribui notas a vários componentes do PC, avalia a performance global do sistema, identifica o codinome e o modelo do processador, o modo de operação das memórias e sua latência e clock.
Para quem deseja uma opção mais completa que o  CPU-Z e mais barata que o Everest (versão gratuita para teste e tutorial detalhado disponíveis em http://www.baixaki.com.br/download/everest-ultimate-edition.htm), o BlackBox é uma mão na roda.

Os comentários deixados nas postagens que publiquei recentemente sobre navegadores deixaram clara a preferência dos leitores pelo Firefox. Sobre o Chrome, quase ninguém falou, e o IE (que é o meu favorito, mas isso já é outra história) não recebeu grandes elogios (para dizer o mínimo). No entanto, segundo um artigo publicado na PCWorld EUA, algumas modificações implementadas na nova versão da Raposa não foram de agrado geral – tais como a nova posição do botão Atualizar e das Abas –, sem mencionar que alguns add-ons deixaram de funcionar.
Para saber sabe mais sobre o assunto (e ver como resolver esses probleminhas), clique aqui.

Passemos agora à nossa tradicional piadinha de sexta-feira:

Num ponto incerto e não sabido das montanhas do Tibet, vivia um sábio que, perguntado sobre qual o caminho mais curto e seguro para atingir o coração de uma mulher, respondeu:
- Não há caminho seguro, só trilhas beirando penhascos e caminhos sem mapas cheios de pedras e de serpentes venenosas. É preciso ser amigo, companheiro, amante, irmão, educador, cozinheiro, mecânico, encanador, eletricista, decorador, estilista, sexólogo, psicólogo, ginecologista e terapeuta. Ajuda também ser simpático, carinhoso, atento, cavalheiro, inteligente, imaginativo, criativo, doce, gentil, forte, compreensivo, tolerante, prudente, ambicioso, valente, decidido, confiável, apaixonado e, de preferência, rico. Adicionalmente, convém não cuspir no chão, coçar o saco em público, arrotar alto, falar palavrão ou peidar na presença da amada. Vale ainda levantar a tampa do vaso antes de mijar, dar descarga, ser rápido no banho, fazer a barba, não ter amigos (nem muito menos sair para beber com eles), não roncar (e nem mencionar que ela ronca), telefonar 5 vezes por dia só para dizer “eu te amo”, sempre lembrar datas de aniversário (natalício, de noivado, casamento, formatura, menstruação, primeiro beijo e outras do tipo), sem mencionar que...
Ei, rapaz, espere... Volte aqui... Não pule!!!

Bom f.d.s. a todos.

quarta-feira, 16 de março de 2011

32 x 64 bits

Lançado menos de três anos depois do malfadado Vista, o “Seven” desfez a má impressão deixada pelo seu predecessor e aumentou a renda da Microsoft em 35% já no último trimestre de 2009.
Caso você esteja pensando em fazer o upgrade, vale lembrar que o Windows 7 é disponibilizado em várias versões, e algumas delas vêm com dois DVDs de instalação: um para sistemas de 32 Bits e outro para sistemas de 64 Bits.
Dentre outras vantagens, os sistemas de 64 bits são capazes de gerenciar uma quantidade de memória física muito superior aos de 32 bits, cujo limite utilizável fica entre 2,8 e 3,5 GB de RAM. E como PCs com 4, 6 ou mais Gigabytes de RAM já podem ser encontrados a preços relativamente acessíveis, tenha em mente que, para tirar proveito dessa fartura, além do sistema de 64 bits, você precisa contar com um processador compatível – como os Pentium D, Extreme Edition, Core 2, Core i3, Core i5 e Core i7, da Intel, e os AMD Athlon II X2, X3, X4 e XLT, Athlon 64, Opteron e Turion 64.
Bom dia a todos e até a próxima.

quinta-feira, 17 de fevereiro de 2011

A evolução dos computadores...

Atendendo a uma sugestão apócrifa deixada no post do último dia 9, vou dedicar algumas linhas à evolução dos computadores, começando por definir “informática” como a ciência que visa ao tratamento da informação mediante o uso de equipamentos e métodos da área de processamento de dados – até porque processar dados é o que o computador faz ao arquivar, gerenciar e manipular informações.

Reza a lenda que tudo começou com o ábaco – geringonça criada há mais de 3.500 anos no antigo Egito –, cuja desenvoltura na execução de operações aritméticas seria superada somente no século XVII pela Pascalina, desenvolvida pelo matemático francês Blaise Pascal e aprimorada pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de multiplicar e dividir. Mas o “processamento de dados” só tomaria impulso dois séculos mais adiante, com o Tear de Jacquard – primeira máquina mecânica programável –, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir extensas tabelas científicas, que serviu de base para Herman Hollerith construir um tabulador estatístico com cartões perfurados. (Depois de diversas fusões e mudanças de nomes, a empresa de Hollerith viria a se tornar a International Business Machine, mais conhecida como IBM, mas isso já é outra história).
Lá pelos anos 30, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, ao mesmo tempo em que o alemão Konrad Zuze criava o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou potências como os EUA, Alemanha e Inglaterra a investir no desenvolvimento de computadores como o Mark 1, o Z3 e o Colossus. Aliás, foi com o apoio do exército norte-americano que pesquisadores da Universidade da Pensilvânia construíram o ENIAC – portento de 18 mil válvulas e 30 toneladas –, que produziu um enorme blecaute ao ser ligado, em 1946.

Observação: Apesar de consumir 160 kW/h, o ENIAC só conseguia fazer 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo – uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

Em 1947 surgiria o EDVAC – já com memória, processador e dispositivos de entrada e saída de dados –, seguido pelo UNIVAC – que utilizava fita magnética em vez de cartões perfurados –, mas foi o transistor que revolucionou a indústria dos computadores, notadamente a partir de 1954, quando seu custo de produção foi barateado pela utilização do silício como matéria prima.
No final dos anos 50, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e uma década depois a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360 (lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microprocessadores, e daí à criação de equipamentos de pequeno porte foi um passo: em poucos anos surgiria o ALTAIR 8800 (vendido sob a forma de kit), o PET 2001 (lançado em 1976 e tido como o primeiro microcomputador pessoal) e os Apple I e II (este último já com unidade de disco flexível).
O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de PERSONAL COMPUTER), cuja arquitetura aberta e a adoção do MS-DOS da Microsoft viriam a estabelecer um padrão de mercado.
De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse – tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte –, a Apple fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. E a despeito de a IBM pressionar a Microsoft no sentido de não atrasar o lançamento de sua interface gráfica para rodar em DOS, a Apple já estava anos-luz à frente quando o Windows 2.0 chegou ao mercado.
Muita água rolou por baixa da ponte desde então. Em vez de aperfeiçoar o PC de maneira a utilizar o novo processador 80386 da INTEL, a IBM preferiu lançar o PS/2, com arquitetura fechada e proprietária. Mas a Compaq – que já vinha ameaçando destronar a rival – convenceu os fabricantes a continuarem utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas continuassem buscando desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já um sistema operacional autônomo), a estrela de Bill Gates brilhou mais forte, e o lançamento do Win 98 sacramentou a Microsoft como a “Gigante do Software”.
O resto é história recente: a arquitetura aberta se tornou padrão de mercado; o Windows se firmou como o SO mais utilizado em todo o mundo (a despeito da evolução das distribuições LINUX e dos fãs da Apple/Macintosh); a evolução tecnológica vem favorecendo o surgimento de dispositivos de hardware cada vez mais poderosos – e propiciando a criação de softwares cada vez mais exigentes –; a INTEL e a AMD continuam disputando “a tapa” a preferência dos usuários pelos seus processadores (agora com 2, 3, 4 ou mais núcleos); memórias SDRAM de 64/128 MB cederam lugar para 2 ou mais GB DDR2 ou DDR3; placas gráficas de última geração permitem jogar games radicais, assistir a filmes em alta definição e com efeitos 3D, e por aí vai. 
Tenham todos um ótimo dia.

segunda-feira, 20 de dezembro de 2010

Boas Compras!

A proximidade do Natal vem dando margem a inúmeras promoções de eletrodomésticos e eletroeletrônicos – amplamente alardeadas na mídia impressa e televisiva e enfatizadas por expressões como “grande feirão”, “queima de estoque”, “só esta semana”, e por aí vai.
Ninguém discute que o momento é favorável para quem realmente precisa ou deseja trocar seu computador (de mesa ou portátil) por um modelo novinho em folha, já que os preços estão palatáveis e as condições de pagamento bastante atraentes. No entanto, fazer uma boa compra não significa apenas pagar barato e em suaves prestações “sem acréscimos”, mas sim levar para casa um produto compatível com suas necessidades, dentro de uma faixa de preço pré-estabelecida, e com prestações que realmente caibam no seu bolso. E como existem computadores de diversos tipos, marcas e modelos, a escolha pode não ser tão simples quanto parece.
Conforme vimos na postagem http://fernandomelis.blogspot.com/2010/07/de-volta-ao-processador-conclusao.html, a “bola” da vez, no que diz respeito à CPU, são os chips da linha Core 2010 da Intel, sucessores dos core2duo e quad-core. Para usuários domésticos, a melhor relação custo benefício é oferecida pelos i3, que são direcionados ao mercado de entrada – embora sejam baseados na mesma arquitetura do i5, que custa mais caro e é focado no mercado corporativo.
Mesmo assim, não é difícil encontrar máquinas equipadas com chips de versões anteriores, inclusive modelos Pentium e Celeron. Aliás, o nome Pentium é forte demais para ser abandonado pela Intel, de modo que a empresa resolveu mantê-lo com o modelo G6950, que é um Core i3 “rebaixado”: sua freqüência (2,8 GHz) é inferior à do mais lento Core i3, como também seu cache L2 (3 MB), sem mencionar que ele não conta com HT nem com TurboBoost.
No que concerne à AMD, vale mencionar que a arquitetura do Phenon II está ultrapassada, embora mesmo os modelos de quatro núcleos custem mais barato que os i5. Em algumas aplicações, a versão X4 pode ser até mais rápida, conquanto não ofereça aprimoramentos como o AES-NI e o vPro, perdendo terreno para a concorrente, portanto, também no mercado corporativo.
No que diz respeito aos demais itens da configuração do aparelho, vale o que já foi dito a propósito em diversas postagens já publicadas, lembrando sempre que optar por um determinado computador somente porque ele traz 4 ou mais Gigabytes de RAM só faz sentido no caso de a versão do Windows ser de 64-bit.

Observação: Sistemas de 32 bits só gerenciam algo em torno de 3,25 GB de RAM, de maneira que pagar mais caro num aparelho que venha com 4 GB, por exemplo, será jogar dinheiro fora (a menos que você tencione migrar para uma versão do Windows 64-bit). Aliás, muitos aplicativos vêm sendo desenvolvidos para arquitetura específicas (de 32 ou 64 bits), o que causa dúvidas na hora de fazer um download. É possível rodar um programa de 32 bits num computador com arquitetura de 64 bits, porém não o contrário. Então, para saber se o seu Windows XP é de 32 ou 64 bits, basta clicar com o botão direito do mouse sobre o ícone do Meu Computador, selecionar “Propriedades” e, na a guia “Geral”, checar a seção “Sistema”: se não constar nada além da versão do XP (Home Edition Service Pack 3, por exemplo), seu Windows é 32bit.

Boas compras e até mais ler.

terça-feira, 27 de julho de 2010

De volta ao processador (conclusão)

Após as considerações conceituais expendidas no post anterior, podemos dizer que quem tenciona integrar um PC (ou comprar uma máquina montada) com tecnologia Intel de última geração tem como opção a linha Core 2010 (Core i3, Core i5 e Core i7, respectivamente de entrada de linha, médio e alto desempenho).

Os Core i3 – que substituem os modelos Core2Duo – representam a escolha natural para usuários domésticos comuns, com dois núcleos de processamento, Hyper-Threading (que acrescenta mais dois “núcleos virtuais”), memória cache de 4 MB compartilhada (nível L3), suporte para memória RAM DDR3 de até 1333 MHz, controlador de vídeo integrado e controlador de memória interno com suporte para o Dual Channel. Já os Core i5 (com dois ou quatro núcleos e até 8MB de memória cache compartilhada) vão mais além, visando atender as necessidades dos “heavy-users”, que trabalham com aplicações mais pesadas. E para os mais exigentes, a cereja do bolo, pelo menos por enquanto (*), são os Core i7, que possuem no mínimo quatro núcleos (o i7-980X tem seis), memória cache L3 de 8 MB e tecnologias Intel Turbo Boost, Hyper-Threading, HD Boost e QPI, dentre outros aprimoramentos. (Para mais detalhes, cliquei aqui).

Observação: Se sua idéia for fazer apenas um upgrade ao invés de partir para um PC zero km, tenha em mente que esses chips requerem placas-mãe com soquete LGA 1156 (em outras palavras, ainda que seja tecnicamente possível, a “recauchutagem” certamente não será economicamente viável). O soquete faz a interface entre a CPU e a placa-mãe, e ainda que um único modelo atenda várias gerações, mudanças no projeto dos chips podem exigir a criação de novos modelos. Então, na hora de comprar um processador "avulso", verifique qual soquete sua placa-mãe oferece, de maneira a assegurar a respectiva compatibilidade.

Para quem não faz questão absoluta de ter um PC “Intel Inside”, a AMD  oferece boas opções de microchips com preços mais em conta que os da concorrente. No início do ano passado, ela lançou os primeiros processadores Phenom II – quad-core “Deneb” –, seguidos pelos modelos X3 (de três núcleos) e, mais adiante, os X4 945, de 3.0 GHz.

Se você deseja desempenho diferenciado, não ficará decepcionado com o Phenom II X6 1090T (de 3.2GHz, seis núcleos e 45 nanômetros, que pode alcançar até 3.6GHz com o Turbo Core – tecnologia equivalente ao overlocking automático da Intel, batizado de Turbo Boost). Com cache L3 de 6 MB, esse chip oferece uma performance 20% superior ao Intel Core i7-980X, embora fique devendo uma resposta ao hyper-threading da linha principal da concorrente. Por outro lado, sendo mais amigável em termos de compatibilidade (podendo ser instalado em qualquer placa com soquetes AM2+ ou AM3, a perspectiva de um simples upgrade resulta numa excelente solução para quem deseja usufruir dos benefícios de um processador novo e atualizado.

Para quem não quer gastar muito, uma boa opção é o Phenom II X4 945: apesar de custar metade do preço do X6, ele é apenas 7% mais lento (o X6 é um parente do X4 com dois núcleos extras, mas ambos têm 6MB de cache L3 e operam em um barramento HyperTransport de 2GHz, conquanto o primeiro tenha clock de 3GHz com overclocking automático de até 3.6GHz). E se você deseja algo ainda mais em conta, o Athlon II X4 635 oferece bom desempenho, a despeito de não dispor de cache L3 (em termos operacionais, ele é bastante semelhante ao Phenom II X4 945, embora opere numa freqüência um pouco inferior).

Para concluir, não custa relembrar que, a despeito da inegável importância do processador, os demais componentes também influenciam sobremaneira a performance do PC: uma máquina com pouca RAM, por exemplo, obrigará o Windows a recorrer constantemente ao swap file e à lenta memória virtual; um subsistema de vídeo sem GPU e memória dedicada irá consumir ciclos de processamento e alocar parte da RAM para realizar a árdua tarefa de gerar as imagens exibidas no monitor – isso sem mencionar que os recursos da placa-mãe e respectivo chipset também são relevantes, na medida em que “intermediam” o relacionamento da CPU com os demais componentes do sistema.

(*) Devem chegar em breve ao mercado os novos Intel Core i9 , com núcleo Gulftown, baseados na micro arquitetura Westmere de 6 núcleos com HT (12 núcleos no total, considerando os 6 virtuais) e fabricados no processo de 32 nanômetros.

Um bom dia a todos e até a próxima.

segunda-feira, 26 de julho de 2010

De volta ao processador

Fuçando aqui nos meus alfarrábios, encontrei numa edição antiga do saudoso Curso Dinâmico de Hardware uma matéria sobre microprocessadores que eu redigi lá pela virada do século. Com a sensação de quem reencontra um velho amigo, li o texto de cabo a rabo e constatei que ele continua “atual”, embora tenha sido escrito na época áurea dos Intel Pentium. Cheguei a pensar até em transcrevê-lo na íntegra, mas desisti devido ao tamanho (8 páginas da revista). Entretanto, nada me impede de usá-lo como base para criar uma ou duas postagens sobre o processador mais adequado às nossas necessidades, já que isso é uma questão complicada: embora as opções se restrinjam basicamente a chips da Intel e da AMD, cada um desses fabricantes dispõe de várias famílias com arquiteturas, especificações e recursos distintos.

O microprocessador (ou CPU, ou simplesmente processador) é cantado em prosa e verso como sendo o “cérebro” do computador. No entanto, da mesma forma que um cérebro precisa de um corpo que o abrigue e de um coração que o alimente, a performance de um sistema computacional depende de cada um dos elementos que o integram. Parafraseando o Mestre Carlos Morimoto, todo PC é tão rápido quanto seu dispositivo mais lento.

Observação: A “velocidade” da CPU não deve ser vista como única referência de performance – nem do processador nem (muito menos) do sistema. Essa idéia talvez fosse admissível nos primórdios da informática, mas não hoje, quando outras variáveis se tornaram tão ou mais importantes do que o clock: embora ele espelhe o número de operações executadas a cada segundo, o que o processador é capaz de fazer em cada operação é outra história. Ainda que a “velocidade” da CPU seja tomada como parâmetro de desempenho, ela expressa somente o número de operações executadas pelo chip a cada segundo – uma CPU que opere a 3 GHz, por exemplo, executa três bilhões de operações por segundo.

Para entender melhor essa questão, podemos comparar o sistema computacional a uma orquestra, onde o maestro e os músicos devem atuar em perfeita harmonia para proporcionar um bom espetáculo – músicos gabaritados até podem mascarar a incompetência de um regente chinfrim, mas a recíproca quase nunca é verdadeira. Reproduzindo um exemplo que eu citei na matéria original, o desempenho de um jurássico 486 de 100 MHz era 50% inferior ao de um Pentium de mesma frequência, mas se abastecido com 32 MB de RAM, ele era capaz de rodar o Win95 com mais desenvoltura do que um Pentium III de 1 GHz com apenas 8 MB.

Conquanto fosse interessante detalhar o processo de fabricação dos microchips, sua evolução, formatos, soquetes e outros que tais, isso não teria grande relevância para quem precisa escolher o “maestro que irá reger sua “orquestra”, de modo que fica para outra oportunidade. De momento, cumpre ressalvar apenas que diversos aprimoramentos (aumento do número de transistores, incorporação do coprocessador matemático e da memória cache, dentre outras coisas) tiveram enorme impacto no desempenho e na maneira como as CPUs passaram a decodificar e processar as instruções. Para se ter uma ideia da importância do cache do processador, no final do século passado, quando estava perdendo parte do mercado de PCs de baixo custo para a AMD, a Intel resolveu lançar uma linha de chips mais baratos – que eram basicamente modelos Pentium II desprovidos de cache L2 integrado, com desempenho 40% inferior. Por conta disso, o Celeron não teve boa aceitação e foi severamente criticado pela imprensa especializada. Mesmo que a burrada tenha sido corrigida mais adiante, muitos usuários até hoje torcem o nariz para os integrantes dessa família de microchips.

Amanhã a gente conclui; abraços e até lá.

quinta-feira, 15 de abril de 2010

Só pra complementar...

Mesmo não sendo a única responsável pela performance do computador, a CPU é um dos componentes de maior relevância na configuração da máquina. Nos primórdios da “Era PC”, a freqüência de operação era o principal fator a ser analisado na comparação entre dois processadores (ou mesmo entre dois computadores), já que um PC386 a 100 MHz, por exemplo, proporcionava praticamente o dobro da performance de outra máquina com o mesmo modelo de chip, mas com metade da velocidade.
Muita água rolou por debaixo da ponte desde então, já que os fabricantes vêm aprimorando constantemente seus produtos. E ainda que a freqüência de operação tenha crescido a passos de gigante na disputa entre a Intel e AMD, diferenças de arquitetura e quantidade de memória cache, dentre outros fatores, foram ganhando importância na avaliação do desempenho dos processadores. Isso vale inclusive para produtos de um mesmo fabricante: a título de exemplo, podemos citar os Pentium III e os primeiros Celeron (ambos da Intel): numa hipotética disputa entre dois modelos de velocidade idêntica, o Pentium ganharia de lavada, notadamente pela falta de memória cache do “concorrente”.

Observação: Convém ter em mente que o desempenho do processador e a performance global do computador são coisas distintas. Como ensina o mestre Carlos Morimoto, “todo computador será tão rápido quanto o for o dispositivo mais lento que ele integrar.”

Passando ao que realmente interessa aos propósitos desta postagem, vale lembrar que, quando o clock dos processadores bateu a marca dos 3 GHz (três bilhões de ciclos por segundo), as coisas se complicaram: além das dificuldades de fabricação, chips com velocidades ainda mais elevadas geram muito calor e consomem um bocado de energia, de modo que os fabricantes tiveram de buscar novas soluções para continuar obedecendo à famosa Lei de Moore (segundo a qual o poder de processamento dos microchips dobra a cada 18 meses). E a melhor saída foi criar chips com dois ou mais cores (núcleos): assim, uma CPU com dois núcleos “rende” o mesmo que duas CPUs separadas, mas funciona de maneira mais eficiente e pode ser produzida a um custo inferior.
E assim surgiram os processadores multicore, como os Intel Pentium D, Core 2 Duo, Core 2 Quad, Core i5 e i7, e os AMD Athlon X2 e Phenon, dentre outros mais. Por outro lado – e tudo sempre tem outro lado – essa diversificação de modelos complicou a vida do usuário na hora de comprar ou integrar um novo computador: afinal, é melhor escolher um Core 2 Duo rodando a 3 GHz ou um Core 2 Quad (quatro núcleos) a 2,4 GHz?
A resposta é “depende” – principalmente dos programas que você pretende utilizar. Conforme a aplicação, uma máquina com CPU dual pode apresentar desempenho superior ao de um Quad Core, já que a maioria dos programas existentes atualmente não foi desenvolvida para aproveitar os benefícios oferecidos por chips com mais de dois núcleos – para eles, a freqüência de operação continua sendo mais importante do que a quantidade de núcleos. E a despeito de os sistemas operacionais modernos tentarem contornar essa limitação distribuindo as tarefas entre os vários núcleos, os resultados nem sempre são satisfatórios.
É claro que existem softwares que rodam muito mais rápido em computadores multicore – cujo desenvolvimento vem sendo estimulado pela Intel e pela AMD –, mas isso ainda é a exceção, não a regra. Aliás, os processadores da família “Core i”, da Intel, apresentam uma solução bastante interessante: eles são capazes de manter apenas um núcleo funcionando, mas num regime de clock mais elevado, de maneira a proporcionar um desempenho superior a programas que não foram escritos para chips multicore.
Então, na hora de escolher seu novo notebook ou Desktop, pense bem antes de investir num modelo com chip quad core ou superior. Para usuários domésticos, que geralmente se limitam a navegar na Web e rodar aplicativas de escritório e afins, as vantagens são inexpressivas (pelo menos por enquanto).
Amanhã tem mais; abraços a todos e até mais ler.

quarta-feira, 7 de abril de 2010

What’s My Computer Doing?

A pergunta que intitula esta postagem – e que pode ser traduzida como “o que meu computador está fazendo?” – é o nome de um freeware muito interessante que eu encontrei fuçando a Web, e que cai como uma luva para quem ficar intrigado ao ver o LED do HD piscar freneticamente, mesmo quando a máquina está ociosa.
O software em questão relaciona (em tempo real) todos os programas que estão lendo ou gravando dados no disco ou consumindo recursos do processador. Basta você selecionar um deles para visualizar informações (como nome, datas, detalhes, questões de segurança, problemas conhecidos e links externos), acessar suas propriedades, abrir a pasta respectiva, encerrar o processo, desinstalar o aplicativo e até mesmo enviá-lo para análise online no site da Kaspersky ou do VirusTotal (para mais informações e download, clique aqui).
Bom dia a todos e até mais ler.

quinta-feira, 14 de janeiro de 2010

De volta ao upgrade (final)

Realizados (ou descartados) os procedimentos sugeridos nas postagens anteriores, convém ter em mente que um PC lento e com um HD entupido de arquivos pode ganhar novo fôlego e lhe servir por mais algum tempo sem que você precise gastar um centavo sequer.
Comece dando uma geral no sistema com Advanced System Care, da Iobit (http://www.iobit.com/), que varre PC em busca de spywares, elimina arquivos desnecessários, identifica (e corrige) problemas no Registro do Windows e muito mais. Alternativamente (ou adicionalmente), baixe e instale Glary Utilities (http://www.glaryutilities.com/gu.html), que tem um bom limpador de Registro e de HD, além de reparador de atalhos, gerenciador de inicialização e de menu de contexto, dentre outros recursos interessantes.
Embora os softwares retro citados atuem também sobre o Registro do Windows, existem programas dedicados especificamente a essa delicada tarefa – como o excelente MV RegClean, desenvolvido pelo brasileiro Marcos Velasco (mais informações e download em http://www.velasco.com.br/mvregclean_informations.php).

Observação: À medida que componentes e programas são instalados e desinstalados, o Registro tende a acumular resquícios que acabam minando o desempenho do sistema. Todavia, ainda que essas ferramentas realizem uma faxina responsável e desobriguem o usuário de fazer perigosas modificações manuais, é recomendável criar um ponto de restauração e fazer um backup do registro antes de implementar qualquer modificação nesse importante banco de dados.

Se você tem uma grande quantidade aplicativos instalados em seu computador, é bem provável que muitos deles estejam configurados (desnecessariamente) para pegar carona na inicialização do Windows, deixando o boot mais lento e ocupando espaço na memória. Embora seja possível redefinir essa configuração com o MSConfig, o Autoruns faz um trabalho melhor, já que oferece detalhes sobre cada entrada (mais informações e download em http://technet.microsoft.com/pt-br/sysinternals/bb963902.aspx). Note, porém, que desmarcar ou deletar entradas é um procedimento delicado, de maneira que convém criar um backup e um ponto de restauração do sistema antes de sair apagando tudo o que você vir pela frente.

Observação: Entradas como iTunesHelper.exe ou QTTask.exe, por exemplo, podem ser desmarcadas sem problema algum, mas o mesmo não se aplica ao executável do seu antivírus ou de outros programas que precisam ser iniciados automaticamente junto com o sistema. Então, caso tenha dúvidas sobre o que alguns deles fazem, use o Google ou outro buscador de sua preferência para descobrir o impacto que sua desativação ou retardo na carga podem acarretar.

Além dos programas que rodam na inicialização, uma porção de processos e serviços também interferem no desempenho do computador, e ainda que vários deles precisem ser iniciados automaticamente, alguns podem ser desabilitados ou reconfigurados para inicialização manual. Para visualizar a lista completa, clique em Iniciar > Executar, digite “services.msc” (sem as aspas) e pressione a tecla Enter. Para identificar o que pode ou não ser desativado, visite www.blackviper.com/WinXP/servicecfg.htm - caso seu sistema seja o XP x86 (32-bit) SP3; se você utiliza outra versão do Windows, clique em Home e selecione a opção correspondente em “Features”, na coluna à esquerda da página.
Não custa relembrar (embora nossos leitores habituais já estejam cansados de saber) a importância de se manter o sistema e os demais aplicativos devidamente atualizados. Para o Windows, seus componentes e outros produtos Microsoft, você tanto pode rodar o Windows Update regularmente quanto recorrer às atualizações automáticas (clique com o botão direito em Meu computador, escolha Propriedades, abra a guia Atualizações automáticas e faça os ajustes desejados). Já os demais programas requerem atualizações manuais individualizadas a partir dos websites de seus respectivos fabricantes; para facilitar, você pode pesquisá-los de uma tacada só com o serviço de varredura online oferecido pela Secunia (http://secunia.com/vulnerability_scanning/).
Por falar nisso, além das correções de segurança que a Microsoft disponibilizou no Patch Tuesday de anteontem, a Adobe corrigiu uma vulnerabilidade do Reader que vinha sendo explorada desde as festas de fim de ano; caso você utilize esse leitor gratuito de PDF (e quem não o faz?), atualize-o para a versão mais recente (disponível em http://www.adobe.com/br/).
Cautela e canja de galinha nunca fizeram mal a ninguém.

quarta-feira, 13 de janeiro de 2010

De volta ao upgrade (2ª parte)

Uma vez que o processador é o “cérebro” do computador, é comum os usuário imaginarem que basta substituí-lo por um modelo mais poderoso para obterem uma expressiva melhoria no desempenho global da máquina – o que faz sentido, pelo menos em tese (na prática, todavia, a teoria é outra).
Para entender isso melhor, seria interessante recuarmos no tempo até a década de 70 – quando surgiram os jurássicos 4040, 8008, 8080 e 8086 – e retornarmos paulatinamente, dedicando algumas linhas aos 286, 386, 486, e assim por diante, até chegarmos aos sofisticados modelos atuais, com seus dois, três e quatro núcleos. No entanto, considerando o escopo e as possibilidades desta postagem, vamos deixar essas firulas para outra oportunidade.
Nos primórdios da computação pessoal, a CPU vinha soldada nos circuitos da placas-mãe; mais adiante, os projetistas de hardware resolveram conectá-la à placa através de um soquete, e com isso abriram as portas para o upgrade – que se tornou extremamente popular na década de 90, com o festejado “socket7”, que suportava uma vasta gama de processadores, inclusive de fabricantes diferentes.

Como “não há mal que sempre dure ou bem que nunca termine”, o acirramento da disputa entre a Intel e a AMD propiciou o surgimento de novas arquiteturas e tecnologias que deram origem a chips cada vez mais velozes. Por outro lado, essa evolução fez aumentar expressivamente a interdependência entre o processador, o chipset e o subsistema de memória (o “trio-calafrio”, como diz meu parceiro e amigo Robério), limitando, conseqüentemente, as possibilidades de upgrade.

Observação: Lá pela virada do século, quando a Intel lançou o P4 para combater os Athlon da arqui-rival AMD, o único chipset que lhe oferecia suporte era o i850, da própria Intel, que exigia módulos de memória RIMM (da malfadada e cara tecnologia RAMBUS) e elevava consideravelmente o preço final do produto.

Diante do exposto, fica fácil entender por que a troca da CPU pode requerer, concomitantemente, a substituição da placa-mãe e dos módulos de memória (que dependem essencialmente do FSB do processador e das opções suportadas pelo chipset da placa). E como todo upgrade que se preze deve ser economicamente viável, quem estiver pensando em adequar uma máquina antiga às exigências do Windows 7, por exemplo, deve ter em mente que “o molho pode sair mais caro do que o peixe”.
Embora pareça um contra-senso, os melhores candidatos a upgrade de processador não são os PCs mais antigos, mas sim os de fabricação relativamente recente. Se você montou (ou comprou) seu computador há uns dois ou três anos, com uma CPU na casa dos 1.5 GHz, obterá ganhos consideráveis de performance simplesmente substituindo o chip por outro da mesma “família”, mas com o dobro da velocidade; na época, talvez ele custasse os olhos da cara, mas agora deve estar bem mais barato, face ao constante lançamento de novas versões.
Por outro lado, uma máquina fabricada lá pela virada do século – época áurea dos Pentium – fica limitada aos PIII da última safra (com freqüência de 1 GHz, ou um pouco mais). Dentro da mesma arquitetura – como a dos Intel Celeron/Pentium II e III e AMD Duron/Athlon, por exemplo – CPUs diferentes, mas de séries vizinhas, costumam utilizar o mesmo soquete. Todavia, caso sua idéia seja migrar de um PIII para um P4, as modificações serão bem mais abrangentes, sem mencionar que talvez não seja fácil encontrar os componentes e, se você os encontrar, o preço pode não ser nada razoável.

Observação: Embora ainda existam PCs 286/386 ativos e operantes, essas “relíquias” são como carros de coleção: bonitos de se ver numa exposição, mas totalmente e inadequados ao uso quotidiano.

Para concluir, vale dizer que o upgrade de processador segue basicamente os mesmos passos sugeridos para o de memória (postagem anterior): além de saber qual a CPU que equipa seu aparelho, você precisará identificar a marca e modelo da placa-mãe e as opções que o respectivo chipset permite instalar.
Além do preço do chip – e do cooler, já que o mercado informal geralmente não comercializa versões “boxed” –, considere também o custo da mão de obra do técnico (a menos que você seja um usuário avançado e se sinta capacitado a fazer esse delicado serviço por conta própria). Feito isso, compare o resultado com o preço de uma máquina nova: se a coisa passar de 40%, o melhor é esquecer o assunto.
Amanhã a gente conclui.
Abraços e até lá.

terça-feira, 12 de janeiro de 2010

De volta ao upgrade

Houve um tempo em que montar pessoalmente um computador (integração caseira) proporcionava uma expressiva economia em relação à aquisição de uma máquina de grife; hoje, a maior vantagem desse procedimento consiste na possibilidade de escolher “a dedo” os componentes, de acordo com as preferências, necessidades e possibilidades do usuário.
Na esteira desse raciocínio e diante da considerável redução no preço das máquinas prontas, o upgrade de hardware meio que caiu em desuso, já que o investimento necessário para uma evolução abrangente nem sempre justifica os benefícios resultantes. Mesmo assim, há casos em que compensa dar uma recauchutada na máquina, especialmente se você não estiver em condições de substituí-la no curto prazo.
Conforme a gente já disse em outras oportunidades, um upgrade relativamente fácil e barato – mas que apresenta bons resultados – é o de memória, já que os sistemas e programas estão cada vez mais exigentes, e um computador projetado e construído quatro ou cinco anos atrás dificilmente veio de fábrica com mais de 512 MB de RAM.
Então, depois de verificar – no manual do aparelho, no site do fabricante ou com auxílio de programas como o Hwinfo (http://www.hwinfo.com/) ou o PC Wizard (http://www.cpuid.com/pcwizard.php) – qual o tipo de memória apropriado e a quantidade suportada, é só comprar os módulos e instalá-los nos soquetes vagos (ou substituir os pré-existentes, se for o caso) seguindo os passos que já apresentamos em outras postagens.
Outro upgrade que pode resultar em benefícios expressivos tem a ver com a placa gráfica. Mesmo que você não seja adepto de games radicais, PCs com alguns anos de estrada não são capazes de exibir filmes em alta definição com fluidez, por exemplo. Mas vale lembrar que, embora não seja preciso gastar rios de dinheiro numa aceleradora gráfica de topo de linha – para assistir a vídeos em full HD, existem excelentes opções na faixa de 200 reais - é importante comprar a placa nova somente depois de ter certeza de que ela é compatível com seu equipamento, já que os modelos mais recentes requerem slots PCI-E 16x, e o padrão utilizado em máquinas anteriores a 2005 é o AGP (mais detalhes no post do último dia 05).
Na sequência, falaremos do ugrade de processador (CPU) - que, por questões de espaço, ficará para o post de amanhã.
Abraços e até lá.

EM TEMPO: Hoje, segunda terça-feira do mês, teremos o primeiro PATCH TUESDAY da Microsft em 2010. Caso você não tenha configurado as atualizações automáticas para seu Windows, não deixe de rodar o Microsoft Update (preferencialmente no finalzinho da tarde ou início da noite, já que antes disso as atualizações podem ainda não estar disponíveis).