Mostrando postagens com marcador microchip. Mostrar todas as postagens
Mostrando postagens com marcador microchip. Mostrar todas as postagens

quinta-feira, 15 de outubro de 2015

SUTILEZAS DO “CÉREBRO DO COMPUTADOR”... (FINAL)

A RAÇA HUMANA É UMA EXPERIÊNCIA QUE NÃO DEU CERTO.

Como eu antecipei no post anterior, nem tudo são flores nos jardins dos processadores. É fato que a evolução da nanotecnologia vem propiciando uma redução expressiva no tamanho dos transistores e, consequentemente, um aumento bastante significativo na densidade dos chips. Todavia, bilhões de nanoscópicos interruptores abrindo e fechando (bilhões de vezes por segundo) dentro de uma pastilha de silício (menor do que um selo postal) geram uma quantidade monstruosa de calor, que, combinada com outras limitações físicas cujo detalhamento foge ao escopo desta postagem, tem obrigado os fabricantes de microchips a buscar alternativas para aumentar o poder de processamento de seus produtos sem elevar ainda mais sua frequência de operação.

Observação: A Intel levou 30 anos para quebrar a barreira do gigahertz, mas precisou de apenas 30 meses para triplicar essa velocidade. E se não fosse pelos “probleminhas” mencionados no parágrafo anterior, é provável que seus processadores já estivessem operando na casa das dezenas de gigahertz. No entanto, a coisa empacou em torno dos 3,5 GHz, embora testes realizados com o chip Intel Core i7-3770K, por exemplo, demonstram que ele é capaz de suportar um overclock de 100% (o que eleva sua frequência de operação a mais de 7 GHz!). E falando na Intel, parece que ela saiu vitoriosa da batalha que travou durante anos contra sua arqui-rival: hoje, a empresa encabeça a lista dos 20 maiores fabricantes de chips do mundo, enquanto a AMD aparece em 11º lugar. 

Voltando à vaca fria, diversos aprimoramentos tiveram enorme impacto no desempenho e na maneira como as CPUs passaram a decodificar e processar as instruções. Um bom exemplo é tecnologia Hiper-Threading, desenvolvida pela Intel lá pela virada do século, que leva um único processador físico a operar como dois processadores lógicos, cada qual com seu controlador de interrupção programável e conjunto de registradores, e proporciona ganhos de performance de até 30% (o XEON, voltado ao mercado de servidores, foi o primeiro modelo a se valer dessa tecnologia). Mais adiante, vieram os chips duais – como o Pentium D Core 2 Duo, por exemplo –, seguidos pelos multicoreCore 2 Quad, Core i3, i5 e i7, da Intel, e Athlon X2 e Phenon, da AMD, também por exemplo.

Observação: De certa forma, esses lançamentos acabaram complicando a vida dos usuários, que não sabiam se deviam escolher um chip de 2 núcleos rodando a 3 GHz ou um de quatro núcleos a 2,4 GHz, por exemplo. A resposta dependia principalmente das aplicações, até porque a maioria dos programas existentes à época não haviam sido desenvolvidos para rodar em PCs com chips multicore. E a despeito de os sistemas operacionais tentarem contornar essa limitação distribuindo as tarefas entre os vários núcleos, os resultados nem sempre eram satisfatórios. A título de paliativo, chips das primeiras gerações da família “Core i”, da Intel, eram capazes de manter apenas um núcleo funcionando, mas num regime de clock mais elevado, de maneira a proporcionar um desempenho superior ao executar programas que não tivessem sido escritos para processadores multicore (colocando a coisa de forma bastante elementar, para que os processadores de múltiplos núcleos utilizem todo o seu “poder de fogo”, os aplicativos devem ser projetados para executar as tarefas de forma paralela).

Hoje em dia, levando em conta somente modelos para desktops, a Intel disponibiliza CPUs com 4 e 6 núcleos, e a AMD, unidades de até 8 núcleos (a propósito, não deixe de ler esta postagem). Talvez em breve tenhamos modelos operando a 5 GHz ou 6 GHz, e se esse aumento na velocidade lhe parece de pouca monta, tenha em mente que os fabricantes continuarão investindo na quantidade de núcleos, em novas arquiteturas e numa redução ainda mais expressiva do tamanho dos componentes.

Observação: Em teoria, a adoção de materiais condutores que oferecessem resistência próxima de zero permitiria elevar a frequência dos chips a patamares inimagináveis - na casa do zetahertz, que, dando por corretos os cálculos do www.converter-unidades.info, corresponde a 1.000.000.000.000 de Gigahertz – levando a transferência de dados a uma velocidade próxima à da luz.  

Resumo da ópera: Se você pretende modernizar seu equipamento assim que os PCs com o Windows 10 chegarem ao mercado (e não tencionar economizar uns trocados optando por um chip da AMD), assegure-se de que a nova máquina traga um processador “Intel Core” (i3, i5 ou 17) de quinta geração. Ou então espere um pouco mais; com alguma sorte (e um bocado de paciência), você acabará levando para casa um computador quântico. Mas isso já é outra história e fica para outra vez.

Abraços a todos e até a próxima.

quarta-feira, 14 de outubro de 2015

SUTILEZAS DO “CÉREBRO DO PC” QUE VOCÊ TALVEZ NÃO CONHEÇA.


ÀS VEZES SÃO AS ESCOLHAS ERRADAS QUE TE BOTAM NO CAMINHO CERTO.

O processador sempre foi considerado o cérebro do computador. Nos tempos de antanho, era comum a gente se referir ao PC pelo modelo da CPU (*) que o equipava, acrescendo ou não a respectiva velocidade. Assim, fulano tinha um “386” (referência ao chip Intel 80386); sicrano, um Pentium 200” (200 MHz, no caso, que correspondem a 200 milhões de ciclos por segundo); beltrano, um K6 II (modelo da AMD que antecedeu o Athlon e concorreu diretamente com o festejado Pentium II), e por aí afora.

Note que avaliar um processador (ou um computador) levando em conta somente sua frequência de operação deixou de fazer sentido quando as arquirrivais Intel e AMD passaram aumentar o poder de processamento de seus chips mediante inovações tecnológicas como o coprocessador matemático, o cache de memória, o multiplicador de clock, etc. Até então, o poder de processamento era diretamente proporciona à frequência de operação, mas a partir daí tornou-se comum dois modelos diferentes, trabalhando à mesma frequência, apresentarem performances diversas.

Observação: Para entender isso melhor, tenha em mente que velocidade do processador corresponde à sua frequência de operação, que é medida em ciclos de clock por segundo. Em tese, quanto maior a velocidade, melhor o desempenho, mas na prática a teoria é outra: uma CPU que opera a 3 GHz, por exemplo, realiza 3 bilhões de ciclos a cada segundo, mas o que ela é capaz de fazer em cada ciclo é outra história.

Enfim, o tempo foi passando, a Intel e a AMD, crescendo e suas concorrentes, desaparecendo. Hoje, a supremacia da primeira é nítida, mas até poucos anos atrás as duas gigantes disputavam “ciclo a ciclo” a preferência dos consumidores. Entretanto, o fato de o melhor aproveitamento de cada ciclo de clock permitir aos chips da AMD fazer frente a modelos da Intel de frequências significativamente superiores confundiu os usuários que tinham na velocidade do processador a referência primária (se não a única) de desempenho do chip – quando não do próprio computador.

Observação: Embora distorcida, essa interpretação tinha lá suas razões de ser, não só pelo fato de maus hábitos e velhos vícios serem difíceis de erradicar, mas também devido à famosa Lei de Moore (Gordon Moore foi um dos fundadores da Intel), segundo a qual o poder de processamento dos computadores (entenda-se computadores como a informática geral, e não apenas os PCs) dobraria a cada 18 meses. Em face do exposto, na visão limitada dos leigos o processador mais veloz tinha que ser o melhor, e o mesmo valia para o computador que o dito-cujo equipasse. Simples assim.

No final de 2001, ao lançar o Athlon XP (codinome Palomino), a AMD precisou reverter esse quadro, ou seja, convencer os consumidores de que seus produtos rivalizavam em desempenho com os da concorrência, embora apresentassem velocidades inferiores e custassem menos. Para tanto, partindo da fórmula P = F x IPC, onde “P” é a performance; “F”, a frequência; e IPC, o número de instruções por ciclo de clock, a empresa criou o índice PR (performance relativa) e passou a catalogar seus chips usando um número seguido pelo sinal de adição. Assim, o Athlon XP 1600+ operava a apenas 1.4GHz, mas seu desempenho era compatível com o de um T-Bird a 1.6GHz. A velocidade real de um Athlon XP 1.700+ era de apenas 1,47GHz; a do modelo 1900+, de 1.6GHz, e assim por diante.
A Intel, por seu turno, levou 30 anos para quebrar a barreira psicológica do Gigahertz (1 GHz corresponde a 1.000.000.000 de ciclos por segundo), mas não precisou de mais de 30 meses para triplicar essa velocidade – o que só foi possível devido à evolução da nanoeletrônica, que permitiu reduzir cada vez mais o tamanho dos transistores e “empacotar” cada vez mais transistores numa mesma pastilha de silício. Nos jurássicos 4004, lançados no início dos anos 70, os transistores eram do tamanho de uma cabeça de alfinete, mas encolheram para apenas 3 micra nos 8088 (micra é o plural de mícron; 1μm corresponde a um milésimo de milímetro), para 1 nos 486, para 0,5μm nos Pentium, para 0.09μm nos Pentium 4 Prescott.

Observação: De uns tempos a esta parte, o nanômetro substituiu o mícron como unidade de medida dos transistores. Um nanômetro (nm) corresponde à bilionésima parte de um metro e, portanto, a um milésimo de mícron. Assim, em vez de dizer que o processador X é fabricado com a tecnologia de 0,045μm, é preferível (até por ser mais fácil) usar a forma “45 nanômetros”.

O espantoso nível de miniaturização alcançado nos últimos anos permitiu empacotar uma quantidade cada vez maior de transistores em áreas extremamente reduzidas (o tamanho do núcleo de um processador não costuma passar de 1cm2), originando chips de altíssima densidade. Os P4 Prescott, lançados há pouco mais de uma década, integravam 125 milhões de transistores (de 90nm). Se isso lhe parece muito, então saiba que o Core i5-2435M, lançado pela Intel no terceiro trimestre de 2011, já contava 624 milhões de transistores (de 32nm), e que a barreira dos 10nm – considerada até pouco tempo atrás o limite físico da microeletrônica – foi quebrada recentemente por engenheiros da IBM e da Samsung, que conseguiram fabricar chips com detalhes de apenas 7 nanômetros! Com esse grau de miniaturização, logo será possível empacotar 20 bilhões de transistores num único chip!

Observação: Os processadores de última geração têm componentes na faixa dos 14 nm, enquanto a tecnologia dos 10 nm está quase chegando à escala industrial. A expressiva redução conseguida pela IBM/Samsung Menos só foi possível com o uso de uma liga de silício e germânio, que oferece maior mobilidade dos elétrons do que o silício puro e permite aumentar ainda mais a densidade dos chips, já que os transistores são colocados a apenas 30nm de distância uns dos outros.

Mas nem tudo são flores nesse jardim, como veremos na continuação desta matéria, que eu interrompo momentaneamente para evitar que a postagem fique extensa demais. Abraços a todos e até a próxima.

(*) CPUSigla de Central Processing Unit ou unidade central de processamento, que remete ao processador principal do computador e, portanto, jamais deve ser usada como sinônimo de gabinete (aquela caixa metálica que abriga os componentes internos do PC na arquitetura desktop).