A VIDA É UMA HISTÓRIA CONTADA POR UM IDIOTA, CHEIA DE SOM E DE FÚRIA, SEM SENTIDO ALGUM.
Se “computar” é sinônimo de “calcular”, pode-se dizer que o PC é uma calculadora capaz de efetuar uma quantidade monstruosa de operações em intervalos de tempo absurdamente reduzidos.
Esse milagre é
comumente atribuído à CPU, (tida e havia como o cérebro do computador), quando se trata, na verdade, de um compromisso conjunto de diversos componentes. Um computador com processador chinfrim e fartura de memória RAM será muito
mais veloz que seria com uma CPU de ponta e pouca RAM.
CPU é a sigla de Central Processing Unit
e designa o processador principal — o nome da caixa que abriga a
placa-mãe e seus agregados é gabinete (ou case). No alvorecer da computação pessoal, era comum a gente se referir ao computador pelo modelo da CPU. Assim, fulano
tinha um tinha um “286” (numa alusão ao chip Intel 80286),
sicrano, um “Pentium 200” (referência à frequência "velocidade" do processador, que era de 200 MHz), beltrano, um K6 II (modelo da AMD que
antecedeu o Athlon e concorreu diretamente com o Intel Pentium
II), e por aí afora.
Avaliar um computador com base exclusivamente na frequência de operação da CPU deixou de fazer sentido quando as arquirrivais Intel e AMD desenvolveram soluções inovadoras (como coprocessador matemático, cache de memória, multiplicador de clock, etc.) para incrementar o desempenho de seus chips.
Observação: A velocidade do processador corresponde à sua frequência de operação, que é medida em ciclos de clock por segundo. Em tese, o desempenho é diretamente proporcional à velocidade, mas na prática a teoria é outra: uma CPU operando a 3 GHz, por exemplo, realiza 3 bilhões de ciclos a cada segundo, mas o que ela é capaz de fazer a cada ciclo é outra história.
Até então, o poder de processamento do chip dependia diretamente de seu clock (frequência de operação); a
partir de então, passou a ser comum dois processadores diferentes, operando à mesma
frequência, apresentarem performances distintas.
O melhor aproveitamento do clock permitiu à AMD desenvolver
chips com desempenho superior ao dos modelos da Intel de frequências mais
elevadas, mas o problema foi fazer os consumidores entenderem que a velocidade
real de um Athlon XP 1.700+ era de apenas 1,47GHz por
exemplo (a “mágica da performance relativa” é representada pela fórmula P
= F x IPC, onde “P” corresponde à performance; “F”, à
frequência; e “IPC”, ao número de instruções por ciclo de clock).
A Intel levou 30 anos para quebrar a
barreira psicológica do giga-hertz (1 GHz corresponde
a 1.000.000.000 de ciclos por segundo) e, a partir daí, apenas 30 meses para triplicar essa velocidade — o que só foi possível graças
à evolução da nanoeletrônica, que permitiu reduzir cada vez mais o
tamanho dos transistores e “empacotar” cada vez mais transistores numa mesma
pastilha de silício.
Os transistores, que eram do tamanho de uma cabeça de alfinete no jurássico 4004 (lançado no início dos anos 70), encolheram para apenas 3 micra nos 8088, para 1μm nos 486, para 0,5μm nos Pentium, para 0.09μm nos Pentium 4 Prescott, que integravam 125 milhões de transistores (de 90nm). O Core i5-2435M, lançado pela Intel no terceiro trimestre de 2011, contava 624 milhões de transistores (de 32nm), e a barreira dos 10nm — considerada até pouco tempo atrás o limite físico da microeletrônica — foi quebrada por engenheiros da IBM e da Samsung, que conseguiram fabricar chips com transistores de apenas 7 nanômetros!
Observação: O nanômetro substituiu
o mícron como unidade de medida dos transistores. Um
nanômetro (nm) corresponde à bilionésima parte de um metro,
o que equivale a um milésimo de mílímetro. Assim, em vez de dizer que
o processador tal é fabricado com a tecnologia de “0,045μm”, passou-se
a dizer “45 nanômetros”. A Intel já
está se preparando para lançar a 14ª geração (codinome Meteor Lake)
de seu chips, que contará com um processo de litografia de 7 nanômetros,
marcando a chegada da “gigante dos processadores” a esse nível de
miniaturização.
O espantoso nível de miniaturização alcançado nas
últimas décadas permite empacotar uma quantidade cada vez maior de
transistores em áreas extremamente reduzidas (o tamanho do núcleo de um
processador não costuma ter mais de 1cm2), originando chips
de altíssima densidade. Para entender melhor, imagine o chip como uma caixa
de 1 m3, os transístores de antigamente como bolas de basquete e os
atuais como bolinhas de gude.
O que se convencionou chamar de Lei de Moore é uma previsão feita em 1965 por Gordon Moore, um dos fundadores da Intel. Segundo ele, “ a densidade dos transístores dobraria a cada ano e meio”, o que não significa que a velocidade dos processadores cresceria na mesma proporção (como de fato não cresceu).
Interessa dizer que, quanto
menor for o tamanho dos transistores, maior será quantidade que poderá ser embarcada num microchip, permitindo aos
fabricantes de microprocessadores aumentar a capacidade de seus produtos sem
elevar (ainda mais) sua frequência de operação. Mas não há nada como o tempo
para passar.
Continua...