SE A EXPERIÊNCIA FUNCIONOU NA PRIMEIRA TENTATIVA, TEM ALGUMA COISA ERRADA.
Há anos que a Lei de Moore (vide postagem
anterior) vem dando sinais de exaurimento. Se o avanço frenético previsto pelo
cofundador da Intel não deixou de acontecer, é indiscutível que ele já
não acontece como até algum tempo atrás.
O silício — que foi adotado como matéria prima
para a produção dos circuitos integrados que formavam os chips nos anos 1970 — está
prestes a alcançar os limites físicos inerentes à própria estrutura do material,
já que a miniaturização dos elementos dentro do chip reduz sua condutividade
elétrica. Assim, o avanço das CPUs, que já foi de 10 vezes a cada cinco anos e
100 vezes a cada 10 anos, caiu para pequenos porcentuais anuais. Em outras
palavras, “a Lei de Moore foi ficando mais lenta conforme as
coisas ficaram menores”.
Traçando um paralelo com a evolução tecnológica dos
automóveis, a substituição do platinado e do condensador por um sistema de
ignição eletrônica foi um grande passo, mas a troca do sistema de alimentação
carburada pela injeção eletrônica de combustível, ocorrida tempos depois, foi
muito mais além.
É fato que a evolução da nanotecnologia tem
propiciado uma redução expressiva no tamanho dos transistores e,
consequentemente, um aumento significativo na densidade dos
chips. Por outro lado, bilhões de interruptores nanoscópicos abrindo e fechando
bilhões de vezes por segundo dentro de uma pastilha de silício menor do
que um selo postal geram uma quantidade monstruosa de calor. Combinado outras
limitações físicas cujo detalhamento foge ao escopo desta postagem, esse
problema obrigou os fabricantes de microprocessadores a buscar alternativas
para aumentar o poder de processamento de seus produtos sem elevar ainda mais
sua frequência de operação.
Também como foi dito no capítulo anterior, a Intel levou
30 anos para quebrar a barreira do Giga-hertz e apenas 30 meses, a
partir daí, para triplicar essa velocidade. Não fossem os “probleminhas”
mencionados linhas acima, a frequência de operação dos microchips atuais seria
de dezenas de giga-hertz. Mas a coisa empacou em torno dos 3,5
GHz, embora testes realizados com o chip Intel Core i7-3770K,
por exemplo, demonstraram que ele suportava um overclock de
100% (o que elevaria sua frequência de operação a mais de 7 GHz!). Mas
isso é outra conversa.
Diversos aprimoramentos permitiram aumentar
consideravelmente o desempenho modificando a maneira como as CPUs passaram a
decodificar e processar as instruções. Um bom exemplo é tecnologia Hiper-Threading,
desenvolvida pela Intel lá pela virada do século, mediante a
qual um único processador físico opera como dois ou mais
processadores lógicos, cada qual com seu controlador de interrupção programável
e conjunto de registradores. Por outro lado, isso dificultou a escolha do computador,
já que usuários menos versados nessas tecnicidades não sabiam se seria melhor
escolher um chip de 2 núcleos rodando a 3 GHz ou um de quatro
núcleos a 2,4 GHz, por exemplo.
A resposta dependia principalmente das aplicações, até
porque a maioria dos programas existentes à época não havia sido desenvolvida
para rodar em PCs com chips multicore — a despeito de os sistemas operacionais
contornarem essa limitação distribuindo as tarefas entre os vários núcleos, os
resultados nem sempre eram satisfatórios. A título de paliativo, chips das
primeiras gerações da família “Intel Core i” eram capazes de
manter apenas um núcleo funcionando, mas num regime de clock mais
elevado, de maneira a aprimorar o desempenho na execução de programas desenvolvidos
para aplicativos single-core.
Continua...