terça-feira, 8 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA (CONTINUAÇÃO)

SE A EXPERIÊNCIA FUNCIONOU NA PRIMEIRA TENTATIVA, TEM ALGUMA COISA ERRADA.

Há anos que a Lei de Moore (vide postagem anterior) vem dando sinais de exaurimento. Se o avanço frenético previsto pelo cofundador da Intel não deixou de acontecer, é indiscutível que ele já não acontece como até algum tempo atrás.

O silício — que foi adotado como matéria prima para a produção dos circuitos integrados que formavam os chips nos anos 1970 — está prestes a alcançar os limites físicos inerentes à própria estrutura do material, já que a miniaturização dos elementos dentro do chip reduz sua condutividade elétrica. Assim, o avanço das CPUs, que já foi de 10 vezes a cada cinco anos e 100 vezes a cada 10 anos, caiu para pequenos porcentuais anuais. Em outras palavras, “a Lei de Moore foi ficando mais lenta conforme as coisas ficaram menores”. 

Traçando um paralelo com a evolução tecnológica dos automóveis, a substituição do platinado e do condensador por um sistema de ignição eletrônica foi um grande passo, mas a troca do sistema de alimentação carburada pela injeção eletrônica de combustível, ocorrida tempos depois, foi muito mais além.

É fato que a evolução da nanotecnologia tem propiciado uma redução expressiva no tamanho dos transistores e, consequentemente, um aumento significativo na densidade dos chips. Por outro lado, bilhões de interruptores nanoscópicos abrindo e fechando bilhões de vezes por segundo dentro de uma pastilha de silício menor do que um selo postal geram uma quantidade monstruosa de calor. Combinado outras limitações físicas cujo detalhamento foge ao escopo desta postagem, esse problema obrigou os fabricantes de microprocessadores a buscar alternativas para aumentar o poder de processamento de seus produtos sem elevar ainda mais sua frequência de operação.

Também como foi dito no capítulo anterior, a Intel levou 30 anos para quebrar a barreira do Giga-hertz e apenas 30 meses, a partir daí, para triplicar essa velocidade. Não fossem os “probleminhas” mencionados linhas acima, a frequência de operação dos microchips atuais seria de dezenas de giga-hertz. Mas a coisa empacou em torno dos 3,5 GHz, embora testes realizados com o chip Intel Core i7-3770K, por exemplo, demonstraram que ele suportava um overclock de 100% (o que elevaria sua frequência de operação a mais de 7 GHz!). Mas isso é outra conversa.

Diversos aprimoramentos permitiram aumentar consideravelmente o desempenho modificando a maneira como as CPUs passaram a decodificar e processar as instruções. Um bom exemplo é tecnologia Hiper-Threading, desenvolvida pela Intel lá pela virada do século, mediante a qual um único processador físico opera como dois ou mais processadores lógicos, cada qual com seu controlador de interrupção programável e conjunto de registradores. Por outro lado, isso dificultou a escolha do computador, já que usuários menos versados nessas tecnicidades não sabiam se seria melhor escolher um chip de 2 núcleos rodando a 3 GHz ou um de quatro núcleos a 2,4 GHz, por exemplo.

A resposta dependia principalmente das aplicações, até porque a maioria dos programas existentes à época não havia sido desenvolvida para rodar em PCs com chips multicore — a despeito de os sistemas operacionais contornarem essa limitação distribuindo as tarefas entre os vários núcleos, os resultados nem sempre eram satisfatórios. A título de paliativo, chips das primeiras gerações da família “Intel Core i” eram capazes de manter apenas um núcleo funcionando, mas num regime de clock mais elevado, de maneira a aprimorar o desempenho na execução de programas desenvolvidos para aplicativos single-core.

Continua...