QUEM PROMETE À QUARTA E VEM À QUINTA NÃO FAZ FALTA QUE SE SINTA.
Prosseguindo de onde paramos no post anterior:
Depois
que indústria de chips passou a
trabalhar na escala de nanômetros (1nm corresponde a 1 milionésimo do milímetro),
ficou difícil avançar como se avançava no passado, pois ainda não se conseguiu criar transistores num átomo, e o subatômico é
uma possibilidade ainda mais distante.
Para entender o tamanho da encrenca, basta lembrar quantas vezes você trocou de celular nas últimas duas décadas, sobretudo depois que o iPhone obrigou a concorrência a se adequar à nova realidade. Desde então, os smartphones foram se tornando mais e mais poderosos, embora continuassem (e continuem) cabendo na palma da mão. Ademais, pelo preço que se pagava por aparelho em 2012, por exemplo, era possível comprar um modelo muito mais avançado em 2016. Como não há mal que sempre dure nem bem que nunca termine, limitações tecnológicas obrigaram os fabricantes de PCs, smartphones e microchips a colocar o pé no freio.
Inicialmente, aumentar o número de núcleos dos processadores foi a maneira que os fabricantes encontraram para contornar as dificuldades, mas o problema é que as baterias não acompanharam pari passu a evolução dos aparelhos. E um processador rodando todos os seus núcleos numa frequência muito alta por muito tempo aumenta o consumo de energia, reduzindo, consequentemente, o intervalo entre as recargas.
O fato de a Lei de Moore caminhar para a obsolescência não significa que os dispositivos computacionais deixarão de evoluir, mas que será preciso descobrir como produzir chips mais poderosos sem que a demanda por energia, já pantagruélica, cresça ainda mais. A boa notícia é que esse problema afeta diretamente os chips feitos à base de silício, e que substituir esse insumo pelo grafeno de carbono pode dar bons resultados.
Observação: Em teoria, a adoção de materiais condutores que oferecem resistência próxima de zero permitiria elevar a frequência dos chips a patamares inimagináveis — na casa do zetahertz, que, dando por corretos os cálculos do www.converter-unidades.info, corresponde a 1.000.000.000.000 de Gigahertz — levando a transferência de dados a uma velocidade próxima à da luz.
Voltando à disputa entre as gigantes Intel e AMD, quando do lançamento do Athlon XP (codinome Palomino), esta última precisou convencer os consumidores de que o desempenho de seus produtos ombreava com os da concorrente, ainda das frequências inferiores e do preço mais baixo.
Para tanto, partindo da fórmula P = F x IPC, onde “P” é
a performance; “F”, a frequência; e IPC, o número de instruções por ciclo
de clock, a empresa criou o índice PR (performance
relativa) e passou a catalogar seus processadores usando um número seguido do
sinal de adição. Assim, o Athlon XP
1600+ operava a apenas 1.4GHz,
mas seu desempenho era compatível com o de um T-Bird a 1.6GHz. A velocidade real de um Athlon XP 1.700+ era de apenas 1,47GHz; a do modelo 1900+,
de 1.6GHz, e assim por diante.
Tais aprimoramentos mudaram a maneira como os chips decodificavam
e processavam as instruções, o que resultou em expressivo aumento de desempenho.
Com o advento da tecnologia Hyper-threading,
por exemplo — desenvolvida pela Intel
lá pela virada do século —, um único chip podia operar como dois processadores
lógicos, cada qual com seu controlador de interrupção programável e conjunto de
registradores, propiciando ganhos de performance de até 30% (o XEON, voltado ao mercado de servidores,
foi o primeiro modelo a se valer dessa tecnologia). Mais adiante, os chips duais — como o Pentium D Core 2 Duo, por exemplo —, seguidos pelos multicore — Core 2
Quad, Core i3, i5, i7 e i9 da Intel, e Athlon X2 e Phenon,
da AMD, também por exemplo, eram,
realmente “vários chips num só”, pois o multiprocessamento não era mais lógico,
e sim físico.
Essa sopa de letra deu um nó na cabeça dos usuários,
que já não sabiam se deviam escolher um chip de 2 núcleos rodando a 3 GHz ou um de quatro núcleos a 2,4 GHz, por exemplo. A resposta
dependia principalmente das aplicações, pois a maioria dos programas de então
não foram escritos para aproveitar os benefícios do multiprocessamento. Os
sistemas operacionais tentaram contornar essa limitação distribuindo as tarefas
entre os diversos núcleos, mas os resultados nem sempre eram satisfatórios. A
título de paliativo, a Intel
capacitou os modelos da primeira gerações da família “Core ix” a manter apenas um núcleo funcionando, mas num regime de
clock mais elevado, o que garantia melhor desempenho na execução de
programas escritos para processadores de um só núcleo.
Observação: A Intel levou três décadas para romper a
barreira psicológica do Gigahertz (1 GHz corresponde a um bilhão de ciclos por segundo), mas triplicou
essa velocidade em menos de 30 meses graças à nanoeletrônica, que permitiu reduzir cada vez mais o tamanho dos
transistores e “empacotar” uma quantidade cada vez maior deles numa mesma
pastilha de silício. Nos jurássicos 4004
dos anos 70, os transistores eram do tamanho de uma cabeça de alfinete; nos 8088, encolheram para apenas 3 micra (micra é o plural de mícron;
1μm corresponde a um milésimo de milímetro); nos 486, diminuíram para 1μm; nos primeiros Pentium, para 0,5μm; e nos
P4 Prescott, para 0.09μm.
Tempos depois, o nanômetro substituiu o mícron como unidade de
medida dos transistores — um nanômetro (nm) corresponde à bilionésima parte do metro, ou um
milésimo de mícron. Assim, em vez de dizer que o processador “X” é fabricado com a tecnologia de 0,045μm, passou-se a usar (até porque era
mais fácil) a expressão “45 nanômetros”.
Mas interessa dizer que o nível de miniaturização alcançado nos últimos anos
permitiu que os fabricantes de chips empacotassem uma quantidade cada vez maior de
transistores em áreas extremamente reduzidas (o núcleo de um processador costuma
medir 1cm2 ou até menos),
originando processadores de
altíssima densidade.
Para se ter uma ideia, os P4 Prescott integravam 125 milhões de transistores (de 90nm); o Core i5-2435M, lançado pela Intel no terceiro trimestre de 2011, 624 milhões de transistores (de 32nm), e a barreira dos 10nm —
que era considerada o limite físico da microeletrônica — foi rompida pela IBM e pela Samsung, que conseguiram fabricar chips com detalhes de
apenas 7nm, tornando possível empacotar 20 bilhões de transistores em um único chip.
Continua.