É MAIS FÁCIL OBTER O QUE SE DESEJA COM UM SORRISO DO QUE À PONTA DE ESPADA.
Recapitulando o que vimos nos capítulos anteriores, a evolução tecnológica propiciou um aumento brutal no desempenho dos processadores mediante modificações na maneira como as instruções são decodificadas e processadas. Na época em que apenas servidores contavam com dois ou mais CPUs, a Intel desenvolveu a tecnologia Hiper-Threading, que “transformava” um processador físico em dois processadores lógicos, cada qual com seu controlador de interrupção programável e conjunto de registradores.
O multiprocessamento lógico não “dobrava” o desempenho do chip — e muito menos o do computador —, até porque os softwares de então não haviam sido escritos para tirar proveito dessa tecnologia. E ainda que os sistemas operacionais distribuíssem as tarefas entre os vários núcleos, os resultados nem sempre eram satisfatórios. Mais adiante, porém, o multiprocessamento deixou de ser meramente lógico e passou a ser físico.
A Intel lançou o Pentium D Core 2 Duo (com dois núcleos), e na sequência vieram os Core 2 Quad, Core i3, i5, i7 e i9, da Intel, e os Athlon X2 e Phenom, da AMD. A família Intel Core i” rodava programas escritos para processadores single-core mantendo apenas um núcleo funcionando, mas num regime de clock mais elevado.
O nível de miniaturização alcançado nos anos seguinte permitiu empacotar uma quantidade cada vez maior de transistores em áreas extremamente reduzidas (o núcleo de um processador mede 1 cm2 ou até menos), resultando em chips de altíssima densidade e produzindo os efeitos colaterais já mencionados.
Atualmente, os fabricantes de CPUs (e GPUs) disponibilizam modelos com dezenas (e milhares) de núcleos. O Intel i9-12900KS (edição especial do i9-12900K, que era até então o modelo mais potente da família Core) conta com 16 núcleos — oito voltados para performance e oito para eficiência — e 24 threads. Isso seria sopa no mel se não fosse complicado criar algoritmos que resolvam problemas em paralelo e explorem todo esse poder computacional distribuído.
Quando se dispõe de uma vasta quantidade de recursos computacionais distribuídos (uma boa GPU ou um datacenter montado pra isso), pode-se recorrer a algoritmos de aprendizado de máquina (deep learning, aprendizado por reforço, etc.) para que a solução seja encontrada automaticamente, mas sempre será preciso que alguém escreva os algoritmos, bibliotecas e frameworks de IA que serão utilizados.
A computação quântica promete aposentar as máquinas binárias, mas ainda não se sabe quando isso acontecerá. Ela já vem sendo usada pela indústria automotiva em simulações que visam encontrar a melhor composição química para maximizar o desempenho das baterias de veículos elétricos, por exemplo. Fabricantes de aeronaves, como a Airbus, também a utilizam para traçar a melhor trajetória de decolagem e pouso que proporcione maior economia de combustível. Mas nem tudo são flores.
Computadores quânticos são enormes, complexos e caríssimos. Para manter a estabilidade dos qubits (bits quânticos) é preciso manter as máquinas virtualmente congeladas — quanto mais próximas do zero absoluto, melhor —, o que torna seu uso inviável no ambiente de negócio.
A IBM oferece acesso via cloud a seus processadores quânticos desde 2016, e já anunciou uma roadmap de 1.000 qubits para 2023. A China investiu cerca de US$ 400 milhões em pesquisas quânticas, e os EUA também pretendem investir bilhões nesse segmento. A Ford vem desenvolvendo em parceria com a Microsoft um projeto-piloto de pesquisa que se vale de uma tecnologia inspirada na computação quântica para simular a movimentação de milhares de veículos e reduzir os congestionamentos.
Quando os computadores quânticos se tornarem padrão de mercado, os modelos binários virarão peças de museu. Como isso não acontecerá da noite para o dia, vale a pena detalhar a evolução do processador, que é considerado “o cérebro” do computador. Aliás, as semelhanças entre o cérebro humano e o eletrônico são impressionantes — em alguns casos, a criatura supera o criador, contrariando a velha máxima segundo a qual o computador é uma máquina burra, só que extremamente veloz.
O IBM Deep Blue — que derrotou o campeão mundial de xadrez Garry Kasparov em 1997 — alcançava prodigiosos 3 milhões de MIPS, enquanto um chip Intel Pentium 700 MHz mal passava de 4 mil MIPS. Para efeito de comparação, o poder de processamento do cérebro humano é estimado em 100 milhões de MIPS.
Continua...