Mostrando postagens classificadas por data para a consulta lei de moore. Ordenar por relevância Mostrar todas as postagens
Mostrando postagens classificadas por data para a consulta lei de moore. Ordenar por relevância Mostrar todas as postagens

quinta-feira, 9 de junho de 2022

DO ÁBACO AO SMARTPHONE (QUINTA PARTE)

A VIDA É UMA TRAGÉDIA QUANDO VISTA DE PERTO, MAS UMA COMEDIA QUANDO VISTA DE LONGE.

Vimos que o processador é composto por bilhões de transistores encapsulados numa pastilha de silício, e que seu desempenho depende tanto da quantidade de transístores quanto do clock (frequência de operação). Quanto mais transistores, maior a densidade do chip; quanto maior a velocidade com que eles abrem e fecham a passagem de corrente, maiores a geração de calor, o consumo de energia e o comprometimento da condutividade elétrica do silício. 

 

A produção de chips em escala nanométrica — 1 nm equivale a 1 milionésimo do milímetro  limitou os avanços previstos pela Lei de Moore — segundo a qual a densidade dos microchips dobraria a cada 18 mesesNos desktops, o aumento da temperatura e do consumo de energia é menos preocupante do que em portáteis e ultraportáteis, já que as dimensões reduzidas desses aparelhos inviabilizam a instalação coolers e ventiladores adicionais ou a adoção de refrigeração líquida. Isso sem falar que a autonomia dos notebooks, smartphones e tablets é limitada pela capacidade de armazenamento da bateria que os alimenta. 


Esses problemas não vêm de hoje, mas se agravaram com o passar do tempo. No alvorecer da computação pessoal, o PC era identificado pelo processador que o equipava. Assim, fulano tinha um tinha um “286” (numa alusão ao chip Intel 80286), sicrano, um Pentium 200” (referência à frequência "velocidade" do processador, que era de 200 MHz), beltrano, um K6 II (modelo da AMD que antecedeu o Athlon e concorreu diretamente com o Intel Pentium II), e por aí afora.


Avaliar o desempenho do pc com base frequência de operação da CPU deixou de fazer sentido quando que as arquirrivais Intel e AMD implementaram soluções inovadoras para “vitaminar” seus produtos. Para entender melhor, tenha em mente que a velocidade do processador corresponde a sua frequência de operação, que é medida em ciclos de clock por segundo, ao passo que o desempenho — tanto do chip quanto do computador  depende de outras variáveis. Uma CPU que opera a 3 GHz realiza 3 bilhões de ciclos a cada segundo, mas o que ela é capaz de fazer em cada ciclo de clock é outra história. 


Nos tempos de antanho, o poder de processamento dos chips dependia diretamente do clock. Mais adiante, coprocessador aritmético, a memória cache e o multiplicador do clock, entre outras inovações, resultaram num melhor aproveitamento do clock. Assim, chips “mais lentos” (operando em frequências inferiores, melhor dizendo) passaram a superar modelos “mais velozes” (com frequências de operação mais elevadas). Lá pela virada do século, quando lançou o Athlon XP, a AMD teve um trabalho danado para convencer seu público alvo de que o novo chip era “mais rápido” que modelos da arquirrival Intel que operavam em frequências superiores. 


Essa “mágica” é representada pela fórmula P = F x IPC, onde “P” corresponde à performance; “F”, à frequência; e “IPC”, ao número de instruções por ciclo de clock. Com base nesses parâmetros, a empresa criou o índice PR (de Performance Relativa) e passou a catalogar seus produtos utilizando um número seguido do sinal de adição (+). Assim, o Athlon XP 1.700+ operava a 1,47GHz, o modelo 1900+, a 1.6GHz, e por aí afora.


Paralelamente, os transistores, que eram do tamanho de uma cabeça de alfinete nos jurássicos 4004 dos anos 1970, encolheram para apenas 3 micra nos 8088, para 1μm nos 486, para 0,5μm nos Pentium e para 0.09μm nos Pentium 4 Prescott


ObservaçãoDepois que o nanômetro substituiu o mícron como unidade de medida dos transistores, passou-se a dizer que o processador tal é fabricado com a tecnologia de 45nm, e não de 0,045μm, como se dizia até então.


O Intel Core i5-2435M, lançado no final de 2011, era composto por 624 milhões de transistores de 32 nm. A barreira dos 10nm — considerada até então o limite da microeletrônica — foi quebrada por engenheiros da IBM e da Samsung, que conseguiram fabricar chips com transistores de apenas 7 nm, tornando possível o encapsulamento de 20 bilhões de transistores em um único chip. Para ter uma ideia melhor, imagine o chip como uma caixa de 1 m3, os transístores de antigamente como bolas de basquete, os posteriores como bolinhas de gude e os atuais como miçangas.


Continua... 

quarta-feira, 8 de junho de 2022

DO ÁBACO AO SMARTPHONE (QUARTA PARTE)

UM FAVOR PODE MATAR ALGUÉM MAIS RAPIDAMENTE QUE UMA BALA.

Há no Brasil dois celulares ativos por habitante — o que não significa que cada pessoa possua dois aparelhos —, mas o home office e o ensino remoto impostos pela pandemia contribuíram para aumentar a procura por computadores convencionais (desktops e laptops). Prova disso é que as vendas desses aparelhos aumentaram 25% no quarto trimestre de 2020 em relação ao mesmo período de 2019. Isso porque, a despeito de serem versáteis e fáceis de usar, os pequenos notáveis ficam devendo processamento e memória, dimensões de tela, teclado físico, mouse e outros requisitos que inúmeras aplicações exigem.

A nanotecnologia encolheu os transistores, permitindo o encapsulamento de bilhões deles numa pastilha de silício menor que um selo postal. Em tese, quanto mais transistores, melhor o desempenho do processador; na prática, porém, o aumento da densidade dos chips reduz a condutividade elétrica do silício, e bilhões de interruptores nanoscópicos abrindo e fechando bilhões de vezes por segundo geram muito calor. E o calor foi um dos principais fatores que levaram a frequência de operação a estacionar na casa dos 3,5 GHz — embora testes realizados com o chip Intel Core i7-3770K demonstrem que ele suporta overclock de até 100% (ou seja, sua frequência de operação pode chegar a 7 GHz!). 

Os fabricantes vêm buscando alternativas à multiplicação dos transístores/aumento da frequência de operação para incrementar o desempenho dos processadores sem brigar com os indesejáveis efeitos colaterais — até porque refrigeração líquida não combina com notebooks nem (muito menos) com smartphones. A tecnologia atual já permite a produção de transistores de 4 ou 3 nanômetros (1nm corresponde a 1 milionésimo do milímetro), lembrando que isso não se refere exatamente ao tamanho dos transistores, mas à distância entre eles, e que essa nomenclatura deixou de ser usada no ano passado, quando a Intel anunciou que suas litografias passarão a ser nomeadas por números (falaremos mais sobre isso num dos próximos capítulos).

Tecnologias que permitem a produção de transistores ainda menores estão sendo desenvolvidas, inclusive com o uso de alternativas ao silício (entre as quais o grafeno). Em teoria, a adoção de materiais condutores com resistência próxima de zero permitiria elevar a frequência dos chips à casa do Zetahertz — dando por corretos os cálculos do www.converter-unidades.info, 1 ZHz corresponde a 1.000.000.000.000 de Gigahertz — levando a transferência de dados a uma velocidade próxima à da luz, mas aí entra em cena a questão do atraso do sinal, que leva vários picossegundos para ir de uma área a outra do chip.

Em última análise, a célebre Lei de Moore fica "mais lenta" conforme as coisas ficam menores. Isso não significa que os processadores deixarão de evoluir, mas que será preciso descobrir como produzir chips mais poderosos sem que o consumo de energia e a geração de calor aumentem ainda mais. Claro que esse problema afeta diretamente os chips feitos à base de silício, e substituir esse insumo pelo grafeno de carbono pode dar bons resultados. Mas essas coisas levam tempo e exigem muito dinheiro.

Depois que indústria passou a trabalhar na escala dos nanômetros, ficou difícil avançar como se avançava no passado, e aumentar o número de núcleos dos processadores foi a maneira que os fabricantes encontraram para contornar as dificuldades. O problema, sobretudo para os portáteis e ultraportáteis, é que as baterias não acompanharam pari passu a evolução dos aparelhos, e um processador rodando todos os seus núcleos numa frequência muito alta por muito tempo consome mais energia, reduzindo, consequentemente, o intervalo entre as recargas.

Hiper-Threading — multiprocessamento lógico adotado pela Intel no final do século passado — proporcionou um aumento considerável de desempenho ao levar um único processador físico a se comportar como dois, cada qual com seu controlador de interrupção programável e conjunto de registradores. Assim, a ideia básica deixou de ser a construção de CPUs/GPUs maiores e mais rápidas e passou a ser o uso de múltiplos núcleos para resolver problemas em paralelo mediante conexões de altíssima velocidade. 

O conceito de clock único também vem sendo substituído por uma "árvore de clocks" distribuídos para diferentes áreas do chip, operando em velocidades diversas e podendo ser desligados e religados de acordo com as necessidades (clock gating / power gating). Mas há limites para computadores convencionais (falaremos dos sistemas quânticos numa próxima oportunidade), a começar pelo tamanho dos transistores, que já corresponde a uns poucos átomos (um átomo de silício mede 0,2 nanômetros). 

Continua...

sexta-feira, 11 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA (FINAL)

VOCÊ SEMPRE ACHA ALGO NO ÚLTIMO LUGAR EM QUE PROCURA.

Google anunciou recentemente que seu processador quântico Sycamore atingiu a “supremacia quântica” — ou seja, conseguiu executar em pouco mais de 3 minutos uma tarefa impossível de ser executada pelos supercomputadores clássicos mais poderosos da atualidade (ou até poderia, mas levaria 10 mil anos, de modo que ninguém viveria o bastante para conferir o resultado).

É preciso ter em mente que os computadores quânticos não são tão “supremos” como se imagina, já que o estado quântico dos qubits os torna suscetíveis a vibrações ou variações de temperatura. Nessas circunstâncias, um qubit interfere em outro, criando combinações aleatórias e dando margem a erros que não se verificam num ambiente de bits (para manter a estabilidade, as máquinas quânticas precisam ser mantidas em ambientes extremamente frios, a temperaturas abaixo de zero, o que é impraticável no ambiente de negócio). 

Mas há outros “senões” que, pelo menos por enquanto, impedem essa tecnologia de se tornar padrão de mercado. Aliás, os computadores quânticos que existem atualmente sequer se encaixam no patamar de computadores de propósito geral, como são conhecidos, por exemplo, nossos PCs. Em outras palavras, eles apenas realizam tarefas muito específicas, como a executada pelo Sycamore.

A grande preocupação em relação a esse prodígio tecnológico remete à criptografia: não existe protocolo criptográfico capaz de resistir a um computador quântico teórico operando em plena capacidade. Por outro lado, imagina-se que as máquinas quânticas poderiam ser usadas para criar novos padrões criptográficos mais robustos, que não poderiam ser quebrados nem mesmo por outros computadores quânticos.

Muito do que foi dito aqui (e mais ainda do que não foi dito) não passa de meras lucubrações teóricas. A computação quântica é uma tecnologia emergente, embora já tenha aplicação no mundo real — fabricantes de automóveis, p. ex., utilizam-na em simulações visando encontrar a melhor composição química para maximizar o desempenho das baterias de veículos elétricos, e a Airbus para traçar a melhor trajetória de decolagem e pouso que proporcione maior economia de combustível.

A exemplo do que aconteceu nos anos 1950, quando surgiram os primeiros mainframes, os computadores quânticos são máquinas grandes — alguns tem 3m de altura e ocupam 10m² de espaço —, altamente complexas e caríssimas. Daí elas serem usadas somente em algumas em universidades, grandes corporações e startups com cacife para bancá-las. Demais disso, para manter a estabilidade dos qubits é preciso manter os computadores em temperaturas baixíssimas — quanto mais próximas do zero absoluto (-273°C), melhor — o que é impraticável no ambiente de negócio.

A IBM oferece acesso (via cloud) a seus processadores quânticos desde 2016 — e já anunciou uma roadmap de 1.000 qubits para 2023. A China já investiu cerca de US$ 400 milhões em pesquisas quânticas e os EUA pretendem investir bilhões nesse segmento. Google, Intel, IBM e Microsoft também tem investido pesado nessa tendência, e a Ford está desenvolvendo um projeto-piloto de pesquisa com a Microsoft que usa tecnologia inspirada na computação quântica para simular a movimentação de milhares de veículos e reduzir os congestionamentos. 

quinta-feira, 10 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA (PARTE IV)

AS TRAGÉDIAS TERMINAM EM MORTE E AS COMÉDIAS, EM CASAMENTO.

Desde o início da história da computação que a premissa básica tem sido sempre a mesma: zero para falso, um para verdadeiro. 

Interpretada pelas máquinas, essa dualidade lógica elementar tornou-se o fundamento de tudo que é digital: textos, imagens, músicas, vídeos, enfim, tudo pode ser traduzido em zeros e uns. Em última análise, todos os algoritmos que formam os sistemas e apps que rodam em PCs e smartphones são sequências infindáveis de bits 0 e bits 1.

Os transistores dos processadores atuais podem ser entendidos como minúsculas lâmpadas que, “apagadas”, representam o zero, e "acesas", o um. Em tese, quanto mais rapidamente o processador alternar entre esses dois “estados”, melhor será o desempenho global do computador.

Observação: Em 2018, para comemorar o 40º aniversário do lançamento do iAPX 86que equipou o primeiro IBM PC e ficou conhecido como 8086 — a Intel lançou uma versão modificada do Core i7 de 8ª geração que batizou de i7-8086K Limited Edition. Com 6 núcleos, 12 threads e frequência-base de 4 GHz, esse portento chegava a alcançar 5 GHz no modo turbo. Na mesma oportunidade, a empresa apresentou um chip de 28 núcleos que rodava a 5 GHz. Ele atingiu 7.334 pontos no teste Cinebench R15 (superando os 5.010 pontos alcançados pelo recordista desse benchmark entre as CPUs de 28 núcleos, que até então era o Xeon Platinum 8180, também da Intel, que tinha clock máximo de 3,8 GHz e custava US$ 10 mil).

Para além de outros problemas que fogem ao escopo desta abordagem, uma quantidade monstruosa de minúsculos interruptores ligando e desligando bilhões de vezes por segundo gera muito calor. Sem mencionar que a miniaturização tornou a tecnologia de transistores planares inviável para a construção de microchips, levando os fabricantes a buscar alternativas ao silício — entre as quais o grafeno e a computação quântica são as mais promissoras.

O grafeno (que é abundante no Brasil) era teorizado desde 1947, mas foi somente em 2004 que experimentos realizados com o grafite resultaram na extração acidental de um fina camada desse material, comprovando sua existência autônoma — o que rendeu aos cientistas russos Kostya Novoselov e Andre Geim, em 2010, o Prêmio Nobel de Física.

Observação: O método utilizado para isolar o grafeno foi extremamente simples: Novoselov e Geim foram colando e descolando uma fita adesiva de uma lâmina de grafite (o mesmo usado em lápis) até obter uma camada única de átomos de carbono.

Mais adiante, descobriu-se que seria possível utilizar o grafeno na construção de transístores com espessura de um átomo sem comprometer suas propriedades condutivas. A despeito de ser flexível e transparente, esse material chega a ser 200 vezes mais resistente que o aço — ou 40 vezes mais duro que o diamante — e até 100 vezes condutivo que o cobre. Como os elétrons trafegam mais depressa pelo grafeno do que por qualquer outro condutor, essa tecnologia aumenta a velocidade da transferência de dados e resulta em microchips muito mais velozes.

Vale lembrar que, quando se descobriu que o silício permitiria aposentar as jurássicas válvulas, a “nova tecnologia” levou 7 anos para ser implantada. No caso do circuitos impressos, o silício só foi utilizado duas décadas depois. Mas o grafeno promete revolucionar não os microchips como também baterias, células de combustível e... discos rígidos de altíssima densidade

Observação: Embora a tendência seja substituir o HDD pelo SSD (drive de memória sólida) como memória de massa do PC, o disco rígido continua sendo largamente utilizados, já que oferece alta capacidade de armazenamento a baixo custo. Mas isso é outra conversa.

A computação quântica permite ir muito além da dualidade dos bits que as máquinas comuns utilizam para representar o “sim” e o “não”, o “verdadeiro” e o “falso”. Na computação clássica, o bit é representado por impulsos elétricos ou ópticos, ao passo que na computação quântica o qubit (ou bit quântico) é na verdade uma partícula de nível subatômico, como um elétron ou um fóton.

Uma das diferenças básicas entre o bit e o qubit advém da superposição — dito de outra maneira, não há apenas dois "estados", mas várias combinações de zeros e uns. Como uma pequena variação é suficiente para alternar entre esses "estados", a computação quântica reduz significativamente o tempo que o computador leva para concluir uma tarefa, pois permite avaliar diferentes combinações de resultados simultaneamente.

Outra característica importante da física quântica — que se traduz em um desempenho incomparável dos computadores quânticos — é o entrelaçamento. Basicamente, ele faz com que duas partículas interligadas reajam de forma similar mesmo quando separadas por longas distâncias. Os motivos que levam a esse resultado são diversos e complexos, mas o efeito é fácil de compreender: mude o estado de uma partícula e a outra também mudará, resultando numa situação exponencial de ganho de desempenho. 

Observação: Nos computadores clássicos, ao dobrar o número de bits, dobra-se a capacidade computacional; nos computadores quânticos, o aumento no número de qubits produz ganhos em escala exponencial.

Já existem máquinas quânticas de 16 qubits. Parece pouco, mas seu desempenho vai bem além do que alcançam os supercomputadores mais poderosos da atualidade.

Continua...

quarta-feira, 9 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA (PARTE III)

VIVER É A COISA MAIS RARA DO MUNDO. A MAIORIA DAS PESSOAS APENAS EXISTE.

Numa postagem que publiquei em 2014, relembrei um ensinamento que aprendi com Carlos Morimoto, fundador do site Guia do Hardware e criador da Distro Kurumin: todo computador — seja ele um PC, um Mac ou servidor de grande porte — é composto por cinco componentes básicos: CPU, memória RAM, drive de disco rígido, dispositivos de I/O e softwares. A CPU (ou processador principal, como já foi explicado) é o cérebro de um sistema computacional, mas tanto sua performance quanto o desempenho global da máquina dependem da contrapartida dos demais componentes. Para entender isso melhor, clique aqui aqui.

A arquitetura aberta foi a grande responsável pelo sucesso da plataforma PC, pois permitia (e continua a permitir) montar as máquinas a partir de componentes de diversos fabricantes. No alvorecer da computação pessoal, diversos fabricantes de processadores brigavam por um lugar ao sol, mas acabaram sendo pulverizados pelas gigantes Intel AMD. Depois de muitas idas e vindas, a Intel superou a arquirrival — que, diga-se, continua abastecendo o mercado com excelentes microchips a preços bem mais palatáveis.

Muita água rolou desde então, e discutir as variáveis que concorreram para formar o contexto atual não é o mote desta postagem. A família Intel Core, atualmente na 12ª geração, é o que existe de mais avançado em CPUs. Entretanto, conforme a aplicação, a AMD se mostra superior, e seus chips costumam custar menos que os da concorrente. 

As duas empresas passaram a investir em chipsets (conjunto de circuitos integrados que constituem o “sistema venoso” da placa-mãe), abandonado parceiros tradicionais (como NVIDIA e VIA, entre outros). Isso se explica, pelo menos em parte, pelo fato de chipsets e CPUs do mesmo fabricante trabalharem de maneira mais harmoniosa e proporcionarem desempenho superior. Mutatis mutandis, o mesmo se aplica ao subsistema de vídeo, ainda que aceleradoras gráficas offboard, com GPU e memória dedicada, costumem oferecer resultados superiores aos de sistemas onboard.

Tanto a Intel quanto a AMD oferecem processadores de excelente qualidade também para notebooks, mas a estratégia de marketing da Intel parece ser mais eficaz. Da feita que os fabricantes se curvam à imposição de seu público-alvo, o selinho “Intel Inside” tem presença garantida em nove de cada dez laptops (força de expressão; não sei exatamente qual é a proporção, mas sei que a liderança da Intel é indiscutível).

Observação: Alguns fabricantes de notebooks utilizam chips AMD, que proporcionam desempenho satisfatório a preços mais palatáveis. Quando a integração caseira ainda estava em voga, eu montei máquinas com CPUs de ambas as grifes (inclusive no tempo do multiprocessamento lógico e dos então incipientes chips dual core), bem como usei notebooks com processadores Intel e AMD, e não tive do que reclamar.

Em tese, a adoção de materiais condutores que oferecem resistência próxima de zero permite elevar a frequência dos chips a patamares inimagináveis — na casa do Zeta-Hertz (1 ZH corresponde a 1 trilhão de giga-hertz), levando a transferência de dados a velocidades próxima às da luz (que, a título de curiosidade, é de 300 mil m/s). Na prática, porém, a teoria costuma ser outra. Mas isso já é conversa para a próxima postagem.

terça-feira, 8 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA (CONTINUAÇÃO)

SE A EXPERIÊNCIA FUNCIONOU NA PRIMEIRA TENTATIVA, TEM ALGUMA COISA ERRADA.

Há anos que a Lei de Moore (vide postagem anterior) vem dando sinais de exaurimento. Se o avanço frenético previsto pelo cofundador da Intel não deixou de acontecer, é indiscutível que ele já não acontece como até algum tempo atrás.

O silício — que foi adotado como matéria prima para a produção dos circuitos integrados que formavam os chips nos anos 1970 — está prestes a alcançar os limites físicos inerentes à própria estrutura do material, já que a miniaturização dos elementos dentro do chip reduz sua condutividade elétrica. Assim, o avanço das CPUs, que já foi de 10 vezes a cada cinco anos e 100 vezes a cada 10 anos, caiu para pequenos porcentuais anuais. Em outras palavras, “a Lei de Moore foi ficando mais lenta conforme as coisas ficaram menores”. 

Traçando um paralelo com a evolução tecnológica dos automóveis, a substituição do platinado e do condensador por um sistema de ignição eletrônica foi um grande passo, mas a troca do sistema de alimentação carburada pela injeção eletrônica de combustível, ocorrida tempos depois, foi muito mais além.

É fato que a evolução da nanotecnologia tem propiciado uma redução expressiva no tamanho dos transistores e, consequentemente, um aumento significativo na densidade dos chips. Por outro lado, bilhões de interruptores nanoscópicos abrindo e fechando bilhões de vezes por segundo dentro de uma pastilha de silício menor do que um selo postal geram uma quantidade monstruosa de calor. Combinado outras limitações físicas cujo detalhamento foge ao escopo desta postagem, esse problema obrigou os fabricantes de microprocessadores a buscar alternativas para aumentar o poder de processamento de seus produtos sem elevar ainda mais sua frequência de operação.

Também como foi dito no capítulo anterior, a Intel levou 30 anos para quebrar a barreira do Giga-hertz e apenas 30 meses, a partir daí, para triplicar essa velocidade. Não fossem os “probleminhas” mencionados linhas acima, a frequência de operação dos microchips atuais seria de dezenas de giga-hertz. Mas a coisa empacou em torno dos 3,5 GHz, embora testes realizados com o chip Intel Core i7-3770K, por exemplo, demonstraram que ele suportava um overclock de 100% (o que elevaria sua frequência de operação a mais de 7 GHz!). Mas isso é outra conversa.

Diversos aprimoramentos permitiram aumentar consideravelmente o desempenho modificando a maneira como as CPUs passaram a decodificar e processar as instruções. Um bom exemplo é tecnologia Hiper-Threading, desenvolvida pela Intel lá pela virada do século, mediante a qual um único processador físico opera como dois ou mais processadores lógicos, cada qual com seu controlador de interrupção programável e conjunto de registradores. Por outro lado, isso dificultou a escolha do computador, já que usuários menos versados nessas tecnicidades não sabiam se seria melhor escolher um chip de 2 núcleos rodando a 3 GHz ou um de quatro núcleos a 2,4 GHz, por exemplo.

A resposta dependia principalmente das aplicações, até porque a maioria dos programas existentes à época não havia sido desenvolvida para rodar em PCs com chips multicore — a despeito de os sistemas operacionais contornarem essa limitação distribuindo as tarefas entre os vários núcleos, os resultados nem sempre eram satisfatórios. A título de paliativo, chips das primeiras gerações da família “Intel Core i” eram capazes de manter apenas um núcleo funcionando, mas num regime de clock mais elevado, de maneira a aprimorar o desempenho na execução de programas desenvolvidos para aplicativos single-core.

Continua...

segunda-feira, 7 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA

A VIDA É UMA HISTÓRIA CONTADA POR UM IDIOTA, CHEIA DE SOM E DE FÚRIA, SEM SENTIDO ALGUM.

Se “computar” é sinônimo de “calcular”, pode-se dizer que o PC é uma calculadora capaz de efetuar uma quantidade monstruosa de operações em intervalos de tempo absurdamente reduzidos. 

Esse milagre é comumente atribuído à CPU, (tida e havia como o cérebro do computador), quando se trata, na verdade, de um compromisso conjunto de diversos componentes. Um computador com processador chinfrim e fartura de memória RAM será muito mais veloz que seria com uma CPU de ponta e pouca RAM.  

CPU é a sigla de Central Processing Unit e designa o processador principal — o nome da caixa que abriga a placa-mãe e seus agregados é gabinete (ou case). No alvorecer da computação pessoal, era comum a gente se referir ao computador pelo modelo da CPU. Assim, fulano tinha um tinha um “286” (numa alusão ao chip Intel 80286), sicrano, um Pentium 200” (referência à frequência "velocidade" do processador, que era de 200 MHz), beltrano, um K6 II (modelo da AMD que antecedeu o Athlon e concorreu diretamente com o Intel Pentium II), e por aí afora.

Avaliar um computador com base exclusivamente na frequência de operação da CPU deixou de fazer sentido quando as arquirrivais Intel e AMD desenvolveram soluções inovadoras (como coprocessador matemático, cache de memória, multiplicador de clock, etc.) para incrementar o desempenho de seus chips. 

Observação: velocidade do processador corresponde à sua frequência de operação, que é medida em ciclos de clock por segundo. Em tese, o desempenho é diretamente proporcional à velocidade, mas na prática a teoria é outra: uma CPU operando a 3 GHz, por exemplo, realiza 3 bilhões de ciclos a cada segundo, mas o que ela é capaz de fazer a cada ciclo é outra história.

Até então, o poder de processamento do chip dependia diretamente de seu clock (frequência de operação); a partir de então, passou a ser comum dois processadores diferentes, operando à mesma frequência, apresentarem performances distintas.

O melhor aproveitamento do clock permitiu à AMD desenvolver chips com desempenho superior ao dos modelos da Intel de frequências mais elevadas, mas o problema foi fazer os consumidores entenderem que a velocidade real de um Athlon XP 1.700+ era de apenas 1,47GHz por exemplo (a “mágica da performance relativa” é representada pela fórmula P = F x IPC, onde “P” corresponde à performance; “F”, à frequência; e “IPC”, ao número de instruções por ciclo de clock).

Intel levou 30 anos para quebrar a barreira psicológica do giga-hertz (1 GHz corresponde a 1.000.000.000 de ciclos por segundo) e, a partir daí, apenas 30 meses para triplicar essa velocidade — o que só foi possível graças à evolução da nanoeletrônica, que permitiu reduzir cada vez mais o tamanho dos transistores e “empacotar” cada vez mais transistores numa mesma pastilha de silício.

Os transistores, que eram do tamanho de uma cabeça de alfinete no jurássico 4004 (lançado no início dos anos 70), encolheram para apenas micra nos 8088, para 1μm nos 486, para 0,5μm nos Pentium, para 0.09μm nos Pentium 4 Prescott, que integravam 125 milhões de transistores (de 90nm). O Core i5-2435M, lançado pela Intel no terceiro trimestre de 2011, contava 624 milhões de transistores (de 32nm), e a barreira dos 10nm — considerada até pouco tempo atrás o limite físico da microeletrônica — foi quebrada por engenheiros da IBM e da Samsung, que conseguiram fabricar chips com transistores de apenas 7 nanômetros! 

Observação: nanômetro substituiu o mícron como unidade de medida dos transistores. Um nanômetro (nm) corresponde à bilionésima parte de um metro, o que equivale a um milésimo de mílímetro. Assim, em vez de dizer que o processador tal é fabricado com a tecnologia de “0,045μm”, passou-se a dizer “45 nanômetros”. Intel já está se preparando para lançar a 14ª geração (codinome Meteor Lake) de seu chips, que contará com um processo de litografia de 7 nanômetros, marcando a chegada da “gigante dos processadores” a esse nível de miniaturização.

O espantoso nível de miniaturização alcançado nas últimas décadas permite empacotar uma quantidade cada vez maior de transistores em áreas extremamente reduzidas (o tamanho do núcleo de um processador não costuma ter mais de 1cm2), originando chips de altíssima densidade. Para entender melhor, imagine o chip como uma caixa de 1 m3, os transístores de antigamente como bolas de basquete e os atuais como bolinhas de gude.

O que se convencionou chamar de Lei de Moore é uma previsão feita em 1965 por Gordon Moore, um dos fundadores da Intel. Segundo ele, “ a densidade dos transístores dobraria a cada ano e meio”, o que não significa que a velocidade dos processadores cresceria na mesma proporção (como de fato não cresceu). 

Interessa dizer que, quanto menor for o tamanho dos transistores, maior será quantidade que poderá ser embarcada num microchip, permitindo aos fabricantes de microprocessadores aumentar a capacidade de seus produtos sem elevar (ainda mais) sua frequência de operação. Mas não há nada como o tempo para passar.

Continua...

quarta-feira, 9 de dezembro de 2020

SOLUÇÃO DE PROBLEMAS — PARTE VII

QUEM PROMETE À QUARTA E VEM À QUINTA NÃO FAZ FALTA QUE SE SINTA.

Prosseguindo de onde paramos no post anterior:

Depois que indústria de chips passou a trabalhar na escala de nanômetros (1nm corresponde a 1 milionésimo do milímetro), ficou difícil avançar como se avançava no passado, pois ainda não se conseguiu criar transistores num átomo, e o subatômico é uma possibilidade ainda mais distante.

Para entender o tamanho da encrenca, basta lembrar quantas vezes você trocou de celular nas últimas duas décadas, sobretudo depois que o iPhone obrigou a concorrência a se adequar à nova realidade. Desde então, os smartphones foram se tornando mais e mais poderosos, embora continuassem (e continuem) cabendo na palma da mão. Ademais, pelo preço que se pagava por aparelho em 2012, por exemplo, era possível comprar um modelo muito mais avançado em 2016. Como não há mal que sempre dure nem bem que nunca termine, limitações tecnológicas obrigaram os fabricantes de PCs, smartphones e microchips a colocar o pé no freio. 

Inicialmente, aumentar o número de núcleos dos processadores foi a maneira que os fabricantes encontraram para contornar as dificuldades, mas o problema é que as baterias não acompanharam pari passu a evolução dos aparelhos. E um processador rodando todos os seus núcleos numa frequência muito alta por muito tempo aumenta o consumo de energia, reduzindo, consequentemente, o intervalo entre as recargas.

O fato de a Lei de Moore caminhar para a obsolescência não significa que os dispositivos computacionais deixarão de evoluir, mas que será preciso descobrir como produzir chips mais poderosos sem que a demanda por energia, já pantagruélica, cresça ainda mais. A boa notícia é que esse problema afeta diretamente os chips feitos à base de silício, e que substituir esse insumo pelo grafeno de carbono pode dar bons resultados. 

Observação: Em teoria, a adoção de materiais condutores que oferecem resistência próxima de zero permitiria elevar a frequência dos chips a patamares inimagináveis — na casa do zetahertz, que, dando por corretos os cálculos do www.converter-unidades.info, corresponde a 1.000.000.000.000 de Gigahertz — levando a transferência de dados a uma velocidade próxima à da luz. 

Voltando à disputa entre as gigantes Intel e AMD, quando do lançamento do Athlon XP (codinome Palomino), esta última precisou convencer os consumidores de que o desempenho de seus produtos ombreava com os da concorrente, ainda das frequências inferiores e do preço mais baixo. 

Para tanto, partindo da fórmula P = F x IPC, onde “P” é a performance; “F”, a frequência; e IPC, o número de instruções por ciclo de clock, a empresa criou o índice PR (performance relativa) e passou a catalogar seus processadores usando um número seguido do sinal de adição. Assim, o Athlon XP 1600+ operava a apenas 1.4GHz, mas seu desempenho era compatível com o de um T-Bird a 1.6GHz. A velocidade real de um Athlon XP 1.700+ era de apenas 1,47GHz; a do modelo 1900+, de 1.6GHz, e assim por diante.

Tais aprimoramentos mudaram a maneira como os chips decodificavam e processavam as instruções, o que resultou em expressivo aumento de desempenho. Com o advento da tecnologia Hyper-threading, por exemplo — desenvolvida pela Intel lá pela virada do século —, um único chip podia operar como dois processadores lógicos, cada qual com seu controlador de interrupção programável e conjunto de registradores, propiciando ganhos de performance de até 30% (o XEON, voltado ao mercado de servidores, foi o primeiro modelo a se valer dessa tecnologia). Mais adiante, os chips duais — como o Pentium D Core 2 Duo, por exemplo —, seguidos pelos multicore — Core 2 QuadCore i3, i5, i7 e i9 da Intel, e Athlon X2 e Phenon, da AMD, também por exemplo, eram, realmente “vários chips num só”, pois o multiprocessamento não era mais lógico, e sim físico.

Essa sopa de letra deu um nó na cabeça dos usuários, que já não sabiam se deviam escolher um chip de 2 núcleos rodando a 3 GHz ou um de quatro núcleos a 2,4 GHz, por exemplo. A resposta dependia principalmente das aplicações, pois a maioria dos programas de então não foram escritos para aproveitar os benefícios do multiprocessamento. Os sistemas operacionais tentaram contornar essa limitação distribuindo as tarefas entre os diversos núcleos, mas os resultados nem sempre eram satisfatórios. A título de paliativo, a Intel capacitou os modelos da primeira gerações da família “Core ix” a manter apenas um núcleo funcionando, mas num regime de clock mais elevado, o que garantia melhor desempenho na execução de programas escritos para processadores de um só núcleo.

Observação: Intel levou três décadas para romper a barreira psicológica do Gigahertz (1 GHz corresponde a um bilhão de ciclos por segundo), mas triplicou essa velocidade em menos de 30 meses graças à nanoeletrônica, que permitiu reduzir cada vez mais o tamanho dos transistores e “empacotar” uma quantidade cada vez maior deles numa mesma pastilha de silício. Nos jurássicos 4004 dos anos 70, os transistores eram do tamanho de uma cabeça de alfinete; nos 8088, encolheram para apenas 3 micra (micra é o plural de mícron; 1μm corresponde a um milésimo de milímetro); nos 486, diminuíram para 1μm; nos primeiros Pentium, para 0,5μm; e nos P4 Prescott, para 0.09μm.

Tempos depois, o nanômetro substituiu o mícron como unidade de medida dos transistores — um nanômetro (nm) corresponde à bilionésima parte do metro, ou um milésimo de mícron. Assim, em vez de dizer que o processador “X” é fabricado com a tecnologia de 0,045μm, passou-se a usar (até porque era mais fácil) a expressão “45 nanômetros”. Mas interessa dizer que o nível de miniaturização alcançado nos últimos anos permitiu que os fabricantes de chips empacotassem uma quantidade cada vez maior de transistores em áreas extremamente reduzidas (o núcleo de um processador costuma medir 1cm2 ou até menos), originando processadores de altíssima densidade.

Para se ter uma ideia, os P4 Prescott integravam 125 milhões de transistores (de 90nm); o Core i5-2435M, lançado pela Intel no terceiro trimestre de 2011, 624 milhões de transistores (de 32nm), e a barreira dos 10nm — que era considerada o limite físico da microeletrônica — foi rompida pela IBM e pela Samsung, que conseguiram fabricar chips com detalhes de apenas 7nm, tornando possível empacotar 20 bilhões de transistores em um único chip.

Continua.

terça-feira, 8 de dezembro de 2020

SOLUÇÃO DE PROBLEMAS... — PARTE VI

SE VOCÊ QUER OS ACERTOS, ESTEJA PREPARADO PARA OS ERROS.

Vimos que o ábaco é considerado o antepassado mais remoto do computador, embora seja mais apropriado associá-lo à máquina de calcular

Por outro lado, se “computar” é sinônimo de "calcular", o computador é, basicamente, uma calculadora capaz de efetuar um número astronômico de cálculos numa velocidade absurda. 

Isso se deve em grande medida à CPU, que sempre foi vista (e não sem razão) como o cérebro do PC. Tanto que, até recentemente, referíamo-nos ao aparelho pelo modelo/velocidade do seu processador. Assim, fulano tinha um “386” (referência ao chip Intel 80386); sicrano, um Pentium 200” (200 MHz, no caso, que correspondem a 200 milhões de ciclos por segundo); beltrano, um K6 II (modelo da AMD que antecedeu ao Athlon e concorreu diretamente com o festejado Pentium II) e por aí afora.

Aqui cabe abrir um parêntese para esclarecer que CPU — sigla de Central Processing Unit — designa o processador principal do computador, e não a caixa que abriga a placa-mãe e seus agregados (à qual se convencionou chamar de gabinete, case ou torre). E que chamamos de “velocidadeda CPU é, na verdade, a frequência de operação do chip — grandeza expressa em Hertz e seus múltiplos (nos modelos atuais, utiliza-se o GHz)

Muitos usuários — hoje menos que antigamente, é verdade — costumam avaliar a performance do PC pela frequência de operação da CPU que o integra, sem levar em conta que essa grandeza, tomada isoladamente, não reflete o “poder de fogo” do processador nem (muito menos) o do computador como um todo.

A associação direta deixou de fazer sentido quando as arquirrivais Intel e AMD desenvolveram tecnologias inovadoras para aumentar o poder de processamento de seus chips, tais como o coprocessador matemático, o cache de memória, o multiplicador de clock etc. Assim, dois processadores de marcas e/ou modelos distintos, mesmo operando à mesma frequência, podiam (e continuam podendo) ter desempenhos diferentes. 

Para entender isso melhor, tenha em mente que a velocidade do processador corresponde à sua frequência de operação, que é medida em ciclos de clock por segundo e expressa em múltiplos do Hertz. Em tese, quanto maior a velocidade, tanto melhor o desempenho. Na prática, porém, um chip operando a 3 GHz, por exemplo, realiza 3 bilhões de ciclos por segundo, mas o que ele consegue fazer a cada ciclo é outra conversa. 

O melhor aproveitamento do clock permitiu aos processadores da AMD superar o desempenho de modelos da Intel, que operavam a frequências mais elevadas. O difícil foi convencer os consumidores, até porque a famosa Lei de Moore (Gordon Moore foi um dos fundadores da Intel) estabeleceu que o poder de processamento dos computadores dobra a cada 18 meses (*). Assim, aos olhos dos menos iniciados, a CPU mais “veloz” era necessariamente a melhor, e o mesmo raciocínio se estendia ao computador.

(*) A rigor, o que Gordon Moore (co-fundador da Intel) previu em 1965 foi que a densidade de transistores nos chips usados por computadores (e hoje smartphones) dobraria a cada 18 meses (ou 1,5 ano). Isso significa que os transistores (minúsculos interruptores) diminuiriam de tamanho e duplicariam em quantidade nos chips, aumentando sua capacidade de processamento e promovendo o avanço de sistemas tecnológicos. A projeção se mostrou real e padronizou os avanços exponenciais das tecnologias de computação, mas esse avanço frenético deixou de acontecer, pelo menos como acontecia até algum tempo atrás. Desde os anos 1970 que o silício foi adotado como matéria-prima para a produção dos circuitos integrados que formam os chips, e o avanço dos processadores, que já foi de 10 vezes a cada cinco anos e 100 vezes a cada 10 anos, caiu para pequenos porcentuais anuais. Em última análise, a Lei de Moore foi "ficando mais lenta" conforme as coisas ficaram menores. 

Observação: Como aprendi com o mestre Carlos Morimoto, “todo computador é tão rápido quanto o dispositivo mais lento que ele integra.” Isso significa que um 386, abastecido com uma quantidade suficiente de memória RAM e tendo espaço suficiente no HD, poderia rodar o Windows 95 e a maioria dos programas daquela época, até mesmo jogos, só que muuuuuuuuuito devagar.

Continua...

quarta-feira, 14 de outubro de 2015

SUTILEZAS DO “CÉREBRO DO PC” QUE VOCÊ TALVEZ NÃO CONHEÇA.


ÀS VEZES SÃO AS ESCOLHAS ERRADAS QUE TE BOTAM NO CAMINHO CERTO.

O processador sempre foi considerado o cérebro do computador. Nos tempos de antanho, era comum a gente se referir ao PC pelo modelo da CPU (*) que o equipava, acrescendo ou não a respectiva velocidade. Assim, fulano tinha um “386” (referência ao chip Intel 80386); sicrano, um Pentium 200” (200 MHz, no caso, que correspondem a 200 milhões de ciclos por segundo); beltrano, um K6 II (modelo da AMD que antecedeu o Athlon e concorreu diretamente com o festejado Pentium II), e por aí afora.

Note que avaliar um processador (ou um computador) levando em conta somente sua frequência de operação deixou de fazer sentido quando as arquirrivais Intel e AMD passaram aumentar o poder de processamento de seus chips mediante inovações tecnológicas como o coprocessador matemático, o cache de memória, o multiplicador de clock, etc. Até então, o poder de processamento era diretamente proporciona à frequência de operação, mas a partir daí tornou-se comum dois modelos diferentes, trabalhando à mesma frequência, apresentarem performances diversas.

Observação: Para entender isso melhor, tenha em mente que velocidade do processador corresponde à sua frequência de operação, que é medida em ciclos de clock por segundo. Em tese, quanto maior a velocidade, melhor o desempenho, mas na prática a teoria é outra: uma CPU que opera a 3 GHz, por exemplo, realiza 3 bilhões de ciclos a cada segundo, mas o que ela é capaz de fazer em cada ciclo é outra história.

Enfim, o tempo foi passando, a Intel e a AMD, crescendo e suas concorrentes, desaparecendo. Hoje, a supremacia da primeira é nítida, mas até poucos anos atrás as duas gigantes disputavam “ciclo a ciclo” a preferência dos consumidores. Entretanto, o fato de o melhor aproveitamento de cada ciclo de clock permitir aos chips da AMD fazer frente a modelos da Intel de frequências significativamente superiores confundiu os usuários que tinham na velocidade do processador a referência primária (se não a única) de desempenho do chip – quando não do próprio computador.

Observação: Embora distorcida, essa interpretação tinha lá suas razões de ser, não só pelo fato de maus hábitos e velhos vícios serem difíceis de erradicar, mas também devido à famosa Lei de Moore (Gordon Moore foi um dos fundadores da Intel), segundo a qual o poder de processamento dos computadores (entenda-se computadores como a informática geral, e não apenas os PCs) dobraria a cada 18 meses. Em face do exposto, na visão limitada dos leigos o processador mais veloz tinha que ser o melhor, e o mesmo valia para o computador que o dito-cujo equipasse. Simples assim.

No final de 2001, ao lançar o Athlon XP (codinome Palomino), a AMD precisou reverter esse quadro, ou seja, convencer os consumidores de que seus produtos rivalizavam em desempenho com os da concorrência, embora apresentassem velocidades inferiores e custassem menos. Para tanto, partindo da fórmula P = F x IPC, onde “P” é a performance; “F”, a frequência; e IPC, o número de instruções por ciclo de clock, a empresa criou o índice PR (performance relativa) e passou a catalogar seus chips usando um número seguido pelo sinal de adição. Assim, o Athlon XP 1600+ operava a apenas 1.4GHz, mas seu desempenho era compatível com o de um T-Bird a 1.6GHz. A velocidade real de um Athlon XP 1.700+ era de apenas 1,47GHz; a do modelo 1900+, de 1.6GHz, e assim por diante.
A Intel, por seu turno, levou 30 anos para quebrar a barreira psicológica do Gigahertz (1 GHz corresponde a 1.000.000.000 de ciclos por segundo), mas não precisou de mais de 30 meses para triplicar essa velocidade – o que só foi possível devido à evolução da nanoeletrônica, que permitiu reduzir cada vez mais o tamanho dos transistores e “empacotar” cada vez mais transistores numa mesma pastilha de silício. Nos jurássicos 4004, lançados no início dos anos 70, os transistores eram do tamanho de uma cabeça de alfinete, mas encolheram para apenas 3 micra nos 8088 (micra é o plural de mícron; 1μm corresponde a um milésimo de milímetro), para 1 nos 486, para 0,5μm nos Pentium, para 0.09μm nos Pentium 4 Prescott.

Observação: De uns tempos a esta parte, o nanômetro substituiu o mícron como unidade de medida dos transistores. Um nanômetro (nm) corresponde à bilionésima parte de um metro e, portanto, a um milésimo de mícron. Assim, em vez de dizer que o processador X é fabricado com a tecnologia de 0,045μm, é preferível (até por ser mais fácil) usar a forma “45 nanômetros”.

O espantoso nível de miniaturização alcançado nos últimos anos permitiu empacotar uma quantidade cada vez maior de transistores em áreas extremamente reduzidas (o tamanho do núcleo de um processador não costuma passar de 1cm2), originando chips de altíssima densidade. Os P4 Prescott, lançados há pouco mais de uma década, integravam 125 milhões de transistores (de 90nm). Se isso lhe parece muito, então saiba que o Core i5-2435M, lançado pela Intel no terceiro trimestre de 2011, já contava 624 milhões de transistores (de 32nm), e que a barreira dos 10nm – considerada até pouco tempo atrás o limite físico da microeletrônica – foi quebrada recentemente por engenheiros da IBM e da Samsung, que conseguiram fabricar chips com detalhes de apenas 7 nanômetros! Com esse grau de miniaturização, logo será possível empacotar 20 bilhões de transistores num único chip!

Observação: Os processadores de última geração têm componentes na faixa dos 14 nm, enquanto a tecnologia dos 10 nm está quase chegando à escala industrial. A expressiva redução conseguida pela IBM/Samsung Menos só foi possível com o uso de uma liga de silício e germânio, que oferece maior mobilidade dos elétrons do que o silício puro e permite aumentar ainda mais a densidade dos chips, já que os transistores são colocados a apenas 30nm de distância uns dos outros.

Mas nem tudo são flores nesse jardim, como veremos na continuação desta matéria, que eu interrompo momentaneamente para evitar que a postagem fique extensa demais. Abraços a todos e até a próxima.

(*) CPUSigla de Central Processing Unit ou unidade central de processamento, que remete ao processador principal do computador e, portanto, jamais deve ser usada como sinônimo de gabinete (aquela caixa metálica que abriga os componentes internos do PC na arquitetura desktop).

sexta-feira, 23 de dezembro de 2011

Feliz Natal a todos!

A proximidade do final do ano traz o tradicional renovar-se de esperanças e expectativas por dias melhores - que Deus ouça e os Anjos digam amém a estas palavras - mesmo quando muitos apregoam o fim do mundo (ou do mundo como nós o conhecemos, dependendo da interpretação; saiba mais em http://porque2012.com/porque2012.html).


Observação: Vale relembrar as palavras de Epicuro (filósofo grego que viveu 300 anos antes do início da Era Cristã):
"A MORTE NÃO É NADA PARA NÓS. QUANDO EXISTIMOS, ELA AINDA NÃO ESTÁ PRESENTE; QUANDO ELA ESTIVER PRESENTE, ENTÃO JÁ NÃO MAIS EXISTIREMOS".


Outros, porém, fazem previsões mais otimistas e interessantes. É o caso de Manoel Lemos - engenheiro da computação e diretor-geral digital da Abril Mídia -, que se baseia na Lei de Moore (“profecia” de Gordon Earl Moore, co-fundador da Intel, segundo a qual o poder de processamento dos computadores dobraria a cada vinte e quatro meses) para prever que, no Natal de 2026, teremos microcomputadores mil vezes mais poderosos do que os atuais.
Se observarmos a evolução havida nas últimas décadas, notaremos que o avanço tecnológico é cada vez mais rápido. Para se ter uma idéia, a maior velocidade de conexão (discada) com a Internet, em 1996, era de 56 Kbps, e o disco rígido de maior capacidade mal alcançava 1,5 GB (e custava os olhos da cara). Hoje, alguns provedores já oferecem planos de até 100 Mbps, e é possível encontrar HDs de 2 TB por preços relativamente acessíveis. Presumindo que esse crescimento se mantenha pelas próximas décadas, em 15 anos teremos um aumento de capacidade de 1.024 vezes, e 1.000.000 de vezes nos 18 anos seguintes.

Feliz Natal a todos, um ótimo final de semana e até segunda, se Deus quiser.

segunda-feira, 20 de junho de 2011

Vaticínios, Cloud Comupting e outros que tais...

Fazer previsões acuradas é arriscado, especialmente no campo da evolução tecnológica.
Quando a Apollo 11 chegou à Lua, dizia-se que dali a poucos anos as viagens interplanetárias seriam corriqueiras. Na Terra, navios e trens alcançariam velocidades estonteantes, enquanto monotrilhos elevados a 30 metros do solo resolveriam o problema do transporte. As grandes metrópoles seriam parecidas com o que se via então no desenho animado “Os Jetsons”, com edificações futuristas, esteiras rolantes, automóveis voadores e pessoas usando “cinturões foguetes” (veja mais em (a propósito, vale rever a postagem de  27 de agosto de 2008).
Mesmo assim, só conseguimos (até agora) colocar robôs em Marte, voar de avião (e com dificuldades, haja vista a superlotação dos aeroportos), sem mencionar que continuamos enfrentando quilômetros de congestionamento todos os dias, mesmo que haja carros capazes de estacionar sozinhos e de interagir com o motorista para prevenir potenciais acidentes (como o novo Mercedes Benz CL, por exemplo, que será objeto de uma postagem posterior.
No campo da computação pessoal, mesmo próceres do quilate de Thomas J. Watson e Bill Gates deram suas “escorregadelas”. O presidente da IBM teria profetizado, ainda na década de 40, que um dia haveria mercado para talvez cinco computadores (quatro décadas mais tarde, sua empresa lançaria o Personal Computer e daria o primeiro passo para transformar a computação pessoal num produto de consumo de massa). Já ao fundador da Microsoft atribui-se a infeliz previsão de que 640 k seria mais memória do que qualquer um viria a precisar em um computador (claro que ele nega ter dito esse absurdo, até porque os PC modernos integram entre 2 e 4 GB de RAM).

Observação: “Tio Bill” é citado como protagonista de diversas situações curiosas, como aquela em que teria simplesmente continuado a caminhar após deixar cair no chão uma nota de US$ 1.000, indiferente à perda do que, diante de sua fortuna, seria “dinheiro de pinga”. No entanto, isso não passa de uma lenda urbana, até porque o Tesouro americano tirou essas notas de circulação em 1969, quando Gates tinha apenas 14 anos de idade.

Em contrapartida, a Lei de Moore – profecia de Gordon Earl Moore, co-fundador da Intel, segundo a qual o poder de processamento dos computadores dobraria a cada vinte e quatro meses  –  foi bem mais acurada, embora talvez não sobreviva por muito tempo mais, já que a “Cloud Computing” vem sendo vista como o futuro da computação. Seja como for, é quase impossível encontrar alguém plenamente satisfeito com os recursos de seu computador. Devido a agigantamento dos sistemas e programas, mesmo máquinas de topo de linha se tornam ultrapassadas em poucos anos, e a despeito de dispositivos de hardware mais avançados serem lançados em intervalos cada vez mais curtos, são poucos os usuários que têm condições financeiras para acompanhar essa vertiginosa evolução.
Quem acompanhou o alvorecer da computação pessoal deve estar lembrado dos PCs que integravam dois ou mais Floppy Drives – como eles não dispunham de discos rígidos, tanto o sistema quanto os programas eram executados a partir de prosaicos disquetes. Quando os HDs começaram a se tornar populares, 10 MB de espaço custavam 2.000 dólares, mas a evolução tecnológica cumpriu bem o seu papel: embora os fabricantes tenham levado décadas para romper a “Barreira do Gigabyte”, bastaram poucos anos, a partir de então, para que produzissem drives gigantescos – de 500 GB a 1 TB – a preços bem mais acessíveis.
Para ter uma noção melhor desse espaço, considere que uma música em MP3 de 3 minutos ocupa cerca de 3 MB – ou três milhões de bytes – e que 1 Terabyte corresponde a um trilhão de bytes (faça as contas). Pelo andar da carruagem, é possível que logo alcancemos a casa dos Petabytes, dos Exabytes, ou mesmo dos Zettabytes (grandezas que correspondem, respectivamente, a um quatrilhão, um quintilhão e um sextilhão de bytes).

Observação: Segundo alguns especialistas, 1 TB equivale à capacidade da memória humana, enquanto que 1 ZB é espaço suficiente para armazenar toda a informação digitalizada no mundo (se cada byte fosse um grão de arroz, isso corresponderia a 20 quatrilhões de quilos – arroz suficiente para alimentar a humanidade por 30 mil anos!

Para concluir, considerando que a informática tende a evoluir de maneira “circular”, talvez devêssemos reavaliar o vaticínio de Mr. Watson. De uns tempos a esta parte, a venda de computadores (desktops e notebooks) vem caindo sistematicamente, enquanto dispositivos móveis (tablets e smartphones) se multiplicam como coelhos. Demais disso, se a computação em nuvem realmente prosperar, importante mesmo será garantir um plano de banda larga decente, de preferência com boas taxas de upload, pois o armazenamento dos arquivos em servidores remotos e a execução dos aplicativos via navegador propiciarão uma experiência mais rica e interativa sem exigir máquinas cada vez mais poderosas e quantidades ainda maiores de memória e espaço em disco. 
Amanhã a gente vê isso melhor; abraços e até lá.