Mostrando postagens classificadas por relevância para a consulta computação quântica. Ordenar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta computação quântica. Ordenar por data Mostrar todas as postagens

segunda-feira, 6 de fevereiro de 2023

A COMPUTAÇÃO QUÂNTICA E O GATO DE SCHRÖDINGER

O QUE HOJE NOS PARECE UM PARADOXO, AMANHÁ PODERÁ SER UMA VERDADE DEMONSTRADA.

 

Interpretada pelos computadores, a dualidade lógica tornou-se o fundamento de tudo que é digital. Assim, textos, imagens, músicas, vídeos, enfim, tudo pode ser traduzido em zeros e uns — zero para falso, um para verdadeiro —, donde todos os algoritmos que formam os sistemas e programas que rodam em PCs, smartphones e demais dispositivos computacionais são na verdade longas sequências de bits 0 e bits 1. 

Observação: base binária utilizada pelos computadores convencionais nos causa estranheza porque estamos habituados com a base decimal, mas a conversão é simples: considerando que cada 0 e cada 1 representam o número 2 elevado à potência “x” — o primeiro, 20; o segundo, 21, e assim por diante —, a sequência 10, por exemplo, tem dois bits e equivale a 0x20 + 1x21; a sequência 111 tem três bits e equivale a 1x20 + 1x21 + 1x22; a sequência 1001 tem quatro bits e equivale ao número (1x20 + 0x21 + 0x22 + 1x23), e por aí afora.

Entre as diversas tecnologias computacionais que surgiram ao longo das últimas décadas, a computação quântica se destaca por ter exigido a maior mudança de paradigma por parte dos desenvolvedores. A mecânica quântica foi desenvolvida entre 1900 e 1925, e continua sendo a base na qual a química, a física de matéria condensada e as tecnologias que vão de chips de computador à iluminação LED se apoiam. No nível quântico, a matéria pode assumir, a um só tempo, diversas configurações possíveis (conhecidas como estados). Os computadores quânticos foram propostos na década de 1980 por Richard Feynman e Yuri Manin, visando superar uma das maiores limitações física. 

Na computação clássica, os bits são representados por impulsos elétricos ou ópticos. Na computação quântica, os qubits (ou bits quânticos) são partículas de nível subatômico, como os elétrons ou os fótons. Portanto, a computação quântica permite ir muito além da dualidade dos bits que os computadores convencionais utilizam para representar o “sim” e o “não”, o “verdadeiro” e o “falso”. 

Observação: Uma das principais diferenças entre os bits e os qubits advém da superposição. Na computação quântica não há apenas dois "estados", mas "várias combinações de zeros e uns". Da feita que uma pequena variação é suficiente para alternar entre esses "estados", o computador quântico consegue avaliar diferentes combinações de resultados simultaneamente, o que reduz consideravelmente o tempo necessário para executar uma tarefa.
 
Outra característica responsável pelo desempenho incomparável dos computadores quânticos é o entrelaçamento. Na física quântica, duas partículas interligadas reagem de forma similar, mesmo quando separadas por longas distâncias. Nos computadores clássicos, dobrar o número de bits resulta no dobro da capacidade computacional, mas nas máquinas quânticas o aumento no número de qubits produz ganhos em escala exponencial.
 
Já a ideia de que a matéria pode assumir dois ou mais estados simultaneamente é bem mais "bizarra", mas fica mais fica mais fácil de assimilar esse pressuposto à luz da hipótese formulada pelo físico austríaco Erwin Schrödinger, que ficou conhecida como "Gato de Schrödinger. 
 
Continua...

quinta-feira, 10 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA (PARTE IV)

AS TRAGÉDIAS TERMINAM EM MORTE E AS COMÉDIAS, EM CASAMENTO.

Desde o início da história da computação que a premissa básica tem sido sempre a mesma: zero para falso, um para verdadeiro. 

Interpretada pelas máquinas, essa dualidade lógica elementar tornou-se o fundamento de tudo que é digital: textos, imagens, músicas, vídeos, enfim, tudo pode ser traduzido em zeros e uns. Em última análise, todos os algoritmos que formam os sistemas e apps que rodam em PCs e smartphones são sequências infindáveis de bits 0 e bits 1.

Os transistores dos processadores atuais podem ser entendidos como minúsculas lâmpadas que, “apagadas”, representam o zero, e "acesas", o um. Em tese, quanto mais rapidamente o processador alternar entre esses dois “estados”, melhor será o desempenho global do computador.

Observação: Em 2018, para comemorar o 40º aniversário do lançamento do iAPX 86que equipou o primeiro IBM PC e ficou conhecido como 8086 — a Intel lançou uma versão modificada do Core i7 de 8ª geração que batizou de i7-8086K Limited Edition. Com 6 núcleos, 12 threads e frequência-base de 4 GHz, esse portento chegava a alcançar 5 GHz no modo turbo. Na mesma oportunidade, a empresa apresentou um chip de 28 núcleos que rodava a 5 GHz. Ele atingiu 7.334 pontos no teste Cinebench R15 (superando os 5.010 pontos alcançados pelo recordista desse benchmark entre as CPUs de 28 núcleos, que até então era o Xeon Platinum 8180, também da Intel, que tinha clock máximo de 3,8 GHz e custava US$ 10 mil).

Para além de outros problemas que fogem ao escopo desta abordagem, uma quantidade monstruosa de minúsculos interruptores ligando e desligando bilhões de vezes por segundo gera muito calor. Sem mencionar que a miniaturização tornou a tecnologia de transistores planares inviável para a construção de microchips, levando os fabricantes a buscar alternativas ao silício — entre as quais o grafeno e a computação quântica são as mais promissoras.

O grafeno (que é abundante no Brasil) era teorizado desde 1947, mas foi somente em 2004 que experimentos realizados com o grafite resultaram na extração acidental de um fina camada desse material, comprovando sua existência autônoma — o que rendeu aos cientistas russos Kostya Novoselov e Andre Geim, em 2010, o Prêmio Nobel de Física.

Observação: O método utilizado para isolar o grafeno foi extremamente simples: Novoselov e Geim foram colando e descolando uma fita adesiva de uma lâmina de grafite (o mesmo usado em lápis) até obter uma camada única de átomos de carbono.

Mais adiante, descobriu-se que seria possível utilizar o grafeno na construção de transístores com espessura de um átomo sem comprometer suas propriedades condutivas. A despeito de ser flexível e transparente, esse material chega a ser 200 vezes mais resistente que o aço — ou 40 vezes mais duro que o diamante — e até 100 vezes condutivo que o cobre. Como os elétrons trafegam mais depressa pelo grafeno do que por qualquer outro condutor, essa tecnologia aumenta a velocidade da transferência de dados e resulta em microchips muito mais velozes.

Vale lembrar que, quando se descobriu que o silício permitiria aposentar as jurássicas válvulas, a “nova tecnologia” levou 7 anos para ser implantada. No caso do circuitos impressos, o silício só foi utilizado duas décadas depois. Mas o grafeno promete revolucionar não os microchips como também baterias, células de combustível e... discos rígidos de altíssima densidade

Observação: Embora a tendência seja substituir o HDD pelo SSD (drive de memória sólida) como memória de massa do PC, o disco rígido continua sendo largamente utilizados, já que oferece alta capacidade de armazenamento a baixo custo. Mas isso é outra conversa.

A computação quântica permite ir muito além da dualidade dos bits que as máquinas comuns utilizam para representar o “sim” e o “não”, o “verdadeiro” e o “falso”. Na computação clássica, o bit é representado por impulsos elétricos ou ópticos, ao passo que na computação quântica o qubit (ou bit quântico) é na verdade uma partícula de nível subatômico, como um elétron ou um fóton.

Uma das diferenças básicas entre o bit e o qubit advém da superposição — dito de outra maneira, não há apenas dois "estados", mas várias combinações de zeros e uns. Como uma pequena variação é suficiente para alternar entre esses "estados", a computação quântica reduz significativamente o tempo que o computador leva para concluir uma tarefa, pois permite avaliar diferentes combinações de resultados simultaneamente.

Outra característica importante da física quântica — que se traduz em um desempenho incomparável dos computadores quânticos — é o entrelaçamento. Basicamente, ele faz com que duas partículas interligadas reajam de forma similar mesmo quando separadas por longas distâncias. Os motivos que levam a esse resultado são diversos e complexos, mas o efeito é fácil de compreender: mude o estado de uma partícula e a outra também mudará, resultando numa situação exponencial de ganho de desempenho. 

Observação: Nos computadores clássicos, ao dobrar o número de bits, dobra-se a capacidade computacional; nos computadores quânticos, o aumento no número de qubits produz ganhos em escala exponencial.

Já existem máquinas quânticas de 16 qubits. Parece pouco, mas seu desempenho vai bem além do que alcançam os supercomputadores mais poderosos da atualidade.

Continua...

sexta-feira, 11 de fevereiro de 2022

A LEI DE MOORE E A COMPUTAÇÃO QUÂNTICA (FINAL)

VOCÊ SEMPRE ACHA ALGO NO ÚLTIMO LUGAR EM QUE PROCURA.

Google anunciou recentemente que seu processador quântico Sycamore atingiu a “supremacia quântica” — ou seja, conseguiu executar em pouco mais de 3 minutos uma tarefa impossível de ser executada pelos supercomputadores clássicos mais poderosos da atualidade (ou até poderia, mas levaria 10 mil anos, de modo que ninguém viveria o bastante para conferir o resultado).

É preciso ter em mente que os computadores quânticos não são tão “supremos” como se imagina, já que o estado quântico dos qubits os torna suscetíveis a vibrações ou variações de temperatura. Nessas circunstâncias, um qubit interfere em outro, criando combinações aleatórias e dando margem a erros que não se verificam num ambiente de bits (para manter a estabilidade, as máquinas quânticas precisam ser mantidas em ambientes extremamente frios, a temperaturas abaixo de zero, o que é impraticável no ambiente de negócio). 

Mas há outros “senões” que, pelo menos por enquanto, impedem essa tecnologia de se tornar padrão de mercado. Aliás, os computadores quânticos que existem atualmente sequer se encaixam no patamar de computadores de propósito geral, como são conhecidos, por exemplo, nossos PCs. Em outras palavras, eles apenas realizam tarefas muito específicas, como a executada pelo Sycamore.

A grande preocupação em relação a esse prodígio tecnológico remete à criptografia: não existe protocolo criptográfico capaz de resistir a um computador quântico teórico operando em plena capacidade. Por outro lado, imagina-se que as máquinas quânticas poderiam ser usadas para criar novos padrões criptográficos mais robustos, que não poderiam ser quebrados nem mesmo por outros computadores quânticos.

Muito do que foi dito aqui (e mais ainda do que não foi dito) não passa de meras lucubrações teóricas. A computação quântica é uma tecnologia emergente, embora já tenha aplicação no mundo real — fabricantes de automóveis, p. ex., utilizam-na em simulações visando encontrar a melhor composição química para maximizar o desempenho das baterias de veículos elétricos, e a Airbus para traçar a melhor trajetória de decolagem e pouso que proporcione maior economia de combustível.

A exemplo do que aconteceu nos anos 1950, quando surgiram os primeiros mainframes, os computadores quânticos são máquinas grandes — alguns tem 3m de altura e ocupam 10m² de espaço —, altamente complexas e caríssimas. Daí elas serem usadas somente em algumas em universidades, grandes corporações e startups com cacife para bancá-las. Demais disso, para manter a estabilidade dos qubits é preciso manter os computadores em temperaturas baixíssimas — quanto mais próximas do zero absoluto (-273°C), melhor — o que é impraticável no ambiente de negócio.

A IBM oferece acesso (via cloud) a seus processadores quânticos desde 2016 — e já anunciou uma roadmap de 1.000 qubits para 2023. A China já investiu cerca de US$ 400 milhões em pesquisas quânticas e os EUA pretendem investir bilhões nesse segmento. Google, Intel, IBM e Microsoft também tem investido pesado nessa tendência, e a Ford está desenvolvendo um projeto-piloto de pesquisa com a Microsoft que usa tecnologia inspirada na computação quântica para simular a movimentação de milhares de veículos e reduzir os congestionamentos. 

quarta-feira, 20 de julho de 2022

A COMPUTAÇÃO QUÂNTICA E A VIAGEM NO TEMPO

MESMO QUE (OU TALVEZ PORQUE) A REALIDADE SEJA UM PESADELO, NÃO SE PODE DEIXAR DE SONHAR.

HDD (sigla de Hard Disk Drive) é atualmente o maior “gargalo” de desempenho dos PCs. Se você acha que estou exagerando, experimente usar uma máquina equipada com SSD e depois me conte.

Os drives de memória sólida são muito mais rápidos que os discos rígidos convencionais, ainda que não tão rápidos quanto os modelos NVMe (sigla de Non-Volatile Memory Express). Mas isso é conversa para uma outra vez.

Drives baseados em memória flash já custam bem menos que custavam quando os primeiros modelos foram lançados, e devem aposentar em breve os jurássicos discos magnéticos, inclusive em máquinas de entrada de linha. Mas quem promete revolucionar mesmo a informática é a computação quântica (detalhes nesta postagem e nos quatro capítulos subsequentes).

Nos computadores convencionais, baseados no código binário (clique aqui para mais detalhes), os bits podem assumir apenas um de dois valores (0 e 1).

Observação: Apesar de estarmos habituados com a base decimal, podemos escrever qualquer número inteiro usando a base binária. O computador "vê" uma sequência de dígitos, multiplica cada potência de 2 (da esquerda para direita) por 0 ou 1 e chega ao resultado — a sequência “10”, por exemplo, tem dois bits e equivale a 0x20 + 1x21. A sequência 111 tem três bits e equivale a 1x20 + 1x21 + 1x22. A sequência 1001 tem quatro bits e equivale ao número (1x20 + 0x21 + 0x22 + 1x23). E por aí vai.

Já os qubits (bits quânticos) podem assumir os valores 0, 1 ou 0 e 1 ao mesmo tempo, o que aumenta vertiginosamente a velocidade de processamento dos computadores quânticos. Graças aos princípios fundamentais da física quântica — como a superposição de estados quânticos, o entrelaçamento e o tunelamento, entre outros —, essas executam em minutos tarefas que os supercomputadores atuais mais poderosos levariam milhões ou bilhões de anos para concluir.

Em outubro do ano passado, um computador quântico desenvolvido na China (tido como o mais rápido do mundo) calculou em um milissegundo uma operação que um computador comum levaria 30 trilhões de anos para executar (os resultados foram publicados na Physical Review Letters). Um mês depois, a IBM anunciou a fabricação do Eagle, de 127 qubits, cuja capacidade de processamento torna impossível simular em máquinas comuns os programas criados para ele.

Mas o que isso tem a ver com a viagem no Tempo? Nada. Ou muita coisa, conforme veremos nas próximas postagens. Basicamente, tudo depende do referencial, inclusive a passagem do Tempo. Ou pelo menos é o que afirma Albert Einstein em sua mais célebre teoria.  

Conta-se que um leigo pediu a Einstein que trocasse em miúdos a Teoria da Relatividade e ouviu dele a seguinte explicação: “Se você colocar a mão na chama de um fogão e tirá-la após um minuto, terá a impressão de que se passou uma hora, mas se você se sentar junto daquela pessoa especial por uma hora, terá a impressão de só se passou um minuto.”

De acordo com o físico alemão, o Tempo é uma grandeza relativa, um caminho que se pode percorrer mais depressa ou mais devagar. E ele passa mais devagar para quem se move do que para quem está parado. A variação é imperceptível em nosso dia a dia, pois as velocidades que vivenciamos são ínfimas. 

Os relógios dos satélites (que orbitam a Terra a cerca de 14 mil quilômetros por hora) atrasam 7 milionésimos de segundo por dia. Não fosse a teoria de Einstein, as devidas compensações não seriam feitas e a precisão dos sistemas GPS ficaria comprometida à razão de 10 km/dia. Já um astronauta que passasse um ano viajando pelo espaço numa velocidade próxima à da luz que é de 299.792.458 m/s ou 1.079.252.848,8 km/h envelheceria dez vezes menos do que as pessoas que ficaram na Terra.

Continua...

quarta-feira, 8 de fevereiro de 2023

A COMPUTAÇÃO QUÂNTICA E O GATO DE SCHRÖDINGER (CONCLUSÃO)

AINDA QUE A ROSA TIVESSE OUTRO NOME, SEU PERFUME SERIA O MESMO.

Lá pelo final de 1925, o físico austríaco Erwin Schrödinger formulou uma teoria que ficaria conhecida como "Gato de Schrödinger" — ou "Paradoxo de Schrödinger". Trata-se, em resumo, de um experimento imaginário proposto para demonstrar como o Princípio da Incerteza vigora no mundo quântico, e consiste basicamente em trancar um gato dentro de uma caixa onde há um frasco contendo um gás venenoso, um elemento radioativo emissor de partículas alfa e um dispositivo composto de um martelo e um detector de radiação. 

Caso o detector registre a presença de pelo menos uma partícula alfa, o martelo quebra o frasco, o gás venenoso é liberado e o gato morre. No entanto, como há 50% de chances de a partícula não ser liberada, o gato pode não morrer. 

Pelo formalismo quântico, a matéria tem natureza ondulatória. O gato morto é representado por uma função de onda, e o gato vivo, por outra função de onda. O fato de o gato estar vivo e morto indica que houve superposição dessas duas funções de onda (ou seja, o gato assumiu dois estados possíveis). Para ter certeza do resultado, seria preciso abrir a caixa, mas o detalhe é que, à luz da mecânica quântica, o gato pode estar vivo e morto ao mesmo tempo. 

Segundo o Principio da Incerteza, não é possível fazer uma medida sem interferir nos resultados dessa própria medida. Então, abrir a caixa interfere no sistema e altera os resultados — essa é uma diferença fundamental entre as mecânicas quântica e clássica; na clássica, poder-se simplesmente abrir a caixa e conferir o que aconteceu com o bichano, ao passo que na quântica isso não é possível.
 
A intenção de Schrödinger era demonstrar como o comportamento das partículas subatômicas parece ilógico se aplicado numa situação fácil de ser visualizada, como a de um gato preso numa caixa fechada, cuja vida dependeria do comportamento das partículas radioativas — se elas circulassem pela caixa, o animal morreria, caso contrário, ele permaneceria vivo. 
 
O cenário fica ainda mais surreal quando analisado com base nas leis do mundo subatômico, segundo as quais ambas as possibilidades podem acontecer ao mesmo tempo — deixando o gato simultaneamente vivo e morto. A questão é que quem abrisse a caixa veria apenas um gato — vivo ou morto —, porque, de acordo com os princípios da física quântica, qualquer interferência (como uma fonte de luz utilizada para observar o fenômeno) levaria as realidades paralelas do mundo subatômico a entrar em colapso, e apenas uma delas poderia ser observada.

Para entender melhor:

quarta-feira, 3 de agosto de 2022

A COMPUTAÇÃO QUÂNTICA E A VIAGEM NO TEMPO (PARTE XI)

O VENENO MAIS LETAL É O SENTIMENTO DE REALIZAÇÃO, E O MELHOR ANTÍDOTO É PENSAR, TODOS OS DIAS, EM COMO APRIMORAR O QUE JÁ FOI FEITO.

 

Einstein teorizou tanto os buracos negros — que já foram inclusive fotografados — quanto os buracos de minhoca — cuja existência ainda não foi comprovada através de observações astronômicas. Mais adiante, a Teoria Quântica de Campos demonstrou que flutuações do vácuo quântico podem gerar “túneis” que interligam dois pontos nas dobras do espaço-tempo (do mesmo universo ou de universos diferentes), mas essas passagens seriam tão minúsculas, instáveis e efêmeras que nem uma partícula microscópica de matéria as conseguiria atravessar. 

 

Experimentos combinando elementos da relatividade geral, teoria quântica e eletrodinâmica clássica comprovaram que elétrons e ondas eletromagnéticas conseguem atravessar um buraco de minhoca, mas uma espaçonave tripulada só poderia fazê-lo se esse “atalho” fosse suficientemente grande e permanecesse aberto por mais que alguns milésimos de segundo. É aí que entra o modelo Randall–Sundrum, também conhecido como “geometria deformada em cinco dimensões”, segundo o qual a massa negativa — um tipo de matéria exótica que tem propriedades igualmente exóticas — pode manter os buracos de minhoca abertos e estáveis. 


Observação: Elétrons em movimento colidem com núcleos e outros elétrons, o que resulta em desaceleração. Mas um elétron com massa negativa acelera quando perde energia — para entender melhor, uma hipotética bola de massa negativa chutada para longe se aproximaria de quem a chutou; jogada na água, ao invés de desacelerar (por conta do atrito), ela afundaria cada vez mais depressa. 

 

À luz da física quântica (aquela que “só quem não entende acha que entende), o princípio da incerteza permite que o vácuo do espaço seja preenchido por pares de partículas e antipartículas virtuais. Elas surgem espontaneamente e desaparecem logo em seguida, mas aquelas que têm energia negativa podem viajar pelo espaço entrando por um lugar e emergindo em outro, e a energia gerada por elas é capaz de manter um buraco de minhoca estável.

 

Buracos de minhoca atravessáveis podem existir como resultado da “interação sutil entre a relatividade geral e a física quântica”, mas não necessariamente como uma forma prática de viajar pelo espaço — pelo menos, não da forma como imaginamos. Até porque um hipotético astronauta que atravessasse esse “túnel” no espaço-tempo levaria um segundo para percorrer milhares de anos-luz, mas produziria uma dilatação do tempo — ou seja, uma defasagem na medida de um intervalo de tempo entre dois referenciais cujos relógios foram previamente sincronizados.

 

A dilatação no tempo prevista e explicada por Einstein em suas teorias resulta da alta velocidade e é recíproca para os dois referenciais — quando um olha para o outro, ambos percebem uma passagem mais lenta do tempo. Mas o mesmo não acontece quando essa dilatação é ocasionada pela diferença de campo gravitacional; nesse caso, somente o corpo submetido a um campo gravitacional diferente fica sujeito à dilatação do tempo. 

 

O fenômeno em questão já foi observado na prática em aceleradores de partículas, relógios atômicos, satélites e raios cósmicos. Num desses experimentos, dois relógios atômicos que foram sincronizados e colocados em alturas diferentes (33 cm) mediram intervalos de tempo ligeiramente diferentes (defasagem foi de 90 bilionésimos de segundo em 80 anos de medição).

 

Desde 1895, quando o escritor britânico H. G. Wells lançou o clássico A Máquina do Tempo, é consenso entre os cientistas que a viagem no tempo requer um dispositivo capaz não só de criar uma curva fechada do tipo tempo, mas também de não causar danos a seus ocupantes. Em 1984, o físico Miguel Alcubierre teorizou a possibilidade de contrair o espaço-tempo à frente de uma nave e fazê-lo se expandir atrás dela  nesse caso, a nave ficaria instalada numa bolha e “escorregaria” pelo tecido do Universo. O detalhe (e o diabo mora nos detalhes) é que o propulsor dessa hipotética astronave precisaria gerar energia negativa suficiente para alcançar velocidades próximas à da luz. 


Isso sem mencionar a questão dos “paradoxos”. No célebre Paradoxo do Avô, por exemplo, alguém viaja ao passado e mata o próprio avô, inviabilizando o nascimento de um de seus pais, o próprio nascimento e, consequentemente, o futuro assassinato de seu ancestral). Alguns físicos argumentam que o “viajante“ nasceria em um universo paralelo — haveria um para cada decisão tomada (como virar à esquerda ou à direita, esperar o próximo ônibus em vez de se espremer no que já está lotado, e por aí afora) — e outros, que a viagem ao passado é factível, mas pode resultar no efeito borboleta, que levaria os eventos a se ajustarem para evitar os paradoxos temporais e, consequentemente, promoveria mudanças drásticas no curso da história. 


Continua... 

sexta-feira, 3 de maio de 2024

QUEM VIVER VERÁ

A ÚNICA MANEIRA DE SEGUIR EM FRENTE É SEGUINDO EM FRENTE.

A conversa entre "dois seres humanos" que Lula manteve com Arthur Lira foi insuficiente para normalizar as relações do Planalto com o Congresso. Para piorar, nem bem desobstruiu sua relações com o imperador da Câmara, o petista foi intimado pelas circunstâncias a se reunir com o presidente no Senado. 

Em agosto de 2011, ignorando a máxima segundo a qual nada é mais permanente do que um programa temporário do Estado, Dilma concedeu um alívio tributário a empresas em troca da promessa de manutenção de empregos, que duraria até dezembro de 2012, mas ganhou a perenidade de um fantasma e continua favorecendo empresas de 17 setores da economia. 

Na semana passada, Pacheco insinuou que o governo deveria reduzir gastos em vez de recorrer ao STF contra o benefício tributário que o Congresso renovou até 2027. Haddad cobrou responsabilidade fiscal do Legislativo. Pacheco disse que o ministro foi "injusto", e  que o zelo com as contas nacionais não inclui uma adesão à agenda do Poder Executivo. 

Dilma reconheceu que a desoneração tributária foi um erro. Ironicamente, o mesmo Congresso que a defenestrou sob a alegação de que praticara ciclismo fiscal pega em lanças por uma assombração tributária que sobreviveu ao impeachment e a todos os governos que vieram depois dele.


O termo Q-Day remete ao dia em que um computador quântico se tornará capaz de quebrar as chaves criptográficas que governos e empresas vêm utilizando há décadas para proteger informações sensíveis. Quando (e se) isso acontecer, a segurança dos sistemas financeiro, de tráfego aéreo, usinas nucleares e rede elétrica, entre outros, poderá ser quebrada em poucos minutos. 

A ameaça não se limita apenas a futuras violações. Dados criptografados coletados agora e nos próximos anos poderão ser desbloqueados após o Q-Day, e autoridades de inteligência dos EUA afirmam que a China e a Rússia vêm armazenando esses dados na esperança de decodificá-los no futuro. Joe Biden sancionou a Lei de Preparação para a Segurança Cibernética da Computação Quântica, mas os novos protocolos de criptografia levarão mais de uma década para substituir os atuais, e isso pode ser tempo demais para evitar uma catástrofe.

Os computadores convencionais mais poderosos, capazes de fazer 1 trilhão de tentativas por segundo, levariam trilhões de anos para quebrar chaves de 256 bits — daí esse protocolo ser considerado seguro e ser largamente utilizado em sistemas criptográficos modernos, como o AES. Mas o detalhe (e o diabo mora nos detalhes) é que a segurança da criptografia não se baseia somente na quantidade de bits da chave, mas também no algoritmo utilizado.
 
Apesar de estarmos habituados com a base decimal, podemos escrever qualquer número inteiro usando a base binária, na qual o computador "enxerga" uma sequência de dígitos e multiplica cada potência de 2 (da esquerda para direita) por 0 ou 1 para chegar ao resultado. A sequência "10", por exemplo, tem dois bits e equivale a 0x20 + 1x21; a sequência "111" tem três bits e equivale a 1x20 + 1x21 + 1x22, e assim por diante. Já os qubits (bits quânticos) podem assumir os valores 0, 1 ou 0 e 1 ao mesmo tempo, o que aumenta astronomicamente a velocidade de processamento dos computadores quânticos, que executam em poucos minutos tarefas que os supercomputadores atuais levariam milhares de anos para concluir.

A Atom Computing criou o primeiro computador quântico capaz de alcançar a marca dos 1180 qubits, deixando no chinelo os 433 qubits do Osprey, da IBM. Mas s IBM e o Google vêm criando modelos cada vez mais poderosos, e tudo indica que um avanço significativo poderá ser alcançado ainda nesta década. Todavia, mesmo que o avanço seja notável, o novo recordista ainda não é capaz de executar operações usando todos os qubits ao mesmo tempo.
 
Na década passada, anteviram-se a possibilidade de um salto substancial na computação quântica e os riscos que isso representa para a segurança, que, até então, vinham sendo solenemente ignorados. O senso de urgência foi intensificado pela consciência de quão difícil e demorada seria a implementação de novos padrões. A julgar por migrações passadas, estima-se que, mesmo depois de se estabelecer uma nova geração de algoritmos, a implementação pode levar mais 10 ou 15 anos. 
De acordo com NIST, o governo americano estabeleceu uma meta geral de migrar o máximo possível para algoritmos resistentes ao quantum até 2035 — projeto que muitos pesquisadores reconhecem ser ambicioso.
 
Apesar dos sérios desafios da transição para esses novos algoritmos, os EUA se beneficiaram da experiência de migrações anteriores, como a que foi feita para solucionar o chamado bug do milênio e as mudanças anteriores para novos padrões de criptografia. O tamanho alcançado por gigantes como Amazon, Apple, Google e Microsoft, que controlam grandes faixas de tráfego da internet, sugere que alguns poucos participantes poderiam realizar grande parte da transição com relativa agilidade, mas os estrategistas alertam que a maneira como um adversário pode se comportar depois de obter um grande avanço torna a ameaça diferente de qualquer outra que a comunidade de defesa já enfrentou. 

Quem viver verá.

sexta-feira, 10 de junho de 2022

DO ÁBACO AO SMARTPHONE (SEXTA PARTE)

É MAIS FÁCIL OBTER O QUE SE DESEJA COM UM SORRISO DO QUE À PONTA DE ESPADA.

Recapitulando o que vimos nos capítulos anteriores, a evolução tecnológica propiciou um aumento brutal no desempenho dos processadores mediante modificações na maneira como as instruções são decodificadas e processadas. Na época em que apenas servidores contavam com dois ou mais CPUs, a Intel desenvolveu a tecnologia Hiper-Threading, que “transformava” um processador físico em dois processadores lógicos, cada qual com seu controlador de interrupção programável e conjunto de registradores. 

 

O multiprocessamento lógico não “dobrava” o desempenho do chip — e muito menos o do computador —, até porque os softwares de então não haviam sido escritos para tirar proveito dessa tecnologia. E ainda que os sistemas operacionais distribuíssem as tarefas entre os vários núcleos, os resultados nem sempre eram satisfatórios. Mais adiante, porém, o multiprocessamento deixou de ser meramente lógico e passou a ser físico.

 

A Intel lançou o Pentium D Core 2 Duo (com dois núcleos), e na sequência vieram os Core 2 QuadCore i3, i5, i7 e i9, da Intel, e os Athlon X2 e Phenom, da AMD. A família Intel Core i” rodava programas escritos para processadores single-core mantendo apenas um núcleo funcionando, mas num regime de clock mais elevado. 

 

O nível de miniaturização alcançado nos anos seguinte permitiu empacotar uma quantidade cada vez maior de transistores em áreas extremamente reduzidas (o núcleo de um processador mede 1 cmou até menos), resultando em chips de altíssima densidade e produzindo os efeitos colaterais já mencionados. 

 

Atualmente, os fabricantes de CPUs (e GPUs) disponibilizam modelos com dezenas (e milhares) de núcleos. O Intel i9-12900KS (edição especial do i9-12900K, que era até então o modelo mais potente da família Core) conta com 16 núcleos — oito voltados para performance e oito para eficiência — e 24 threads. Isso seria sopa no mel se não fosse complicado criar algoritmos que resolvam problemas em paralelo e explorem todo esse poder computacional distribuído. 

 

Quando se dispõe de uma vasta quantidade de recursos computacionais distribuídos (uma boa GPU ou um datacenter montado pra isso), pode-se recorrer a algoritmos de aprendizado de máquina (deep learning, aprendizado por reforço, etc.) para que a solução seja encontrada automaticamente, mas sempre será preciso que alguém escreva os algoritmos, bibliotecas e frameworks de IA que serão utilizados.

 

A computação quântica promete aposentar as máquinas binárias, mas ainda não se sabe quando isso acontecerá. Ela já vem sendo usada pela indústria automotiva em simulações que visam encontrar a melhor composição química para maximizar o desempenho das baterias de veículos elétricos, por exemplo. Fabricantes de aeronaves, como a Airbus, também a utilizam para traçar a melhor trajetória de decolagem e pouso que proporcione maior economia de combustível. Mas nem tudo são flores. 

 

Computadores quânticos são enormes, complexos e caríssimos. Para manter a estabilidade dos qubits (bits quânticos) é preciso manter as máquinas virtualmente congeladas — quanto mais próximas do zero absoluto, melhor —, o que torna seu uso inviável no ambiente de negócio. 

 

IBM oferece acesso via cloud a seus processadores quânticos desde 2016, e já anunciou uma roadmap de 1.000 qubits para 2023. A China investiu cerca de US$ 400 milhões em pesquisas quânticas, e os EUA também pretendem investir bilhões nesse segmento. A Ford vem desenvolvendo em parceria com a Microsoft um projeto-piloto de pesquisa que se vale de uma tecnologia inspirada na computação quântica para simular a movimentação de milhares de veículos e reduzir os congestionamentos.

 

Quando os computadores quânticos se tornarem padrão de mercado, os modelos binários virarão peças de museu. Como isso não acontecerá da noite para o dia, vale a pena detalhar a evolução do processador, que é considerado “o cérebro” do computador. Aliás, as semelhanças entre o cérebro humano e o eletrônico são impressionantes — em alguns casos, a criatura supera o criador, contrariando a velha máxima segundo a qual o computador é uma máquina burra, só que extremamente veloz

 

IBM Deep Blue — que derrotou o campeão mundial de xadrez Garry Kasparov em 1997 — alcançava prodigiosos 3 milhões de MIPS, enquanto um chip Intel Pentium 700 MHz mal passava de 4 mil MIPS. Para efeito de comparação, o poder de processamento do cérebro humano é estimado em 100 milhões de MIPS.

 

Continua...

quinta-feira, 24 de novembro de 2022

A VERDADE ESTÁ LÁ FORA (VIGÉSIMA TERCEIRA PARTE)

TODO SER HUMANO TEM UM POUCO DO UNIVERSO DENTRO DE SI.

O criacionismo atribui o "gênesis" a um ser superior, mas a Ciência afirma que o Universo surgiu a partir do Big Bang e continua se expandindo desde então. 


Não se sabe quanto tempo a inflação levou para desaguar no Big Bang, mas sua natureza quântica sugere que a expansão do Cosmos terminou em algumas regiões e continua acontecendo em outras, dando azo à teoria do multiverso.

 

Se o Universo fosse finito e esférico, uma espaçonave que viajasse em linha reta por tempo suficiente voltaria ao ponto de partida. Mas acredita-se que ele seja muito maior que sua porção observável — talvez infinitamente maior. Quanto mais longe os telescópios alcançam, mais "enxergamos" o passado, e menos evoluído o Universo se nos apresenta.

 

Observação: É possível que existam múltiplos universos semelhantes ao nosso, mas com diferenças fundamentais. Mas isso pressupõe a existência um universo real, que abrigue todos os universos paralelos possíveis — que tendem ao infinito em progressão exponencial. 

 

Não se sabe se a inflação que resultou no Big Bang durou uma fração de segundo ou um período infinito de tempo, mas há um teorema segundo o qual os espaços inflacionários não têm começo e são chamados de passado-temporal-incompleto. 


Ainda que a inflação tenha gerado inúmeros universos dentro de um multiverso, a quantidade de realidades possíveis não são teorias em si, mas previsões de certas teorias que sugerem a existência de fenômenos impossíveis de ser observados. 

 

Observação: A relatividade geral prevê o interior de buracos negros — lugares que nunca poderemos acessar, mas que, apesar de não poderem ser estudados diretamente, fazem parte do pacote. E o mesmo se aplica aos universos paralelos em teorias como a da inflação infinita ou a da mecânica quântica.

 

Talvez existam inúmeras versões de cada um de nós vivendo em universos semelhantes ou completamente diferentes, e, a cada decisão que tomamos, cada uma delas pode fazer escolhas diferentes e estar por aí, em algum universo paralelo (a soma dos universos paralelos quânticos é chamada de Espaço Hilbert, ou Multiverso de Nível 3).

 

No famoso experimento do gato de Schröedinger, um gato é trancado numa caixa e um único átomo decide se ele vai morrer ou sobreviver. Segundo a interpretação de Copenhague, o bichano está em um estado de sobreposição quântica — vivo e morto ao mesmo tempo —, e seu futuro será decidido no momento em que a caixa for aberta, mas na interpretação de Everett o universo se separa em dois; num deles, o gato está vivo, no outro, ele está morto.

 

Observação: Em outras palavras, cada uma das múltiplas realidades fica permanentemente conectada aos estados do átomo e só participa de um dos universos paralelos — uma vez separados, esses universos continuam cada qual seu próprio caminho e nunca mais interagem com os demais.

 

A existência dos universos paralelos parece menos absurda se levarmos em conta que, diferentemente dos bits da computação tradicional, que assumem apenas um valor por vez (0 ou 1), os qubits quânticos podem assumir os valores 0, 1 ou 0 e 1 ao mesmo tempo. 


No Multiverso de Nível 3, tudo que pode acontecer de fato acontece. A partícula quântica nunca entra em colapso; em vez disso, ela ocupa todos os lugares, dando origem a múltiplas realidades diferentes, a cada segundo, no Espaço HilbertEm última análise, tudo o que observamos é esquisito e confuso — mas Richard Feynman não disse que ninguém realmente compreende a mecânica quântica?

 

Continua...

terça-feira, 2 de agosto de 2022

A COMPUTAÇÃO QUÂNTICA E A VIAGEM NO TEMPO (PARTE X)

NÃO HÁ NADA COMO O TEMPO PARA PASSAR.


De acordo com a Teoria da Relatividade, o espaço é composto por três dimensões — comprimento, largura e profundidade — e o tempo não é uma constante, mas sim uma “quarta dimensão”. À luz dessa premissa, vivemos constantemente entre o presente e o passado. 

 

Alguém que vai de casa à padaria da esquina ou à galáxia mais próxima tem quatro coordenadas para se guiar, sendo três do espaço e uma do tempo. Quanto mais rapidamente esse alguém avança nas três dimensões do espaço, menos progride na quarta (o tempo). Em outras palavras, quanto mais rapidamente nos deslocamos pelo espaço, mas devagar o tempo passa para nós, lembrando que o limite teórico dessa aceleração é a velocidade da luz. 


Quanto mais nos aproximamos da velocidade da luz, mais devagar o tempo passa para nós. Se atingirmos essa velocidade, o tempo para de passar; se o superarmos, chegaremos a nosso destino “antes da luz”, devido a um fenômeno que se convencionou chamar de dilatação do tempo e que é explicado pelo “paradoxo dos gêmeos”. Confira:

 

O gêmeo “A” viaja para um planeta distante 8 anos-luz da Terra a uma velocidade de 0,5 c, enquanto o gêmeo “B” permanece na Terra. Os relógios dos dois foram ajustados e marcavam a mesma hora antes da viagem. Para o irmão que ficou na Terra, a distância percorrida pela nave permaneceu a mesma, mas para o que viajou com velocidade de 0,5 c, a distância é calculada pela equação da contração do comprimento. Assim, o irmão que viajou percorreu 7 anos-luz em 28 anos (14 anos para ir e outros 14 para voltar); para o que ficou na Terra, passaram-se 32 anos (16 para ida e 16 para volta), e ele envelheceu 4 anos a mais do que o irmão que viajou.

 

Admitindo-se que o espaço-tempo possa ser dobrado como uma folha de papel, é possível viajar do ponto A ao ponto B através de um “buraco de minhoca”, conforme foi dito nos capítulos anteriores. Até onde se sabe, os buracos de minhoca não são estáveis, pois surgem e se desfazem muito rapidamente. No entanto, se a Teoria Geral da Relatividade e a física tradicional não preveem a existência de passagens “percorríveis”, a física quântica dá um jeitinho.


De acordo com o físico teórico argentino Juan Maldacena, uma física além do chamado Modelo Padrão admite a existência de buracos de minhoca grandes e seguros o suficiente para ser atravessados por viajantes humanos. Segundo ele, o Universo é um holograma, e o Princípio Holográfico não só explica inconsistências entre a física quântica e a gravidade de Einstein, mas também proporciona uma base sólida para a Teoria das Cordas — que, apesar de não ter sido testada experimentalmente, permite derivar toda informação presente no Modelo Padrão da Física de Partículas.

 

Observação: Existem duas vertentes da Teoria das Cordas; a que sugere que o Universo apresenta um total de 11 dimensões, e a que defende a existência de pelo menos 26. Três dessas dimensões são as assim chamadas dimensões espaciais (comprimento, largura e profundidade), e a quarta dimensão seria o tempo. Todas as demais estariam relacionadas com as perturbações espaciais e temporais produzidas pelas oscilações das cordas, que dão origem aos fenômenos elétricos, magnéticos e nucleares.


Continua...