Mostrando postagens com marcador evolução. Mostrar todas as postagens
Mostrando postagens com marcador evolução. Mostrar todas as postagens

quarta-feira, 21 de agosto de 2013

TRANSMISSÃO MANUAL, AUTOMÁTICA OU AUTOMATIZADA (continuação)

Se quiser derrubar uma árvore na metade do tempo, passe o dobro do tempo amolando o machado.

A função da embreagem (figura à esquerda) é acoplar ou desacoplar dois sistemas rotativos distintos (o motor e o câmbio, no caso do automóvel), permitindo-lhes girar em conjunto, separadamente, ou em rotações diferentes.
O modelo utilizado nos veículos com câmbio manual é acionado pelo motorista através de um pedal que leva o garfo a pressionar o rolamento de encosto contra a mola-diafragma do platô, liberando o disco de fricção. Conforme o pedal é liberado, dá-se o efeito inverso – ou seja, o platô volta a pressionar o disco contra o volante, elevando gradualmente a rotação do motor até igualá-la à do eixo piloto.

Observação: Uma das maiores dificuldades dos motoristas iniciantes é conciliar a aceleração com a pressão no pedal da embreagem, de maneira a aproveitar o efeito de "patinagem" ao manobrar ou quebrar a inércia – notadamente em aclives – sem deixar o motor "morrer" ou fazer o veículo sair aos solavancos.

Já ao sistema de transmissão (câmbio/diferencial) compete desmultiplicar a rotação proveniente do motor e repassá-la às rodas motrizes sob a forma de torque ou potência, conforme as exigências do veículo a cada momento (mais detalhes no post de  28/09/09). A primeira etapa desse processo cabe ao câmbio (figura ao lado), cujo sofisticado conjunto de eixos, engrenagens, garfos e luvas de engates produz as diversas relações (marchas) que o motorista seleciona manualmente através da alavanca de mudanças.

Observação: Para facilitar o entendimento, vamos equipar nossa hipotética bicicleta da postagem anterior com um câmbio simples, de três velocidades, no qual um atuador (trambulador) ligado por cabo a uma alavanquinha presa ao guidão transfere a corrente de uma catraca para outra, a critério do ciclista. Quanto maior a catraca (marchas curtas), menos esforço será necessário para vencer a inércia ou subir aclives acentuados; quanto menor ela for (marchas longas), mais voltas serão completadas pela roda motriz a cada pedalada, permitindo alcançar e manter velocidades elevadas com menos esforço.

A segunda etapa fica por conta do diferencial (vide figura abaixo, obtida do site www.portalsaofrancisco.com.br/), também composto por um rebuscado conjunto de engrenagens – coroa e pinhão, planetárias e satélites – que desmultiplicam (mais uma vez) a rotação proveniente do câmbio e a repassam às rodas motrizes, permitindo que elas girem em velocidades diferentes durante as curvas, quando as rodas "internas" percorrem trajetórias menores do que as "externas".


Observação: Na maioria dos carros fabricados atualmente no Brasil, que têm motor e tração dianteiros, o diferencial fica acoplado à caixa de câmbio; em veículos com motor dianteiro e tração traseira, ele é instalado entre as rodas motrizes e recebe o movimento rotacional transmitido pelo câmbio através de um eixo longitudinal (cardã).

Amanhã a gente conclui; abraços e até lá.

terça-feira, 20 de agosto de 2013

EVOLUÇÃO TECNOLÓGICA – TRANSMISSÃO MANUAL, AUTOMÁTICA OU AUTOMATIZADA; QUAL A MELHOR?

Não há mal que sempre dure nem bem que nunca termine.

A despeito de ter sido apeado do poder por "suspeitas" de corrupção (que, após treze anos de lulopetismo, parecem coisa de punguista de feira), o autodeclarado "homem macho de colhão roxo" Fernando Collor abriu as importações e pôs fim às reservas de mercado – medidas que, dentre outras coisas, propiciaram a modernização da indústria automobilística nacional.
Embora nossos veículos continuem 30 anos defasados em relação aos modelos internacionais e figurem entre os mais caros do mundo, temos muito a comemorar, começando pela substituição dos arcaicos carburadores pela injeção eletrônica de combustível, passando pela evolução dos deploráveis motores a álcool dos anos 80 para os modelos multicombustível atuais, e prosseguindo com a inclusão de airbags, freios ABS, direção assistida, ar condicionado, trio elétrico, sensor de estacionamento e outros aprimoramentos que hoje contemplam também nos modelos ditos "populares" – ainda que na condição de opcionais e cobrados a peso de ouro.
Igualmente digna de nota é a transmissão automática – desenvolvida, dizem, por dois engenheiros brasileiros –, que caiu de pronto no gosto dos norte-americanos, mas só agora começou a se popularizar entre nós, especialmente depois que as montadoras passaram a oferecer uma opção mais barata, conhecida como transmissão automatizada.

Observação: Tanto as caixas automáticas quanto as automatizadas concedem férias à perna esquerda, pois dispensam o pedal de embreagem, mas as semelhanças terminam por aí, já que cada qual tem vantagens e desvantagens que devem ser levadas em conta quando você for escolher seu próximo carro.

Para facilitar a compreensão do que será visto a seguir, é recomendável reler os posts de 21 e 22 de setembro de 2009, que dão uma boa noção de como funciona um motor de combustão interna (figura ao lado). Em atenção aos comodistas de plantão, relembro a velha analogia entre o motor e a bicicleta, na qual as pernas do ciclista fazem o papel dos pistões; o pé-de-vela, o das bielas, e a coroa, o do volante do virabrequim, que, através da corrente, transmite a força aplicada aos pedais à catraca da roda traseira, pondo a "magrela" em movimento.

Amanhã a gente continua; abraços e até lá.

quinta-feira, 25 de abril de 2013

Projeções: O que o futuro nos reserva?


Noite de sábado. Seu carro “inteligente”, dirigido por computador, deixa você e sua acompanhante da vez na porta da pizzaria e estaciona nas proximidades. Quando o sistema o informa de que você pagou o jantar com o seu smartphone, ele vem buscá-los e os leva para casa (sua ou dela, de acordo com a programação) em total segurança, pouco importando quantas taças de vinho ou tulipas de chopp vocês tenham tomado.
Ficção? Nada disso. Leia as “amarelas” da REVISTA VEJA desta semana (24 de abril), que traz uma entrevista pra lá de interessante com o mineiro Hugo Barra, vice-presidente do Google.

Observação: Quanto à iminente substituição dos desktops e notebooks por smartphones e tablets, the answer, my friend, is blowing in the windEu, particularmente, acho que a coisa ainda demora um pouco. E torço por isso.

Um ótimo dia a todos e até mais ler.

segunda-feira, 19 de novembro de 2012

EVOLUIR É PRECISO, MAS CUIDADO É INDISPENSÁVEL.


A frequência com que a evolução tecnológica substitui produtos de última geração por modelos ainda mais avançados aumenta a cada dia, o que leva muitos consumidores a substituir seus gadgets quando, em tese, eles teriam uma longa vida útil pela frente.
Reza o senso comum que dois anos é o intervalo a ser observado na troca de computadores, celulares, smartphones, tablets, câmeras digitais e outros que tais. Menos que isso é quase como que jogar dinheiro fora, pois raramente os novos recursos e aprimoramentos justificam uma troca que, não raro, exige investir uma boa quantia em dinheiro.
Com as festas de final de ano se aproximando, fabricantes e comerciantes fazem o possível e o impossível para empurrar aos consumidores novos modelos que não oferecem melhorias expressivas em relação a seus predecessores, como é do Lumia 920 – que chegou ao mercado apenas sete meses depois da versão 900 – ou do Nexus 4 – lançado um ano depois do Galaxy Nexus – mas cuja troca exige um investimento bastante representativo.
Olho vivo, pessoal.

Em tempo: Nosso "expediente" será normal amanhã, a despeito do feriado (dia da Consciência Negra).

segunda-feira, 20 de junho de 2011

Vaticínios, Cloud Comupting e outros que tais...

Fazer previsões acuradas é arriscado, especialmente no campo da evolução tecnológica.
Quando a Apollo 11 chegou à Lua, dizia-se que dali a poucos anos as viagens interplanetárias seriam corriqueiras. Na Terra, navios e trens alcançariam velocidades estonteantes, enquanto monotrilhos elevados a 30 metros do solo resolveriam o problema do transporte. As grandes metrópoles seriam parecidas com o que se via então no desenho animado “Os Jetsons”, com edificações futuristas, esteiras rolantes, automóveis voadores e pessoas usando “cinturões foguetes” (veja mais em (a propósito, vale rever a postagem de  27 de agosto de 2008).
Mesmo assim, só conseguimos (até agora) colocar robôs em Marte, voar de avião (e com dificuldades, haja vista a superlotação dos aeroportos), sem mencionar que continuamos enfrentando quilômetros de congestionamento todos os dias, mesmo que haja carros capazes de estacionar sozinhos e de interagir com o motorista para prevenir potenciais acidentes (como o novo Mercedes Benz CL, por exemplo, que será objeto de uma postagem posterior.
No campo da computação pessoal, mesmo próceres do quilate de Thomas J. Watson e Bill Gates deram suas “escorregadelas”. O presidente da IBM teria profetizado, ainda na década de 40, que um dia haveria mercado para talvez cinco computadores (quatro décadas mais tarde, sua empresa lançaria o Personal Computer e daria o primeiro passo para transformar a computação pessoal num produto de consumo de massa). Já ao fundador da Microsoft atribui-se a infeliz previsão de que 640 k seria mais memória do que qualquer um viria a precisar em um computador (claro que ele nega ter dito esse absurdo, até porque os PC modernos integram entre 2 e 4 GB de RAM).

Observação: “Tio Bill” é citado como protagonista de diversas situações curiosas, como aquela em que teria simplesmente continuado a caminhar após deixar cair no chão uma nota de US$ 1.000, indiferente à perda do que, diante de sua fortuna, seria “dinheiro de pinga”. No entanto, isso não passa de uma lenda urbana, até porque o Tesouro americano tirou essas notas de circulação em 1969, quando Gates tinha apenas 14 anos de idade.

Em contrapartida, a Lei de Moore – profecia de Gordon Earl Moore, co-fundador da Intel, segundo a qual o poder de processamento dos computadores dobraria a cada vinte e quatro meses  –  foi bem mais acurada, embora talvez não sobreviva por muito tempo mais, já que a “Cloud Computing” vem sendo vista como o futuro da computação. Seja como for, é quase impossível encontrar alguém plenamente satisfeito com os recursos de seu computador. Devido a agigantamento dos sistemas e programas, mesmo máquinas de topo de linha se tornam ultrapassadas em poucos anos, e a despeito de dispositivos de hardware mais avançados serem lançados em intervalos cada vez mais curtos, são poucos os usuários que têm condições financeiras para acompanhar essa vertiginosa evolução.
Quem acompanhou o alvorecer da computação pessoal deve estar lembrado dos PCs que integravam dois ou mais Floppy Drives – como eles não dispunham de discos rígidos, tanto o sistema quanto os programas eram executados a partir de prosaicos disquetes. Quando os HDs começaram a se tornar populares, 10 MB de espaço custavam 2.000 dólares, mas a evolução tecnológica cumpriu bem o seu papel: embora os fabricantes tenham levado décadas para romper a “Barreira do Gigabyte”, bastaram poucos anos, a partir de então, para que produzissem drives gigantescos – de 500 GB a 1 TB – a preços bem mais acessíveis.
Para ter uma noção melhor desse espaço, considere que uma música em MP3 de 3 minutos ocupa cerca de 3 MB – ou três milhões de bytes – e que 1 Terabyte corresponde a um trilhão de bytes (faça as contas). Pelo andar da carruagem, é possível que logo alcancemos a casa dos Petabytes, dos Exabytes, ou mesmo dos Zettabytes (grandezas que correspondem, respectivamente, a um quatrilhão, um quintilhão e um sextilhão de bytes).

Observação: Segundo alguns especialistas, 1 TB equivale à capacidade da memória humana, enquanto que 1 ZB é espaço suficiente para armazenar toda a informação digitalizada no mundo (se cada byte fosse um grão de arroz, isso corresponderia a 20 quatrilhões de quilos – arroz suficiente para alimentar a humanidade por 30 mil anos!

Para concluir, considerando que a informática tende a evoluir de maneira “circular”, talvez devêssemos reavaliar o vaticínio de Mr. Watson. De uns tempos a esta parte, a venda de computadores (desktops e notebooks) vem caindo sistematicamente, enquanto dispositivos móveis (tablets e smartphones) se multiplicam como coelhos. Demais disso, se a computação em nuvem realmente prosperar, importante mesmo será garantir um plano de banda larga decente, de preferência com boas taxas de upload, pois o armazenamento dos arquivos em servidores remotos e a execução dos aplicativos via navegador propiciarão uma experiência mais rica e interativa sem exigir máquinas cada vez mais poderosas e quantidades ainda maiores de memória e espaço em disco. 
Amanhã a gente vê isso melhor; abraços e até lá.

quinta-feira, 15 de abril de 2010

Só pra complementar...

Mesmo não sendo a única responsável pela performance do computador, a CPU é um dos componentes de maior relevância na configuração da máquina. Nos primórdios da “Era PC”, a freqüência de operação era o principal fator a ser analisado na comparação entre dois processadores (ou mesmo entre dois computadores), já que um PC386 a 100 MHz, por exemplo, proporcionava praticamente o dobro da performance de outra máquina com o mesmo modelo de chip, mas com metade da velocidade.
Muita água rolou por debaixo da ponte desde então, já que os fabricantes vêm aprimorando constantemente seus produtos. E ainda que a freqüência de operação tenha crescido a passos de gigante na disputa entre a Intel e AMD, diferenças de arquitetura e quantidade de memória cache, dentre outros fatores, foram ganhando importância na avaliação do desempenho dos processadores. Isso vale inclusive para produtos de um mesmo fabricante: a título de exemplo, podemos citar os Pentium III e os primeiros Celeron (ambos da Intel): numa hipotética disputa entre dois modelos de velocidade idêntica, o Pentium ganharia de lavada, notadamente pela falta de memória cache do “concorrente”.

Observação: Convém ter em mente que o desempenho do processador e a performance global do computador são coisas distintas. Como ensina o mestre Carlos Morimoto, “todo computador será tão rápido quanto o for o dispositivo mais lento que ele integrar.”

Passando ao que realmente interessa aos propósitos desta postagem, vale lembrar que, quando o clock dos processadores bateu a marca dos 3 GHz (três bilhões de ciclos por segundo), as coisas se complicaram: além das dificuldades de fabricação, chips com velocidades ainda mais elevadas geram muito calor e consomem um bocado de energia, de modo que os fabricantes tiveram de buscar novas soluções para continuar obedecendo à famosa Lei de Moore (segundo a qual o poder de processamento dos microchips dobra a cada 18 meses). E a melhor saída foi criar chips com dois ou mais cores (núcleos): assim, uma CPU com dois núcleos “rende” o mesmo que duas CPUs separadas, mas funciona de maneira mais eficiente e pode ser produzida a um custo inferior.
E assim surgiram os processadores multicore, como os Intel Pentium D, Core 2 Duo, Core 2 Quad, Core i5 e i7, e os AMD Athlon X2 e Phenon, dentre outros mais. Por outro lado – e tudo sempre tem outro lado – essa diversificação de modelos complicou a vida do usuário na hora de comprar ou integrar um novo computador: afinal, é melhor escolher um Core 2 Duo rodando a 3 GHz ou um Core 2 Quad (quatro núcleos) a 2,4 GHz?
A resposta é “depende” – principalmente dos programas que você pretende utilizar. Conforme a aplicação, uma máquina com CPU dual pode apresentar desempenho superior ao de um Quad Core, já que a maioria dos programas existentes atualmente não foi desenvolvida para aproveitar os benefícios oferecidos por chips com mais de dois núcleos – para eles, a freqüência de operação continua sendo mais importante do que a quantidade de núcleos. E a despeito de os sistemas operacionais modernos tentarem contornar essa limitação distribuindo as tarefas entre os vários núcleos, os resultados nem sempre são satisfatórios.
É claro que existem softwares que rodam muito mais rápido em computadores multicore – cujo desenvolvimento vem sendo estimulado pela Intel e pela AMD –, mas isso ainda é a exceção, não a regra. Aliás, os processadores da família “Core i”, da Intel, apresentam uma solução bastante interessante: eles são capazes de manter apenas um núcleo funcionando, mas num regime de clock mais elevado, de maneira a proporcionar um desempenho superior a programas que não foram escritos para chips multicore.
Então, na hora de escolher seu novo notebook ou Desktop, pense bem antes de investir num modelo com chip quad core ou superior. Para usuários domésticos, que geralmente se limitam a navegar na Web e rodar aplicativas de escritório e afins, as vantagens são inexpressivas (pelo menos por enquanto).
Amanhã tem mais; abraços a todos e até mais ler.

segunda-feira, 28 de setembro de 2009

Torque x Potência

Da mesma forma que a velocidade da CPU não é a única responsável pelo desempenho global de um PC, o deslocamento volumétrico de um motor, por si só, não determina o desempenho de um veículo, razão pela qual é mais do que recomendável analisar as especificações de potência máxima e torque máximo constantes do manual do proprietário.
Para conceituar torque e potência sem recorrer àquelas intrincadas fórmulas que esquecemos tão logo passamos no vestibular, podemos dizer que levar um carro de um ponto a outro é trabalho, de modo que torque representa trabalho – embora seja uma força que tende a girar objetos (apertar as porcas da roda do carro é um bom exemplo; ao aplicar uma determinada força na chave de rodas, você cria o torque que tende a girar a porca sobre o parafuso). Já a potência tem a ver com a rapidez com que o trabalho é realizado (veículos mais potentes alcançam velocidades mais elevadas e se deslocam de um ponto a outro mais rapidamente do que os menos potentes).
É comum associarmos torque com arrancada e potência com velocidade, a despeito de ambas essas variáveis serem produzidos pela combustão, crescerem conforme o aumento das RPM e atuarem em conjunto durante todo o tempo em o veículo é utilizado. O torque tende a “aparecer” num regime de giros mais baixo que o da potência máxima – como a distância horizontal das bielas varia de acordo com a posição em relação ao virabrequim, o torque também varia, pois corresponde ao produto da força pela distância. Com o pistão no ponto mais alto do ciclo e a biela alinhada verticalmente com o centro do virabrequim, nenhum torque é gerado (seria como posicionar a chave de roda na vertical e subir em cima dela; mesmo que você conseguisse se equilibrar, a porca não se soltaria, pois o torque só se manifesta quando a força atua numa alavanca perpendicular ao eixo).
A despeito do que dissemos sobre a performance otimizada dos veículos atuais, motores de grandes cilindradas oferecem mais potência e proporcionam curvas de torque mais “planas” (com força abundante em praticamente todas as faixas de rotação). E ainda que seja possível conciliar potência elevada com torque moderado (proporcional à cilindrada), motores dessa concepção precisam ser mantidos em altos regimes de giro, o que exige frequentes reduções de marchas (para transpor aclives e realizar ultrapassagens, por exemplo).

Observação: O torque é expresso em Newtons-metro ou em Qilogramas-força x metro (1 Nm corresponde ao torque produzido por 1 Newton de força aplicada a 1 m de distância do ponto de rotação, e equivale a aproximadamente 0,10 kgf.m). Já a potência é medida em cavalos vapor: 1 cv corresponde à potência necessária para levantar um peso de 75 kg a uma altura de 1 metro em 1 segundo (portanto, 1 cv = 75 kg.m/s).

A potência (associada à velocidade) costuma ser usada como referência primária nos carros de passeio; em caminhões, ônibus e utilitários assemelhados, é o torque quem “fala mais alto”: um motor diesel de 12 litros, por exemplo, produz “módicos” 400 cavalos, mas incríveis 228 kgf.m de torque a 1.200 RPM; ao passo que um Ford Mustang preparado, ainda que desenvolva a mesma potência, entrega “apenas” 48,9 kgf.m de torque a 5.600 RPM.

Uma boa semana a todos (e salve São Judas Tadeu!).

segunda-feira, 21 de setembro de 2009

Automóveis e Evolução

Dizem que Bill Gates, durante certa feira de informática (COMDEX), teria afirmado que “se a GM tivesse desenvolvido sua tecnologia como a Microsoft fez com a dela, hoje estaríamos dirigindo carros de 25 dólares que fariam 1.000 milhas com um galão de gasolina” (“pérola” que foi respondida à altura pela GM, como vimos na postagem de 05/10 2007).
Gozações à parte, a verdade é que os automóveis evoluíram bastante nas últimas décadas, ainda que não tanto e nem tão rapidamente quanto os computadores. E isso se aplica também às nossas “carroças” – parafraseando o ex-presidente Collor, que contribuiu para a modernização da indústria nacional ao liberar as importações e pôr fim à reserva de mercado (não fosse por isso, dificilmente teríamos os benefícios da tecnologia bicombustível ou estaríamos dirigindo carros com injeção eletrônica, freios ABS e outros requintes que tais).
Um veículo “popular” atual, com motorização 1.0 (cerca de 1.000 cc de cilindrada), “anda bem mais e bebe bem menos” que seu equivalente da década de ’70 (o fusquinha, cuja capacidade cúbica 30% era maior). Vejamos isso melhor:
Os principais componentes de um motor de quatro tempos atual (ciclo Otto) são basicamente os mesmos do início do século passado: cilindros, cabeçote, cárter (que é basicamente um “depósito” de óleo lubrificante), pistões (ou êmbolos), bielas, virabrequim (ou árvore de manivelas) e válvulas (e respectivo mecanismo de acionamento).
Os cilindros ficam no bloco, entre o cabeçote e o cárter, e sobre cada um deles existem duas ou mais válvulas que, acionadas pelo “eixo-comando”, abrem e fecham a comunicação entre a câmara de explosão e os dutos de admissão e escapamento. Abaixo dos cilindros, os mancais (apoios) suportam o virabrequim, que é ligado aos pistões por meio de bielas e acoplado a um “volante” metálico cuidadosamente balanceado. Dentro de cada cilindro, o pistão faz movimentos de vai-e-vem (vertical nos motores "em linha", em ângulo nos modelos em “V” e horizontal nos propulsores como os do velho fusquinha, cujos pistões são contrapostos e trabalham horizontalmente).
O “espaço” entre o cabeçote e a parte superior do pistão corresponde à câmara de explosão, cujo volume varia conforme a posição do êmbolo. A relação entre os volumes medidos antes e depois da compressão define a taxa de compressão do motor, e sua capacidade cúbica (ou cilindrada) é obtida multiplicando-se o volume da câmara (com o pistão no ponto morto inferior) pelo número de cilindros: nos motorzinhos “1.0” que equipam nossos carros “populares”, ela corresponde a aproximadamente um litro; já nos saudosos V8 da década de ’70, mais de 5 litros!
Amanhã a gente continua.
Abraços e até lá.