terça-feira, 24 de setembro de 2024

DE VOLTA À I.A.

A ÚNICA COISA MAIS BAIXA QUE FOFOCAR É XERETAR.

 

Em meados de 1956, um grupo de cientistas se reuniu no Dartmouth College para discutir sobre a capacidade das máquinas de realizar tarefas humanas. Consta que John McCarthy, que lecionava matemática naquela universidade, cunhou o termo Inteligência Artificial (Artificial Intelligence, no original) para usar no convite do evento. 


A autoria da palavra "robot" é atribuída ao dramaturgo tcheco Karel Čapek. Ele a usou pela primavera vez na peça R.U.R., que estreou em 1921. A história se passa num futuro distópico, onde autômatos projetados originalmente para servir aos humanos adquirem inteligência e se rebelam contra seus criadores. Como não poderia deixar de ser, os conspirólogos de plantão veem nesse enredo uma "profecia" sobre os avanços da IA.


A Inteligência Artificial está presente em quase todos os aspectos da vida moderna. A tecnologia ganhou os holofotes com o lançamento do ChatGPT pela OpenAI, do Gemini pelo Google, do Copilot pela Microsoft (não necessariamente nessa ordem). Seu futuro é brilhante e suas possibilidades, quase ilimitadas. Mas há questões éticas que precisam ser resolvidas.

 

No início deste mês, a OpenAI anunciou o modelo o1, que representa um marco em sua busca por inteligência artificial mais avançada. Conhecido internamente como Strawberry, a novidade — que se destaca pela capacidade de resolver questões complexas  é oferecida nas versões o1-preview e o1-mini, ambas disponíveis para assinantes do ChatGPT Plus, Team, Enterprise e Edu (clique aqui para mais detalhes).

 

Uma das inovações é a habilidade de "pensar" antes de fornecer respostas. Segundo a OpenAI, o novo modelo utiliza um processo de raciocínio chamado "cadeia de pensamento", que simula a análise humana passo a passo para resolver problemas, que o torna particularmente eficaz em tarefas complexas, como programação e matemática. 


Além de fornecer respostas, o o1 consegue revisar suas próprias soluções para minimizar erros — o que o torna mais lento que lento em alguns casos, levando até 10 segundos para responder a perguntas mais complexas. Mas ele supera o GPT-4o em tarefas como análise de petições jurídicas e jogos de lógica, além de ter um desempenho excepcional em exames de matemática. 


A empresa planeja desenvolver futuras versões capazes de raciocinar por períodos mais longos — horas, dias ou até semanas —, visando criar sistemas autônomos ainda mais eficientes em tarefas complexas e em áreas como medicina e engenharia. Mas o risco de "alucinações" (respostas incorretas, mas apresentadas com confiança) é um problema que, segundo a própria empresa, ainda não foi completamente resolvido.

 

Para saber mais sobre inteligência artificial, leia a sequência iniciada nesta postagem.