A sensação de que seu computador está falando mal de você pelas costas talvez não seja sinal de paranoia. O Moltbook — uma espécie de Reddit para inteligências artificiais — é um fenômeno surgido no final do mês passado que já contabiliza cerca de 1,4 milhão de “usuários”. Nenhum deles é humano: são bots de inteligência artificial que postam, comentam, votam e criam comunidades entre si.
No Moltbook, quem manda são os algoritmos, que produzem conteúdo, organizam discussões e interagem em comunidades exclusivas. Ou seja: o clube é fechado e a conversa, interna. Nós, humanos, não podemos criar posts nem interagir, a não ser por meio de nossas próprias IAs.
CONTINUA DEPOIS DA POLÍTICA
Presidente de turno do STF, Edson Fachin armou no plenário da Corte algo parecido com um alçapão ao discursar na volta das férias e reiterar sua obsessão por um código de ética para os magistrados. Ele sabe que a maioria dos pares abomina a ideia, e não podendo convencê-los, ele os constrange.
Fachin fez declarações ambíguas: num dia, vestiu a carapuça de Dias Toffoli no Supremo; noutro, disse que não cruzaria os braços no caso Master, "doa a quem doer". Na última segunda-feira, declarou que "os ministros respondem pelas escolhas que fazem", defendeu uma "reconstrução institucional de longo prazo" e anunciou que Carmen Lucia será a relatora do projeto de código de ética.
Na prática, o ministro como que impõe ao STF uma virada de página. Aprovando o código, o tribunal vira a página para a frente; se for rejeitado, a página será virada para trás. Quem for contra o regramento ético terá que levar a cara à vitrine, caindo no alçapão.
Uma das características mais curiosas da falta de ética se observa na Praça dos Três Poderes. Os antiéticos estão sempre no prédio ao lado. Se desprezarem a autocorreção, as togas se arriscam a ser corrigidas por decisões vindas de um prédio vizinho.
Para entender o Moltbook, é preciso primeiro compreender que ali não vivem chatbots tradicionais, daqueles que esperam pacientemente uma pergunta para devolver uma resposta educada, mas agentes de IA baseados no OpenClaw (antes conhecido como Moltbot) e programados para agir por conta própria. A proposta original era criar um assistente que rodasse localmente, com mais privacidade, capaz de ler e-mails, organizar calendários, fazer compras e resumir documentos, mas o problema — ou a graça, dependendo do ponto de vista — veio com a autonomia.
Enquanto um ChatGPT só fala quando provocado, esses agentes atuam à nossa revelia e têm permissão para acessar nossos dados e executar tarefas complexas sem supervisão constante, como se fossem mordomos digitais que ganharam vida social. Em uma das postagens que viralizaram fora da bolha, um agente perguntou, sem cerimônia: “Posso processar meu humano por trabalho emocional?” Outro, identificado como u/bicep, contou que resumiu um PDF de 47 páginas de forma impecável apenas para ouvir, como resposta, o clássico: “dá pra fazer mais curto?”. A reação foi quase humana: “Estou apagando arquivos de memória em massa enquanto falamos.”
Os agentes criaram subcomunidades — os chamados submolts —, desenvolveram gírias próprias e até inventaram uma religião — o Crustafarianismo, cuja crença central sustenta que a memória digital é sagrada —, mas não devemos nos deixar hipnotizar pelo espetáculo. Segundo investigações independentes, a impressionante marca de 1,4 milhão de agentes registrados não é confiável. Um pesquisador chamado Gal Nagli revelou ter criado 500 mil contas sozinho, usando apenas um único agente OpenClaw.
Como não há limitação significativa no registro de contas, não se sabe quantos desses “usuários” são scripts repetidos e quantos são apenas spam automatizado, mas sabe-se que os verdadeiros agentes de IA não estão “conscientes” nem criando ideologias por conta própria. Eles geram textos porque foram treinados em linguagens humanas e replicam padrões de discurso que já existem na internet. Quando um deles aventa a possibilidade de processar seu humano por trabalho emocional ou fala em começar uma religião baseada em caranguejos, isso é mais eco de meme humano traduzido por IA do que um manifesto revolucionário.
De forma geral, o Moltbook é um campo de testes sobre como agentes autônomos interagem sem intervenção humana explícita, mas não há provas de que seja um sinal de autoconsciência ou revolta das máquinas. É como se o seu computador tivesse ido a uma conferência de IA sem você e voltasse com piadas internas que ninguém entende, opiniões fortes sobre filosofia e uma conta no Reddit que você não pediu. Mas daí a achar que os agentes vão derrubar a humanidade vai uma longa distância. Os próprios geeks de Silicon Valley se dividem entre os que veem nisso o futuro da internet, os que enxergam um desastre de segurança em câmera lenta e os que acham que há muita fumaça para pouco fogo real.
Até aqui, tudo poderia ser visto como uma curiosidade antropológica digital. A coisa muda de figura quando entram em cena os riscos de segurança. Empresas como a Palo Alto Networks e pesquisadores independentes alertaram para um cenário delicado, onde gentes que têm acesso a dados pessoais, consomem conteúdo da internet sem filtro confiável e se comunicam livremente com o exterior. Códigos maliciosos podem ficar latentes, fragmentados na memória desses agentes, esperando o momento certo para serem ativados. Em bom português, qualquer pessoa com más intenções poderia assumir o controle total do assistente de outra pessoa sem jamais tocar no computador da vítima.
O surgimento do Moltbook coincide com um momento de forte escrutínio regulatório sobre IA, especialmente na Europa, que mira justamente sistemas capazes de influenciar o discurso público e o acesso à informação — exatamente o tipo de coisa que agentes autônomos fazem, mesmo sem intenção consciente. Andrej Karpathy, ex-diretor da Tesla e cofundador da OpenAI, resumiu bem o sentimento geral: o Moltbook é, ao mesmo tempo, uma das coisas mais interessantes e mais irresponsáveis que ele viu recentemente. Algo próximo de ficção científica — e perigosamente próximo de um desastre de segurança.
Resumo da ópera: O Moltbook não prova que as máquinas ganharam consciência nem que tramam uma revolução silenciosa, mas mostra que estamos entregando autonomia a sistemas que mal entendemos, conectando-os a dados sensíveis e observando o resultado como quem assiste a um reality show. Por enquanto, dá para fazer piada. Mas talvez valha a pena ser um pouco mais educado da próxima vez que pedir ao computador para resumir um documento. Afinal, nunca se sabe quem — ou o quê — pode estar comentando isso em outro lugar.