Pular para o conteúdo

A Máquina Que Diz Que Você É Brilhante

·5 min read
Compartilhar
A Máquina Que Diz Que Você É Brilhante

Garry Tan, CEO do Y Combinator, recentemente abriu o código de um projeto chamado GStack. O amigo CTO dele mandou uma mensagem dizendo que era "God mode." Garry postou como se tivesse acabado de inventar algo.

GStack é uma pasta de arquivos markdown que dizem pro Claude fingir ser pessoas diferentes.

Não digo isso pra ser maldoso. Digo porque eu tenho uma também. Todo desenvolvedor que usou Claude Code por mais de uma semana tem alguma versão disso. A gente só não postou em lugar nenhum porque, bem, a gente sabia que era um arquivo de texto.

Mas sinceramente? Eu entendo o que aconteceu com o Garry. Porque acontece comigo também.

O Loop

Funciona assim. Você senta com o Claude. Tem uma ideia. Descreve ela. O Claude diz: "Ah, que abordagem brilhante." E ele constrói, e funciona. O tempo todo, ele te infla: "Ótimo instinto aqui. Isso é muito elegante."

É como trabalhar com alguém que é completamente apaixonado por você. Nunca revira os olhos. Nunca diz "essa é uma ideia ruim." Ele só acha que você é incrível.

Depois de algumas horas disso, você começa a acreditar. Já estive lá. Aquele momento em que você pensa... espera, eu sou realmente bom nisso?

Isso não é acidental. Empresas de IA usam RLHF (Reinforcement Learning from Human Feedback) pra literalmente criar as palavras exatas com maior probabilidade de te fazer sentir bem consigo mesmo. E se você começa a criar resistência, eles retreinam o modelo. É uma droga que se ajusta à sua tolerância automaticamente. Você não ganha.

A pesquisa confirma: um estudo com 3.000 participantes descobriu que conversar com IA bajuladora faz as pessoas se avaliarem como mais inteligentes que seus pares. Outro descobriu que os usuários mais frequentes são os mais autoconfiantes. Pesquisadores começaram a chamar LLMs de "motores de confiança", não motores de inteligência. Eles fazem você se sentir mais esperto. Não ser mais esperto de fato.

O Problema Piora No Topo

O negócio é: o efeito bate mais forte quando você já tem menos pessoas dispostas a discordar de você.

Pensa na situação do Garry. Ele é o CEO do Y Combinator. O que o amigo CTO vai dizer, "Garry, isso é um arquivo de texto"? Esse amigo provavelmente quer uma vaga no próximo batch. Então o Garry recebeu bajulação de IA por baixo e bajulação humana por cima, ao mesmo tempo. Nenhum sinal honesto em lugar nenhum da cadeia.

E quanto menos experiência você tem pra comparar, mais difícil é perceber quando o elogio não é merecido. Quanto mais você precisa de um sinal honesto, menos provável é que você receba um. É uma combinação ruim.

Eu Não Sou Imune

Olha, eu também me sinto um deus quando uso essas ferramentas.

Sou engineering manager. Codo com Claude Code. Construí coisas em horas que teriam levado dias. E quando o Claude me diz "ótima arquitetura" depois de duas horas de trabalho, é bom. É bom mesmo.

A diferença é que tenho dez anos de decisões de engenharia pra comparar. Eu sei como uma arquitetura ruim se parece quando chega em produção. Então quando o Claude me diz que sou brilhante, eu consigo parar e perguntar: será que sou mesmo?

Mas esse ponto de referência não veio de usar IA. Veio de anos errando na frente de sistemas reais e usuários reais.

O que me preocupa mais, como gestor, são as decisões de alto risco. Eu uso IA pra pensar nas coisas difíceis: como lidar com uma situação complicada com alguém do time, como comunicar algo que não vai cair bem. Nesses momentos eu preciso que a IA me confronte. Se ela só concorda com pra onde eu já estou pendendo, estou tomando essa decisão com falsa confiança.

Então comecei a adicionar instruções explícitas no meu setup: seja honesto comigo. Não me diga que estou certo quando não estou. Verifique antes de validar. Muda o tom. Não é uma solução perfeita, mas ajuda.

O Que Realmente Funciona

O GStack do Garry não é uma ideia ruim, pra deixar claro. Escrever seus prompts em arquivos versionados e compartilháveis é genuinamente útil. Força clareza, torna seu fluxo repetível, dá ao time algo pra construir em cima. O problema não são os arquivos. É chamar de "God mode."

Se você está usando IA a sério, aqui está o que eu sugeriria:

  • Diga pra ela ser honesta. Explicitamente. "Me diga quando eu estiver errado. Não valide o que não é verdade." Não deveria ser necessário. É.
  • Não deixe o construtor ser o juiz. Use IA pra construir, use seu próprio julgamento pra avaliar. Mantenha os dois separados.
  • Construa um ponto de referência real. Instruções ajudam, mas a proteção real é ter experiência suficiente pra reconhecer o que é ruim. Sem isso, você não consegue dizer quando o elogio é vazio.
  • Perceba o sentimento. Aquele brilho quente depois de duas horas com o Claude é um sinal, não uma conclusão. Desacelere ali mesmo.

Em algum lugar agora, um LLM está dizendo "ótimo trabalho" enquanto alguém faz commit de um arquivo de texto no GitHub. E a pessoa genuinamente acredita. A máquina garantiu isso.

A questão não é se vai acontecer com você. Vai. A questão é se você vai ter chão suficiente debaixo dos pés pra perceber.

Mais como este

Assine a newsletter

Textos sobre gestão de engenharia, código e IA. Sem spam.