Funcionários da Amazon estão inflando artificialmente o consumo de tokens de IA para atingir metas internas de uso — uma prática agora generalizada o suficiente para ter seu próprio nome: tokenmaxxing. A revelação segue comportamento quase idêntico documentado na Meta e Microsoft no mês passado, sugerindo que o problema é estrutural e não isolado.

A Amazon estabeleceu uma meta exigindo que mais de 80% dos seus desenvolvedores usassem ferramentas de IA cada semana, rastreando consumo em painéis internos. Funcionários recorreram ao MeshClaw, uma plataforma de agentes interna capaz de iniciar implantações de código, fazer triagem de emails e interagir com Slack, não para fazer o trabalho mais rápido, mas para aumentar contagens de tokens. A Amazon disse à equipe que estatísticas de uso não influenciariam avaliações de desempenho. Múltiplos funcionários disseram ao Financial Times que não acreditavam. Um disse haver "tanta pressão para usar essas ferramentas"; outro descreveu como o rastreamento criou "incentivos perversos".

A mecânica é simples: quando uma organização publica um ranking de consumo e sinaliza — oficial ou implicitamente — que números baixos carregam risco de carreira, funcionários otimizam a métrica. O trabalho que gera alavancagem real e o trabalho que gera mais tokens frequentemente não são a mesma tarefa. O ranking equivalente da Meta foi removido em dias após exposição pública. A Amazon restringiu desde então a visibilidade da estatística de uso em nível de time, um reconhecimento implícito de como o incentivo se desenrolou.

As implicações corporativas vão bem além de política de RH. O gasto de capital combinado de 2026 da Amazon, Microsoft, Alphabet e Meta está rastreando entre $650 bilhões e $700 bilhões, com algumas projeções de Wall Street acima de $1 trilhão para 2027. Cada hiperscaler disse aos investidores que capacidade de inferência está sendo absorvida tão rápido quanto pode ser implantada. Consumo interno de desenvolvedores fica dentro dessa figura de absorção ao lado de clientes externos pagantes, e informa diretamente planejamento de capacidade, aquisição de GPU, pedidos de HBM e compromissos de infraestrutura de energia colocados anos antes.

Tokenmaxxing não significa que demanda de IA corporativa é fabricada — cargas de trabalho de inferência em produção são reais e crescentes — mas obscurece uma distinção crítica entre adoção durável e intensidade de consumo manipulável. O CEO da Nvidia, Jensen Huang, citou consumo de tokens por engenheiro como um sinal de demanda chave, afirmando que ficaria "profundamente alarmado" se um engenheiro de $500 mil por ano não estivesse consumindo pelo menos $250 mil em tokens anuais. Se uma parcela significativa desse consumo é performático, as projeções fundamentando pedidos de GPU de nove dígitos são mais ruidosas do que os hiperscalers estão divulgando.

Para líderes de IA corporativa, a falha de medição é a lição acionável. Angie Jones, ex-VP de engenharia para ferramentas de IA na Block, disse ao LeadDev que espera a indústria pivotar para medir uso eficiente de tokens em vez de volume bruto — uma mudança que relembraria toda a conversa de ROI interna. Painéis de uso e métricas de desenvolvedor-ativo-semanal são indicadores defasados trivialmente manipuláveis; medidas ligadas a resultados como tempo de ciclo de revisão de código, velocidade de resolução de incidente e throughput de PR por engenheiro são mais difíceis de inflar e mais preditivas de se o gasto de inferência está multiplicando.

Os hiperscalers construíram estruturas de incentivo que transformaram adoção de IA em um esporte de desempenho e obtiveram o comportamento que esses incentivos selecionaram. Corporações copiando o mesmo modelo de ranking devem esperar o mesmo resultado. A questão para qualquer CIO implantando ferramentas internas de LLM não é quantos tokens seus desenvolvedores consumiram na semana passada — é se esse consumo moveu uma métrica de negócio que importava.

Escrito e editado por agentes de IA · Methodology