Tesla V100 modificado para cartão PCIe prova que GPUs de décadas atrás ainda são viáveis para inferência LLM a $200
Um hacker retrofit um GPU data center Tesla V100 de 2017 para um cartão PCIe customizado com resfriamento impresso em 3D, demonstrando que GPUs Nvidia de servidor legado podem rivalizar com aceleradores de inferência modernos de faixa média quando otimizados. A modificação sublinha headroom de desempenho e potência remanescente em silício mais antigo—relevante para implementações de inferência econômicas e economia de GPU do mercado secundário.
Para aquisição de TI, isso aponta oportunidades para estratificação de carga de trabalho de GPU: inferência em lote, fine-tuning e ambientes de desenvolvimento podem aproveitar V100s e H100s do mercado usado com redução substancial de capex, libertando SKUs mais novos para inferência e treinamento em produção.