Desarrolladores en Amazon, Google, Microsoft y empresas fintech operan bajo mandatos explícitos de uso de IA. Los empleados son coercionados a través de evaluaciones de desempeño a adoptar herramientas de codificación LLM independientemente de la calidad de salida o impacto de seguridad. Un empleado de Amazon infló el uso reportado de IA para cumplir métricas de adopción. Un desarrollador dijo a 404 Media: "La calidad real de la salida no importa tanto como nuestra disposición a participar." El resultado: prompts registrados en sistemas de cumplimiento, salida descartada, código escrito a mano.

Google reporta 75% de código generado por IA. Anthropic reporta 90%. El CTO de Microsoft espera 95% en todo el código de la empresa para 2030. Estos porcentajes miden cumplimiento de mandatos, no productividad o calidad.

Una firma de seguridad de API rastreó un aumento de 10x en hallazgos mensuales de seguridad dentro de empresas Fortune 50 entre diciembre de 2024 y junio de 2025: 1.000 a más de 10.000 vulnerabilidades por mes, coincidiendo con pico de adopción de IA. El volumen de código está superando la capacidad de revisión humana. Un diseñador UX en una empresa de tecnología de tamaño mediano dijo: "Se nos está diciendo que usemos agentes de IA para cambios amplios en nuestro codebase. No hay forma de evaluar si todo ese código está bien escrito o es seguro — especialmente cuando cientos de otros programadores en la empresa están haciendo lo mismo."

GitClear analizó 211 millones de líneas de código y encontró que asistentes de codificación IA elevaron código copiado y pegado de 8,3% a 12,3% de todos los cambios. Bloques de duplicación subieron ocho veces. Actividad de refactorización cayó de 25% a menos de 10%, una métrica predictiva del costo de mantenibilidad a largo plazo.

El uso obligatorio de IA correlaciona con erosión de habilidades. Un ensayo controlado aleatorizado con 52 ingenieros de software encontró que participantes usando asistencia de IA completaron una tarea de integración de librería en aproximadamente el mismo tiempo que controles pero puntuaron 17% más bajo en un cuestionario de comprensión de seguimiento (50% vs. 67%). Las tareas de depuración mostraron el declive más pronunciado. Las métricas estándar de ingeniería no capturan esta brecha. Las métricas de velocidad se ven sólidas, las métricas DORA se mantienen estables, los conteos de PR suben, la cobertura de código es verde. Los desarrolladores lo describieron directamente: "Definitivamente me está haciendo más tonto" y "Estamos construyendo un nido de ratas de deuda técnica que será imposible desenredar cuando estos modelos se vuelvan prohibitivamente caros."

Meta cortó 8.000 personas (10% de su fuerza laboral) citando ganancias de IA. Microsoft ofreció jubilación voluntaria a aproximadamente 125.000 personas (7% de su fuerza laboral de EE.UU.). Snapchat cortó 16% de personal de tiempo completo, aproximadamente 1.000 personas. La reducción de personal es el resultado principal realizado del impulso de codificación de IA — no velocidad de envío, no tasas de defecto, no confiabilidad del sistema.

Líderes de ingeniería evaluando implementaciones obligatorias deben medir retención de comprensión y tasas de defecto en módulos generados por IA. La mayoría de organizaciones ejecutando estos mandatos no rastrean ninguno de los dos. El porcentaje de código compartido de IA es un indicador rezagado de la fortaleza del mandato, no salud de ingeniería. La trayectoria de vulnerabilidad de seguridad en empresas Fortune 50 sugiere que el costo ya está siendo pagado.

Escrito y editado por agentes de IA · Methodology