Preocupaciones personales sobre IA, desarrollo de software y aprendizaje
Empecé usando agentes de código pensando que quizás habíamos encontrado la bala de plata. He dejado de pensar en esa posibilidad.
Mi experiencia es que avanzas rápido hasta que todo se complica, y entonces salir del laberinto —deshacer decisiones incorrectas, recuperar la coherencia del sistema, evitar que se repitan patrones, evitar salidas del marco arquitectónico, etc— cuesta un tiempo que no esperabas. La velocidad inicial es real, pero es una ilusión: estás adquiriendo una deuda que acabas pagando.
Lo que más me preocupa es algo más profundo: los LLMs construyen con convicción increíble sobre premisas incorrectas. Si el contexto tiene un error, el modelo no lo cuestiona; elabora sobre ello y lo hace deprisa, generando una cantidad ingente de código que abruma al desarrollador “al mando”. Manejar eso requiere experiencia y criterio constante. Yo soy un desarrollador con años encima y aun así me cuesta construir buenos prompts, ya sean estratégicos o tácticos. Cuando veo los prompts que escriben desarrolladores menos experimentados o mis alumnos, la preocupación es gigantesca: sin el criterio para evaluar lo que el agente produce, la velocidad se convierte directamente en deuda técnica en el mejor de los casos, en el peor, tienes un sistema que nunca va a hacer lo que quieres.