Cómo uso LLMs en mi día a día sin depender de ellos

No uso un solo modelo ni lo uso para todo. Este es el workflow real después de integrar LLMs en el trabajo diario.

J

Josse

· 3 min lectura · iaworkflow

La mayoría de contenido sobre IA en el trabajo cae en dos extremos: “cambia todo” o “es puro hype”. Ninguno describe bien cómo se ve la integración real después de varios meses de uso diario.

Este es mi workflow actual.

Modelo por tarea, no un modelo para todo

Uso modelos distintos según el tipo de trabajo:

Para explorar repos grandes o documentación extensa — Gemini CLI, por el contexto de 1 millón de tokens. Para código rutinario y refactors mecánicos — modelos más baratos o Copilot. Para decisiones de arquitectura o debugging complejo — Claude Sonnet. Para tareas privadas con información sensible — modelos locales, sin red.

El criterio no es “¿cuál modelo es mejor?” sino “¿cuál modelo es suficiente para esta tarea específica?” Usar el modelo más capaz para todo es como usar un martillo neumático para clavar un cuadro.

Contexto persistente vía vault

El problema más común con LLMs es tener que re-explicar contexto en cada sesión. Quién eres, qué estás construyendo, qué reglas aplican.

Mi solución es tener memoria estructurada en el vault que los modelos leen al inicio. No es perfecto — los modelos no recuerdan entre sesiones — pero hace que cada sesión arranque con suficiente contexto para ser útil sin que yo tenga que repetir lo mismo cada vez.

Automatizaciones con n8n

Para flujos repetitivos — captura de información, procesamiento de datos, notificaciones — uso n8n con llamadas a modelos donde tiene sentido. El modelo no es el centro del flujo, es una herramienta dentro de él.

Esto cambia cómo piensas en IA para trabajo real: no es un asistente conversacional, es un componente en un pipeline con entradas y salidas definidas.

Cuándo no usar LLM

Verificación de hechos críticos. Los modelos alucinan con convicción. Para precios, APIs actuales, documentación de versiones específicas — busco la fuente directa.

Decisiones irreversibles. El modelo puede generar opciones, pero la decisión que tiene consecuencias reales requiere que yo la entienda, no que confíe en el output.

Código que no voy a leer. Si genero código que no entiendo y lo pongo en producción, el problema no es el modelo — soy yo.

Lo que no depende del modelo

Saber qué pregunta hacer. Saber evaluar si la respuesta tiene sentido. Saber cuándo el output es plausible pero incorrecto.

Esas habilidades no las reemplaza ningún modelo. Son exactamente las que se atrofian si usas LLMs como sustituto de pensar en lugar de como amplificador.