Estás quemando el 80% de tu cuenta sin darte cuenta
Si usás Claude Code todos los días, probablemente estés gastando tokens en cosas que no necesitás. Saludos, explicaciones largas, archivos reescritos enteros para cambiar una línea, contexto re-leído sesión tras sesión.
Estas 5 herramientas gratis arreglan eso. Las uso yo todos los días en mis proyectos y bajaron mi consumo entre 50 y 80%, dependiendo del tipo de tarea.
¿Por qué Claude Code gasta tanto por default?
Claude está optimizado para responder con la mayor calidad posible, no con la mayor eficiencia. Eso significa que por default el modelo:
- Te saluda en cada respuesta ("Claro, excelente pregunta...")
- Reescribe archivos completos cuando le pedís cambiar una línea
- Re-lee el contexto desde cero en cada sesión nueva
- Agrega comentarios y explicaciones que no pediste
- Repite lo que dijiste antes de responder
Cada uno de estos hábitos suma tokens. En una sesión normal podés gastar 50-200 mil tokens en relleno que no aporta al resultado final.
1. Claude Token Efficient — el primer setup
Es el más fácil de los cinco. Es literalmente un archivo claude.md que pegás en la raíz de tu proyecto. El archivo le impone reglas a Claude:
- No saludes
- No expliques nada que no se haya pedido
- Cuando cambies código, devolvé solo el diff, no el archivo entero
- No repitas lo que dijo el usuario
- No agregues comentarios que no se pidan
Reduce las respuestas en 63% de palabras según pruebas de la comunidad. Instalación: 30 segundos.
2. Caveman — modo cavernícola
Este es medio gracioso pero funciona. Es una skill que activás con un comando y Claude empieza a hablar como cavernícola: solo las palabras necesarias para que se entienda, sin verbos auxiliares, sin formalidades.
Default: "Excelente pregunta. He revisado el código y noté que..." Caveman: "Bug línea 47. Falta await."
Te quita aproximadamente 65% de cada respuesta. El estilo es chocante al principio pero te acostumbrás rapidísimo, y cuando volvés al modo normal sentís que Claude habla de más.
3. Context Mode — sesiones 6× más largas
El problema más caro de Claude Code es la inflación del contexto entre prompts. Al mensaje 50 de una sesión, cada turno re-procesa ~50K tokens de historia previa.
Context Mode aplica compresión inteligente al historial:
- Elimina redundancias (cuando repetís un comando que ya corriste)
- Resume bloques que ya no son relevantes
- Mantiene los puntos clave intactos
Resultado: comprime el contexto un 98%. Tus sesiones duran 6 veces más antes de tocar el límite.
4. RTK — guardia de comandos
Cuando Claude ejecuta bash, git, npm install, etc., el output completo se le devuelve al modelo. Mucho de eso es ruido (warnings, logs verbose, deprecation notices) que no aporta al razonamiento siguiente.
RTK filtra qué información llega de vuelta al modelo. Solo deja pasar lo que es realmente relevante para la tarea en curso. Resultado: ahorra 80% del peso del feedback de comandos.
Esto es fundamental si tu workflow incluye muchas ejecuciones (instalación de paquetes, build steps, queries DB).
5. Code Review Graph — solo lee lo necesario
Por default cuando Claude trabaja en un proyecto grande, lee TODOS los archivos relacionados para entender el contexto. Pero la mayoría no son relevantes para el cambio que estás pidiendo.
Code Review Graph indexa tu proyecto en un grafo de archivos y funciones. Cuando le pedís un cambio:
- Identifica qué archivos están realmente relacionados con esa tarea
- Solo lee esos
- Hace el cambio sin tocar lo demás
Resultado: hasta 8× menos tokens leídos por cambio. En proyectos grandes la diferencia es brutal.
Cuánto ahorra cada una (estimado)
| Herramienta | Reducción típica | Setup |
|---|---|---|
| Token Efficient | ~63% en respuestas | 30 segundos |
| Caveman | ~65% en respuestas | 1 minuto |
| Context Mode | ~98% en historial | 5 minutos |
| RTK | ~80% en comandos | 5 minutos |
| Code Review Graph | hasta 8× en lecturas | 10 minutos |
Combinar las cinco te puede dar reducción total de 70-85% dependiendo del tipo de tarea.
¿Cómo arranco hoy?
- Claude Token Efficient primero — es 30 segundos y te da el mejor ratio costo/beneficio
- Code Review Graph si trabajás en proyectos grandes (10+ archivos)
- Context Mode si tus sesiones son largas y querés extenderlas
- RTK si ejecutás muchos comandos en tus sesiones
- Caveman es opcional — solo si te bancás el estilo de respuesta
Combinado con el archivo CLAUDE.md de las 8 reglas, el ahorro es brutal — sesiones que antes gastaban toda la cuenta diaria ahora gastan una fracción.
Links útiles
- Reel original: Instagram
- Anthropic prompt engineering: docs.anthropic.com
- Artículos relacionados: Cómo ahorrar 80% con CLAUDE.md, 5 proyectos gratis para mejorar Claude
¿Querés implementar el combo en tu equipo o agencia? Lo configuramos juntos en una call de 20 minutos: reservá acá.
Cinco herramientas gratis que extienden Claude Code: Superpowers, Everything Claude Code, UI/UX Pro Max, Claude Mem y N8N MCP. Pasás de chat básico a un equipo de ingeniería entero.
Preguntas frecuentes sobre ahorrar tokens en Claude Code
Claude Code por defecto está optimizado para máxima calidad de respuesta, no para ahorro. Cada vez que le pedís algo, el modelo lee toda la conversación previa, agrega contexto educativo, te saluda con frases tipo "Excelente pregunta", reescribe archivos completos cuando solo cambia una línea, y agrega comentarios y explicaciones que no pediste. Estos comportamientos son útiles cuando estás aprendiendo, pero gastan tokens innecesarios cuando ya sabés lo que querés. Para proyectos serios el costo se acumula rápido — una sesión normal puede gastar entre 50 y 200 mil tokens en cosas que no aportan al resultado final. La buena noticia es que se puede revertir con configuración simple. Para entender los principios base, leé cómo ahorrar tokens con CLAUDE.md.
Claude Token Efficient es un archivo claude.md que pegás en la raíz de tu proyecto y le impone reglas estrictas al modelo: no saludes, no expliques nada que no se haya pedido, no reescribas archivos enteros (solo diffs), no repitas lo que ya dijo el usuario. Una vez instalado, las respuestas pasan de párrafos enteros a soluciones directas — reportes de la comunidad muestran reducciones del 63% en palabras por respuesta. Es lo más fácil de instalar de las cinco herramientas: copiás el archivo y listo, sin instalación de paquetes ni configuración. Si querés ver los principios completos detrás de este approach, leé las 8 reglas del archivo CLAUDE.md, que es un superset más detallado.
Context Mode es una herramienta que comprime el historial de tu conversación con Claude entre prompts. Por defecto, cada vez que le mandás un mensaje, Claude tiene que re-procesar toda la historia previa — los primeros 5 mensajes pesan poco, pero al llegar al mensaje 50 ya estás re-procesando ~50 mil tokens en cada turno. Context Mode aplica compresión inteligente al historial, eliminando redundancias y resumiendo bloques que ya no son relevantes para el turno actual. Reportes de la comunidad indican una reducción del 98% del peso del contexto, lo que se traduce en sesiones que duran 6 veces más antes de tocar el límite. Para entender cómo se complementa con persistencia entre sesiones, leé sobre Claude Mem.
Sí, son complementarios. RTK actúa como guardia de los comandos — cuando Claude ejecuta bash, git, npm, etc., RTK filtra qué información se envía al modelo de vuelta y elimina la basura (logs verbose, warnings irrelevantes, output de comandos que no aportan al razonamiento). Esto reduce hasta un 80% el peso del feedback que el modelo procesa después de cada acción. Code Review Graph hace algo distinto pero complementario: indexa todo tu proyecto en un grafo de archivos+funciones, y cuando le pedís un cambio Claude solo lee los archivos relevantes para ese cambio en vez de leer el proyecto entero. Combinar las dos herramientas en un proyecto grande puede reducir el consumo total de tokens hasta 8x. Para profundizar en patrones de optimización, leé los 6 tips de Boris Cherny.
Fuentes e inspiración
Mirá los posts originales donde desarrollamos estas ideas en redes.
Llevate el próximo en tu inbox
NewsletterUn mail al mes con el próximo recurso.





