Hace ¿poco? hemos pasado de centrar todo en los prompts y de bendecir a la ingeniería de prompts la profesión más sexy del siglo XXI a hablar de contexto, contexto y contexto…
¿Qué es el contexto?
El contexto es todo lo que la IA “ve” cuando le haces una pregunta. Vale ¿Y qué ve? Pues por ejemplo:
- Los archivos que has mencionado o abierto anteriormente
- Las instrucciones del sistema y documentación
- Tu pregunta actual
- La propia respuesta de la IA
- El historial de tu conversación (lo que incluye anteriores preguntas y respuestas)
Esto es importante porque todos estos tokens se envían y usan por el modelo cada vez que mandas un mensaje.
¿Y qué son los tokens?
Los tokens son la unidad de medida de texto para los modelos de IA. Más o menos:
- 1 token ≈ 4 caracteres o ¾ de una palabra en inglés
- Una frase típica tiene entre 15-25 tokens
- Una pregunta como “¿Cómo añado una restricción única?” son unos 10 tokens
Como referencia… tamaño aproximado de archivos en tokens :
| Tamaño | Tokens | Ejemplo |
|---|---|---|
| 1 KB | ~250 | Archivo de configuración pequeño |
| 5 KB | ~1.250 | Archivo de código típico |
| 20 KB | ~5.000 | Módulo grande |
| 100 KB | ~25.000 | Archivo muy grande |
Cuando mencionas un archivo, el archivo entero se añade al contexto… cada vez que envías un mensaje.
Por qué esto importa (y mucho)
1. El coste del servicio se calcula por tokens
Cada token en tu contexto cuesta dinero —tanto de entrada (lo que envías) como de salida (lo que genera la IA). Una conversación con 50K tokens de contexto cuesta significativamente más que una con 5K tokens.
Ejemplo:
- Pregunta simple con contexto mínimo: ~2K tokens → coste bajo
- La misma pregunta con 5 archivos grandes mencionados: ~50K tokens → potencialmente 25 veces más caro
2. Más contexto ≠ mejores resultados
Esto puede ser contraintuitivo, pero más contexto puede empeorar la calidad de las respuestas. ¿Y eso?:
- Pues porque la IA puede distraerse con información irrelevante
- Los detalles importantes se “pierden” en un mar de texto
- El modelo tiene que decidir qué es relevante, y no siempre acierta
- El tiempo de respuesta aumenta con el tamaño del contexto
Una pregunta enfocada con el contexto justo y necesario superará siempre a una pregunta vaga con todo adjuntado “por si acaso”
Recomendaciones
Muy bien. Entendido. ¿Y qué puedo hacer al respecto, así en claro? Venga, aquí van 5 recomendaciones sencillísimas a vuela pluma. Pero si se te ocurren otras… soy todo oídos y los posts se modifican…
- Empieza conversaciones nuevas para temas no relacionados. Cada nueva pregunta en el mismo chat arrastra todo el contexto anterior. Si cambias de tarea, abre una conversación nueva.
- Sé selectivo con los archivos que mencionas con @. Incluye solo los directamente relevantes para tu pregunta. Si necesitas contexto de un archivo grande, considera copiar solo la función o sección relevante.
- Pregunta sobre secciones específicas. En lugar de “revisa este archivo”, prueba con “revisa la lógica de validación en la función handleSubmit” o copia directamente el texto que quieres poner sobre la mesa. Esto enfoca la atención de la IA y normalmente produce mejores resultados.
- Usa chats separados para tareas distintas. ¿Estás trabajando en un nuevo diseño de página web y también en una descripción de puesto? Usa dos conversaciones. Esto mantiene cada contexto enfocado y evita contaminación cruzada.
- Resume y reinicia conversaciones largas. Si una conversación ha crecido mucho, considera pedir a la IA que resuma las decisiones clave, y luego empieza de nuevo con ese resumen.
- Había dicho 5, pero esta va de bonus. Utiliza siempre que puedas el descubrimiento progresivo. O progressive disclosure en la lengua del imperio. ¿Qué es esto? Viene un post nuevo la semana que viene.
Estos 6 mandamientos se encierran en tres
Antes de enviar un mensaje, pregúntate:
- ¿Necesito todos estos archivos en el contexto, o solo uno o dos?
- ¿Esto está relacionado con mis preguntas anteriores, o debería empezar de nuevo?
- ¿Puedo ser más específico sobre lo que necesito?
Ser consciente del contexto nos ayuda a usar las herramientas de IA de forma más efectiva. Y barata.


Leave a Reply