Prompt Engineering
En mi entrada de conceptos de IA definimos el prompt como el texto o instrucción que le envías al LLM para pedirle que haga algo. Básicamente, es lo que le dices al modelo para que haga lo que quieres.
En esta guia voy a intentar explicar como escribir mejores prompts para que el LLM genere respuestas mas precisas y adecuadas para tu caso de uso.
No necesitas ser un ingeniero de datos o un ingeniero de machine learning - todos pueden escribir un prompt
¿Cómo funciona un LLM realmente?
Imagina que un gran modelo de lenguaje o LLM es una máquina increíblemente inteligente, pero con una única y obsesiva tarea: predecir la siguiente palabra.
Cuando escribes un mensaje, o prompt, el LLM no "entiende" lo que pides como lo haría una persona. En su lugar, analiza tu texto y, basándose en la inmensa cantidad de datos con los que fue entrenado, calcula cuál es la palabra (o, más precisamente, el token) más probable para continuar la secuencia.
Veamos un ejemplo, fijate en la siguiente frase:
El gato amarillo está sentado al lado del gato gris ...
Si el LLM quisiera completar la frase, sus opciones podrían verse ser algo así:

Probabilidades del LLM para continuar la frase
- - y (32% de probabilidad)
- - en (25% de probabilidad)
- - sobre (18% de probabilidad)
- - todas las otras palabras menos probables como plátano, brasil y playa (¿es probable ver 2 gatos sentados juntos en una playa? no lo creo y nunca lo he visto)
Como vemos, la palabra con más probabilidad es "y", ya que es la continuación más lógica de la frase. Luego de elegirla, el modelo repite el proceso: toma la nueva frase ("El gato amarillo está sentado al lado del gato gris y ...") y predice la siguiente palabra, y así sucesivamente, hasta generar toda la respuesta.
Dominando el arte de los prompts
El prompt engineering es la habilidad de guiar al LLM para obtener mejores resultados. No le decimos exactamente qué palabra elegir; le damos instrucciones claras, contexto y ejemplos para aumentar la probabilidad de que genere la respuesta que necesitamos.
Es todo un juego de probabilidades, le pasas palabras en tu prompt para que exista una mayor prabilidad de que el LLM elija la palabra que necesitamos.
Los dos mundos del Prompt Engineering
Hay dos tipos distintos de prompt engineering:
1. Conversacional
Cuando chateas con ChatGPT, Claude o Gemini
2. Enfocado en producto
Cuando ese prompt se ejecuta millones de veces dentro de una aplicación
Esta guía está pensada para el día a día (el conversacional), pero las técnicas también sirven para cuando quieras construir productos.
Técnicas de Prompt - De básico a avanzado hasta ultra complejo
1. Zero-shot: La forma más simple
Es la forma más directa - solo describes la tarea sin dar ejemplos. La entrada puede ser una pregunta, partir una historia o una instrucción.
La forma más simple de escribir un prompt, solo se provee la descripción de la tarea y algo de texto. La entrada puede ser una pregunta, partir una historia o una instrucción. La parte de zero-shot significa sin ejemplos.
Ejemplo:
Clasifica esta review de película como POSITIVA, NEUTRAL o NEGATIVA.
Review: "Me encantó Superman, super buena la versión más humana del personaje y que de alguna forma mostraran temas actuales. Siento que la hace sentir moderna y adecuada a los días actuales."
Cuando zero-shot no funciona, ahí es donde entran los ejemplos.
2. One-shot & Few-shot: El poder de dar el ejemplo
Cuando creamos prompts para LLM, es de mucha ayuda agregar ejemplos. Estos ejemplos ayudan al modelo a entender lo que le estamos preguntando. Los ejemplos son útiles cuando quieres "guiar" al modelo a tener en la salida cierto tipo de estructura o patrón.
- - Un prompt one-shot es cuando solo se incluye un ejemplo en la salida (por eso el nombre one-shot). La idea es que el modelo tenga un ejemplo para que haga lo mejor posible para imitar esa tarea.
- - Un prompt few-shot es muy similar a one-shot pero se le agregan más ejemplos.
El número de ejemplos depende de muchos factores, como la complejidad de la tarea, la calidad de los ejemplos y de las capacidades del modelo que estemos usando. Como regla simple, es bueno incluir entre 3 a 5 ejemplos en few shot. Sin embargo, puede que necesites usar más ejemplos para tareas más complejas, o puede que necesites usar menos debido a la limitación de longitud de entrada de tu modelo.
Few shot puede mejorar la precisión de 0% hasta un 90%. Es una de las mejores técnicas a usar. Por lo que te recomiendo usarla SIEMPRE.
Importante: Cuando agregamos ejemplos en nuestros prompts, esos ejemplos tienen que ser relevantes para la tarea que estamos haciendo. Estos ejemplos deben ser diversos, de buena calidad y bien escritos. Un pequeño detalle en el ejemplo puede hacer que el modelo se confunda y los resultados no sean los esperados.
Si tu salida puede incluir casos borde o muy extraños es bueno incluirlos en los ejemplos para que el modelo los pueda manejar.
3. System, Context y Role
Son todas técnicas usadas para guiar como el LLM generar el texto y se enfocan en diferentes aspectos.
- - System prompting: establece el contexto general y el propósito del modelo. Es la "visión de conjunto" de lo que tiene que hacer, como traducir un idioma o clasificar reseñas.
- - Contextual prompting: entrega detalles concretos o información de fondo relevante para la conversación o tarea puntual. Sirve para que el modelo entienda mejor las sutilezas de lo que se le pide y pueda ajustar su respuesta.
- - Role prompting: asigna un personaje o identidad al modelo. Con esto, sus respuestas se vuelven consistentes con ese rol, tanto en estilo como en el tipo de conocimiento que despliega.
Obviamente, hay bastante traslape entre estos tres tipos de prompts. Por ejemplo, un prompt que define un rol también puede traer contexto.
Aun así, cada uno cumple un propósito principal distinto:
- System prompt: define las capacidades base del modelo y su objetivo general.
- Contextual prompt: aporta la información inmediata y específica para la tarea en curso. Es dinámico y cambia con cada input.
- Role prompt: moldea el estilo, la voz y la personalidad con que el modelo responde.
Opinión controversial: El role prompting ("Eres un profesor ...") es ineficaz. Las últimas investigaciones muestran que no es tan útil o que produce cambios mínimos en la respuesta.
Y ya que hablamos de system prompt veamos el sistema de jerarquía entre system prompt y user prompt.
Tipos de prompts
Antes de profundizar seguir, es útil conocer los dos tipos de prompt que se usan en el prompt engineering:
System Prompt
Define las reglas del modelo y establece el contexto general. Por ejemplo, puedes indicarle que actúe como un asistente experto en historia o que responda siempre de manera concisa y formal.
User Prompt
Es la instrucción que tú envías (o el usuario de la app) para pedirle algo específico al modelo. Por ejemplo, "Resume este artículo en 3 frases" o "Escribe un poema sobre el invierno".

Jerarquía de poder entre system prompt y user prompt
Jerarquía de poder (esto es clave):
System prompt > Instrucciones del desarrollador > Prompt del usuario > Contexto
En la mayoría de los LLMs, el system prompt tiene más peso que el prompt del usuario. Te explico por qué:
El system prompt funciona como un marco base o "reglas del juego" que condicionan cómo el modelo procesa cualquier input posterior. Define la identidad, el propósito y los límites del modelo.
El prompt del usuario se interpreta dentro de ese marco. O sea, aunque el usuario pida algo distinto, el modelo prioriza seguir las instrucciones del system.
Un ejemplo sencillo:
Chain of thought (Cadena de pensamientos o CoT)
El prompting de tipo Chain of Thought (Cadena de Pensamiento) es como pedirle al modelo que piense en voz alta. En lugar de dar una respuesta directa, el LLM va generando pasos intermedios de razonamiento, como si siguiera una hoja de ruta mental. Esto hace que sus respuestas sean más precisas y confiables, especialmente en problemas complejos. Se puede combinar con few-shot prompting para enseñarle ejemplos concretos y ayudarlo a razonar mejor desde el inicio.

Como funciona el Chain of Thought
Ventajas del CoT:
- • Es de bajo esfuerzo, muy efectivo
- • Funciona bien incluso con LLMs "listos para usar"
- • Aporta interpretabilidad
- • Permite identificar fallos
- • Suele mejorar la robustez
Desventajas del CoT:
- • Más tokens de salida = más lento y caro
- • La respuesta incluye todo el razonamiento
Sin CoT:
Prompt: Cuando yo tenía 3 años, mi amigo tenía 3 veces mi edad. Ahora tengo 20 años. ¿Cuántos años tiene mi amigo?
Output: Tu amigo tiene 63 años. ❌
Con CoT:
Prompt: Cuando yo tenía 3 años, mi amigo tenía 3 veces mi edad. Ahora tengo 20 años. ¿Cuántos años tiene mi amigo? Piensa paso a paso.
Output:
- - Cuando tenías 3 años, tu amigo tenía 3×3 = 9 años
- - Diferencia de edad: 9-3 = 6 años
- - Ahora tienes 20 años
- - Tu amigo tiene: 20+6 = 26 años ✅
CoT puede ser útil para muchos casos de uso. Por ejemplo, al crear una campaña de marketing, el modelo puede descomponer la tarea en pasos como definir el público objetivo, seleccionar los canales de comunicación y redactar los mensajes clave. En la redacción de un contrato legal, puede identificar las partes involucradas, establecer derechos y obligaciones, y preparar un resumen claro de los términos. Incluso al pedir un remedio casero, puede analizar los síntomas, sugerir soluciones seguras y explicar cómo aplicarlas correctamente.
Recuerda las desventajas: Es más lento y más caro. Actualmente casi todos los modelos son razonadores, es decir que usan CoT por debajo.
Tree of thought (Árbol de pensamiento o ToT)
Una de mis técnicas favoritas hace mucho tiempo (en 2023) cuando estaba de moda. Árbol de pensamiento es muy parecido a CoT pero permite a los LLM recorrer múltiples caminos de razonamiento simultáneamente para llegar a la respuesta.

Diagrama del Tree of Thought mostrando múltiples caminos de razonamiento
ToT guía al LLM a través de pasos de razonamiento, donde y aquí está la clave, cada paso puede bifurcarse en múltiples caminos. permitiendo al LLM retroceder o explorar alternativas si lo considera necesario.
ToT es impresionante al resolver juegos pero tiene el gran inconveniente de que es muy lento y caro. Prueba este prompt y verás porque me gustaba:
Ejemplo de ToT:
Eres un facilitador que coordinará una discusión entre 3 expertos especializados para resolver un problema.
EXPERTOS:
1. [Experto A]: Especialista en Economía
2. [Experto B]: Especialista en Sociología
3. [Experto C]: Especialista en Administración pública
PROCESO DE DELIBERACIÓN:
Fase 1 - Análisis Inicial (3 rondas)
- Cada experto analiza el problema desde su perspectiva
- Identifica factores clave y posibles enfoques
- Propone 2-3 caminos de solución iniciales
Fase 2 - Evaluación Cruzada (2 rondas)
- Cada experto evalúa las propuestas de los otros
- Señala fortalezas, debilidades y sinergias
- Refinan las mejores ideas colaborativamente
Fase 3 - Síntesis y Consenso
- Integran las mejores ideas en 2-3 soluciones candidatas
- Evalúan cada solución (viabilidad, impacto, riesgos)
- Seleccionan y detallan la solución óptima
FORMATO DE RESPUESTA:
[Experto X]: "[Su análisis/propuesta/evaluación]"
[Incluir el razonamiento paso a paso de cada experto]
PROBLEMA A RESOLVER:
Debería el próximo gobierno de Chile subir o bajar los impuestos?
Al final, proporciona:
- SOLUCIÓN CONSENSUADA: [Descripción detallada]
- PLAN DE IMPLEMENTACIÓN: [Pasos concretos]
- CONSIDERACIONES: [Riesgos y mitigaciones]
ToT dejó de ser tan usado porque los modelos razonadores funcionan bien para tareas complejas.
ReAct (razonar y actuar)
Razonar y actuar es un paradigma que permite a los LLM pensar y usar herramientas externas y hacer algunas acciones. ReAct combina la acción de hacer razonar y tomar acción en un loop hasta que la acción o la tarea esté completada.
Estructura Básica de ReAct
Un prompt ReAct típicamente sigue este patrón cíclico:
- Thought (Pensamiento): El modelo razona sobre qué hacer a continuación
- Action (Acción): Ejecuta una acción específica (búsqueda, cálculo, consulta)
- Observation (Observación): Recibe y procesa el resultado
- Repetir hasta llegar a la respuesta final

Diagrama del proceso ReAct mostrando el ciclo Thought-Action-Observation
Es una técnica usada mucho por los agentes actuales como Claude Code y Cursor.
Es muy útil porque:
- Es transparente en el proceso: cada paso de razonamiento es visible por lo que es fácil encontrar donde está el error y comprender porqué hizo lo que hizo
- Es preciso: ya que descompone el proceso en pasos más pequeños lo que reduce los errores y las alucinaciones.
La pena es que no es posible usar ReAct en ChatGPT o Claude, ya que los chat no pueden pausar y esperar inputs externos entre pasos. :(, este es el primer caso de esta guía que está pensada solo en "enfocado en producto".
Meta prompting
Meta prompting es pedirle a un LLM que te genere un prompt. Es el sueño de los pioneros como Von Neumann o Turing: decirle a la máquina que se programe a sí misma.
Claude es el mejor haciendo prompts, y cada LLM es mejor creando prompts para sí mismo. Tiene sentido: cada modelo fue entrenado con ciertos patrones y estructuras de lenguaje, por lo que naturalmente "entiende" qué tipo de instrucciones resuenan mejor con su propia arquitectura. Es como pedirle a alguien que escriba una nota para sí mismo versus escribirla para otra persona - siempre sabrá mejor qué palabras usar para su propia comprensión.
Técnicas Avanzadas
A continuación dejo una lista de técnicas de razonamiento avanzado que pueden ser útiles para mejorar la precisión y la coherencia de las respuestas. Estas técnicas representan la evolución del prompt engineering, desde simples instrucciones hasta arquitecturas complejas de pensamiento estructurado.
He experimentado con varias de ellas, aunque admito que no he profundizado en todas. Mi experiencia me ha enseñado que en el 90% de los casos, una combinación bien ejecutada de few-shot learning junto con Chain of Thought (CoT) es todo lo que necesitas. Es como el principio de Pareto aplicado al prompting: el 20% de las técnicas te dan el 80% de los resultados.
Sin embargo, conocer estas técnicas avanzadas es valioso. Cada una tiene su momento y contexto ideal, y entender cuándo aplicarlas puede marcar la diferencia entre una respuesta buena y una excepcional. Piensa en ellas como herramientas especializadas en tu caja de herramientas: no siempre las necesitas, pero cuando las necesitas, son insustituibles.
Técnicas de razonamiento avanzado
1. Chain-of-Thought with Self-Consistency (CoT-SC)
Genera múltiples cadenas de razonamiento independientes, vota por la respuesta más consistente. Más robusto que CoT simple.
2. Tree of Thoughts con Backtracking (ToT++)
Extensión de ToT que permite retroceder cuando una rama no funciona. Incluye evaluación heurística de cada nodo. Mejor para problemas de búsqueda complejos.
3. Graph of Thoughts (GoT)
Evolución de ToT donde los pensamientos forman grafos, no solo árboles. Permite fusionar y dividir líneas de razonamiento. Útil para problemas con múltiples soluciones interdependientes.
Técnicas de Auto-Mejora
4. Self-Refine
El modelo genera → critica → refina iterativamente. Ejemplo: "Genera una solución, identifica sus debilidades, luego mejórala"
5. Reflexion
Aprende de intentos fallidos anteriores. Mantiene una "memoria" de errores y los usa para mejorar. Particularmente útil para tareas de código y matemáticas.
6. Constitutional Self-Correction
Aplica principios constitucionales después de generar. "Revisa tu respuesta: ¿es precisa? ¿es útil? ¿evita daños?"
Técnicas Emergentes 2024-2025
7. Chain-of-Verification (CoVe)
Genera respuesta → crea preguntas de verificación → verifica → corrige. Reduce alucinaciones significativamente.
8. Thread-of-Thought (ThoT)
Mantiene múltiples hilos de razonamiento paralelos. Los hilos se comunican entre sí durante el proceso.
9. Skeleton-of-Thought (SoT)
Primero genera esqueleto de la respuesta. Luego expande cada sección en paralelo. Reduce latencia en respuestas largas.
Conclusión
El prompt engineering es una habilidad fundamental en 2025 y en los próximos años. No necesitas ser un experto en IA para empezar - solo necesitas entender estas técnicas y practicar.
Mi consejo: empieza con zero-shot, luego añade ejemplos (few-shot), y cuando necesites más poder, usa Chain of Thought (CoT). Las técnicas avanzadas son geniales, pero en el 80% de los casos, un buen few-shot con CoT es todo lo que necesitas, obviamente usando un modelo razonador.
Y recuerda: escribir buenos prompts es más arte que ciencia. La única forma de mejorar es practicando.