Un Mundo Loco ●

La diferencia entre un prompt mediocre y uno que funciona no es magia. Es estructura. Esto es exactamente qué cambiar.

La diferencia entre un prompt mediocre y uno que funciona no es magia. Es estructura. Esto es exactamente qué cambiar.

La mayoría de las personas usa ChatGPT, Claude o Gemini de la misma forma que haría una búsqueda en Google: una frase corta, vaga, sin contexto. Y obtiene resultados que corresponden a esa precisión: genéricos, superficiales, frecuentemente inútiles para lo que realmente necesitaban.

El problema no es el modelo. Es el prompt.

Los modelos de lenguaje responden a la estructura y el contexto de la misma forma que un empleado inteligente pero nuevo responde a instrucciones: si le das una instrucción vaga, va a adivinar lo que querés. Si le das contexto, formato esperado, restricciones y un ejemplo, va a darte exactamente lo que pediste.

Esto no es teoría. Es la diferencia entre estos dos prompts:

Prompt vago: "Escribí un email para mi jefe"

Prompt estructurado: "Escribí un email profesional en español para mi jefa Laura, comunicando que voy a llegar tarde a la reunión de las 10am porque tuve un problema técnico con el transporte. Tono: directo, sin excusas largas. Máximo 4 oraciones. Sin saludos floridos."

El segundo prompt especifica destinatario, situación, tono, extensión y formato. El resultado va a ser utilizable directamente. El primero va a producir un email genérico que necesitará reescribirse.

Los cuatro elementos de un prompt que funciona

Las guías de ingeniería de prompts de Anthropic y OpenAI coinciden en los componentes que hacen la diferencia. No todos son necesarios en todos los casos, pero cada uno que agregás mejora el resultado.

1. Rol o perspectiva

Decirle al modelo desde qué perspectiva debe responder orienta el tono, el nivel técnico y el foco del output.

Sin rol: "Explicá la inflación"
Con rol: "Explicá la inflación como si fuera un economista explicándole a alguien de 15 años que nunca estudió economía"

El rol no tiene que ser una profesión. Puede ser una perspectiva: "Mirá este código con ojos críticos", "Respondé como alguien que está en desacuerdo con esta posición".

2. Contexto específico

El modelo no sabe nada sobre tu situación particular a menos que se lo digas. Cuanto más contexto relevante des, menos va a adivinar.

Sin contexto: "Ayudame con mi CV"
Con contexto: "Tengo un CV de 2 páginas para un puesto de diseñador UX senior. Trabajo en empresas fintech hace 6 años. El trabajo al que aplico es una startup de salud digital que valora el diseño centrado en el usuario sobre el diseño visual. Necesito reformular el resumen de 3 líneas que está al principio."

3. Formato esperado

Si no especificás el formato, el modelo va a elegir uno. A veces lo elige bien; muchas veces no.

Formatos útiles para especificar: lista con bullets, tabla comparativa, párrafos numerados, JSON, código con comentarios, respuesta en menos de X palabras, respuesta estructurada con secciones específicas.

"Respondé en tabla con columnas: Ventaja / Desventaja / Cuándo usarlo" produce un resultado directamente utilizable que no requiere reformateo.

4. Restricciones y lo que no querés

Decirle al modelo qué evitar es tan importante como decirle qué hacer.

"Sin introducciones largas", "sin mencionar marcas específicas", "sin repetir lo que ya dije en el prompt", "sin usar la palabra 'sinergias'", "no des más de 3 opciones" son restricciones que eliminan el ruido que los modelos tienden a agregar.

Chain of thought: cuando el problema es complejo

Para tareas que requieren razonamiento —análisis, diagnósticos, decisiones con múltiples variables— existe una técnica llamada chain of thought o cadena de pensamiento.

La idea es pedirle al modelo que muestre su proceso de razonamiento antes de llegar a la conclusión.

Sin chain of thought: "¿Debería aceptar esta oferta de trabajo?"

Con chain of thought: "Tengo una oferta de trabajo. Gano $2.000 ahora; la oferta es $2.400 pero requiere 2 horas más de viaje por día. Antes de darme una recomendación, analizá los trade-offs financieros, de tiempo y de calidad de vida paso a paso. Después dame tu conclusión."

El razonamiento visible te permite detectar si el modelo está usando una lógica correcta o si saltó a una conclusión basada en un error de comprensión. Y en la mayoría de los casos, el proceso de razonar paso a paso produce conclusiones más precisas que saltar directo a la respuesta.

Ejemplos de transformación real

Tarea: resumir un texto largo

Vago: "Resumí esto" [texto]

Mejor: "Resumí el siguiente texto en exactamente 5 bullets de una oración cada uno. Cada bullet debe contener un dato concreto (número, nombre, fecha o acción específica). Sin bullet de introducción ni de cierre." [texto]

---

Tarea: ayuda con código

Vago: "Mi código no funciona" [código]

Mejor: "El siguiente código en Python 3.11 debería conectarse a una API REST y devolver los primeros 10 resultados. Está devolviendo un error de timeout después de 30 segundos. Revisá el manejo de errores y sugerí al menos dos posibles causas del timeout con su corrección." [código]

---

Tarea: generar contenido

Vago: "Escribí un post para Instagram sobre mi restaurante"

Mejor: "Escribí un post para Instagram de un restaurante de cocina argentina en Madrid. El restaurante se llama La Porteña y su diferencial es que usa recetas de los años 40 con técnicas modernas. Público objetivo: argentinos expatriados y madrileños curiosos de 30-45 años. Tono: nostálgico pero no kitsch. Máximo 150 caracteres antes del primer salto de línea. Incluí entre 3 y 5 emojis relevantes y 4 hashtags al final."

Iterar es parte del proceso

Un prompt perfecto en el primer intento es la excepción. El proceso normal es: escribir un prompt, evaluar el output, identificar qué faltó o sobró, ajustar.

Las correcciones más efectivas son específicas. No "esto no está bien" sino "el tono es demasiado formal para el público que describí, hacelo más conversacional sin perder precisión".

Los modelos de lenguaje tienen memoria de la conversación: podés construir sobre lo que ya generaron. "Tomá el segundo párrafo y reescribilo con menos adjetivos" funciona mejor que empezar desde cero.

El prompt engineering no es una habilidad misteriosa. Es aplicar al lenguaje natural lo mismo que se aplica a cualquier instrucción técnica: ser específico sobre qué querés, en qué formato, con qué restricciones y desde qué perspectiva.

Fuente original: Anthropic — Prompt Engineering Overview

Fuente: Anthropic Prompt Engineering Guide / OpenAI Prompt Engineering Best Practices