Vale.

Si has leído el título y eres honesto me reconocerás que lo primero que te ha pasado por la cabeza es un maldito ELEFANTE ROSA.

¿Por qué?

Porque cuando intentas NO pensar en algo tu mente activa un proceso de monitoreo y empieza a buscar ese "pensamiento prohibido" para evitarlo.

Pero lo que no puede hacer es simplemente olvidarlo.

Con la IA es exactamente igual.

Se llama la técnica de las Órdenes Afirmativas.

Y es brutal para mejorar tus prompts legales.

Si usas un modelo para hacer una consulta es mucho más efectivo decir:

"Cita únicamente legislación civil en tu respuesta"

Que:

"No cites legislación penal, administrativa o laboral en tu respuesta"

¿Por qué?

Porque la mera presencia de las palabras "penal", "administrativa" y "laboral" en tu prompt aumenta la probabilidad de que la IA las incluya en su respuesta.

Aunque le estés diciendo que NO lo haga.

Es contraintuitivo, lo sé.

Pero funciona así.

Más ejemplos de cómo lo haces MAL:

"No me des una respuesta larga" "No incluyas casos internacionales" "Evita el lenguaje técnico" "No uses ejemplos de sociedades limitadas"

Y cómo deberías hacerlo:

"Dame una respuesta breve (máximo 3 párrafos)" "Cita únicamente jurisprudencia española" "Usa lenguaje sencillo para un cliente sin formación jurídica" "Centra los ejemplos en sociedades anónimas"

¿Ves el patrón?

DI LO QUE QUIERES, no lo que NO quieres.

Es como dar instrucciones a un becario.

Si le dices "no hagas esto, no hagas lo otro, no hagas aquello"... se lía.

Si le dices "haz exactamente ESTO", lo clava (o lo hace mejor…).

Pues con la IA funciona igual.

Cuanto más AFIRMATIVO seas en tus instrucciones, mejor respuesta obtienes.

Simple.

Directo.

Y jodidamente efectivo.

Pruébalo mañana en tu siguiente consulta y me cuentas.

(Y si no lo pruebas, piensa en ese elefante rosa toda la noche).

Ale, nos vemos.

Sigue leyendo

No posts found