Vale.

Hace un par de semanas te hablé de las Instrucciones Afirmativas.

Eso de decirle a la IA "haz esto" en lugar de "no hagas aquello".

Ya sabes, el elefante rosa, y blablablá…

Funciona de la leche.

Pero en derecho hay veces que necesitas ser CLARÍSIMO sobre lo que NO puede hacer.

Porque hay errores que te cuestan el asunto. O la reputación. O ambas.

Hoy te hablo de una técnica complementaria:

Highlighting Consequences.

O en cristiano: subrayar las consecuencias de cagarla.

¿De qué va esto?

La IA no entiende consecuencias como las entendemos nosotros.

No le vas a meter miedo diciéndole "te va a caer una bronca".

Pero sí hay algo que funciona:

Advertirle explícitamente que si se salta tu instrucción, la respuesta será penalizada/rechazada/inválida.

¿Por qué funciona?

Porque el modelo prioriza evitar esa "penalización" y se concentra más en seguir tu instrucción al pie de la letra.

Es como ponerle en negrita mental: "ESTO ES CRÍTICO, NO LA CAGUES."

Ejemplo sin la técnica:

"Revisa este contrato y no incluyas opiniones personales."

Resultado: Te mete opiniones disfrazadas de análisis técnico.

Ejemplo CON la técnica:

"Revisa este contrato. CRÍTICO: Si incluyes opiniones personales o valoraciones subjetivas en lugar de análisis objetivo, la respuesta será rechazada por completo. Limítate exclusivamente a hechos verificables y citas normativas."

Resultado: Se ciñe como un clavo a los hechos.

¿Cuándo usar esto?

Cuando el margen de error sea CERO:

  • Revisión de escritos antes de presentar

  • Extracción de datos que deben ser exactos (fechas, cifras, nombres)

  • Análisis donde NO quieres interpretaciones creativas

  • Cualquier tarea donde un error te penalice extremadamente

¿Cómo aplicarlo?

Añade al final de tu prompt algo como:

"IMPORTANTE: Si [comportamiento no deseado], la respuesta será considerada inválida. Prioriza [comportamiento deseado] por encima de todo."

Parece una tontería.

Pero la diferencia en precisión es notable.

No abuses de esto.

Si TODO es crítico, NADA es crítico.

Úsalo solo cuando realmente necesites que el modelo se ponga las pilas en algo específico.

Pruébalo en tu próxima tarea donde no puedas permitirte ni un fallo.

Y me cuentas.

Seguimos.

 

P.D.: Combina esto con las Instrucciones Afirmativas que vimos hace unas semanas y tendrás prompts que le dejan claro a la IA no solo QUÉ hacer, sino también QUÉ consecuencias tiene desviarse. Funciona, créeme.

Sigue leyendo

No posts found