Vale.
Hoy vengo a advertiros de un tema curioso en el uso de modelos de IA.
Los modelos de IA tienen un sesgo peligroso: asumen que tu premisa es correcta porque eres TÚ.
¿Por qué es esto especialmente peligroso en derecho?
Porque el derecho no funciona como las matemáticas.
En matemáticas, si 2+2=5 está mal, es obvio.
En derecho, un argumento puede SONAR perfectamente razonable, estar bien estructurado, tener citas correctas... y ser completamente inválido.
Y si el modelo asume que tu premisa es buena, te va a construir un castillo de naipes que parece el puto Taj Mahal.
Ejemplo real:
Mal: "Creo que esta cláusula de confidencialidad es nula por abusiva. Por motivo X e Y ¿Tiene sentido mi razonamiento?"
→ El modelo te dice que “POR SUPUESTO OH DIOS DEL DERECHO DESCENDIENTE DE SAN RAIMUNDO DE PEÑAFORT...”
→ El problema: tu razonamiento tiene claramente flecos sueltos y tú acabas de validarlo perdiendo credibilidad ante la contraparte o peor, dándole un caballo de Troya para colarse...
Bien: " Creo que esta cláusula de confidencialidad es nula por abusiva. Por motivo X e Y. Quiero que uses razonamiento crítico para responderme. No infieras que mi premisa es válida por el mero hecho de plantearla. Sé determinista. ¿Es realmente abusiva o estoy forzando un argumento?"
Esta coletilla es un remedio contra la vanidad del abogado.
Cópiala. Pégala. Úsala cada vez que quieras validar un argumento jurídico:
"Quiero que uses razonamiento crítico para responderme. No infieras que mi premisa es válida por el mero hecho de plantearla. Sé determinista."
¿Cuándo la usas?
Siempre que veas que el modelo de IA te está dando excesivamente la razón. Sobre todo, cuando estás viendo que todo es sospechosamente perfecto. Especialmente si es una materia nueva sobre la que estás investigando o un supuesto de hecho gris que PARECE que encaja como anillo al dedo.
¿Por qué funciona?
Porque le estás dando permiso explícito al modelo para contradecirte.
Sin esa instrucción, el modelo opera bajo un sesgo de colaboración: "el usuario me pregunta esto, así que debe tener sentido ayudarle en esa dirección".
Con la instrucción, el modelo cambia de modo: "el usuario quiere que le diga la verdad, aunque le joda el argumento".
A veces lo que más necesitas NO es que la IA te dé la razón.
Es que te diga que estás equivocado ANTES de que lo descubras delante del juez.
O del cliente.
O de la contraparte.
La tentación de "llenarte de razón" con ayuda de IA es real.
Y es peligrosa.
Porque el modelo te va a dar argumentos aparentemente brillantes para defender casi cualquier cosa.
Aunque esa cosa sea indefendible.
Ya os pasé en su día un prompt de sparring legal en su momento, que hace esto exprofeso, pero eso requiere que le cuentes TODO y analiza el caso para pegarte muy fuerte. Esto es más bien algo que debes usar cuando tu conversación se ha ido “viciando” de ese aroma a “qué bonito es todo” lo que me está diciendo.
Te va a hacer quedar como un idiota delante de tu portátil.
Pero te va a evitar quedar como un idiota delante de quien importa.
Seguimos.
P.D.: Si el modelo te dice que tu argumento es débil después de añadir esta coletilla, al menos plantéate que igual hay que mirarlo todo otra vez. No busques otro modelo que te dé la razón. Eso es sesgo de confirmación, pero con esteroides.
