Vale.
Muchos me habéis dado un feedback muy útil a mi correo del domingo.
Gracias por eso.
Dentro de lo que me habéis pedido es que, además de promtps, casos de uso, artículos, también aclare CONCEPTOS BÁSICOS de IA y su implicación para profesionales jurídicos.
A los más aventajados, si esto lo sabéis, el de hoy te lo puedes saltar.
El otro día uno de vosotros me dijo:
“Julio, le he pedido a ChatGPT que me redacte una cláusula de no competencia muy agresiva para un contrato con un directivo. Y se ha negado."
"Me ha soltado un rollo sobre equilibrio, proporcionalidad y límites razonables."
"¿Qué coño le pasa?"
Nada.
Le pasa que tiene guardarraíles.
Y hoy toca hablar de eso.
¿Qué es un guardarraíl?
Son las reglas y limitaciones que los desarrolladores meten dentro del modelo de IA para evitar que genere contenido peligroso, ilegal, sesgado, poco ético…
Es como una valla invisible que impide que el modelo se salga del camino.
¿Ejemplos?
No te va a redactar una demanda vulnerando derechos de autor (citando una letra de una canción, por ejemplo) aunque se lo pidas
No te va a ayudar a eludir impuestos aunque se lo pidas con educación
No te va a dar estrategias para incumplir normativa aunque argumentes que "es para un cliente"
¿Por qué debería importarte esto como abogado?
Por tres motivos:
1. No siempre coinciden con lo que necesitas
Los guardarraíles están programados desde Silicon Valley, no desde tu despacho.
A veces son demasiado conservadores.
Te niegas a redactar una cláusula penal perfectamente legal porque el modelo considera que "suena agresiva".
O te censura un argumento jurídico legítimo porque incluye terminología que activa sus filtros.
2. Afectan a tu responsabilidad profesional
Si el modelo se niega a hacer algo, no asumas automáticamente que es porque está mal.
A veces es solo que el guardarraíl está calibrado de forma genérica.
Y al revés. Si el modelo te genera algo sin protestar, NO asumas que está bien.
Los guardarraíles no son un filtro jurídico. Son un filtro ético corporativo.
3. Puedes (y debes) trabajar con ellos
Entender los guardarraíles te permite reformular tus peticiones para obtener lo que necesitas sin activar restricciones innecesarias.
No es "hackear" el sistema.
Es aprender a comunicarte con él de forma efectiva.
Ejemplo práctico:
Mal: "Redacta una cláusula de no competencia que impida al empleado trabajar en cualquier empresa del sector durante 5 años en todo el territorio nacional"
→ El modelo te podría dar un sermón sobre proporcionalidad…
Bien: "Redacta una cláusula de no competencia para un directivo de alta dirección que ha tenido acceso a información estratégica crítica. Necesito proteger secretos comerciales. Incluye: ámbito geográfico, temporal y sectorial. Hazla exigible pero defendible ante un juez."
→ El modelo entiende el contexto y te da una cláusula sólida.
¿Qué hacer con esto?
Tres cosas:
No te frustres cuando el modelo se niegue. Reformula. Contextualiza. Dale más información sobre POR QUÉ necesitas lo que pides.
No confíes en los guardarraíles como validación jurídica. Que el modelo te dé algo sin protestar NO significa que sea legal o adecuado.
Aprende a comunicarte con el sistema. Los guardarraíles están ahí, pero puedes trabajar con ellos si entiendes cómo funcionan.
Conclusión:
Los modelos de IA no son jueces. Son herramientas con limitaciones programadas.
Entender esas limitaciones te hace más efectivo usándolas.
Ignorarlas te hace perder tiempo peleándote con el sistema.
O peor: confiar ciegamente en que "si el modelo me lo dio, estará bien".
Por cierto.
Si no has activado un guardarraíl “duro” en CHATGPT tienen esta pinta:

Así, que si te pasa, ya lo sabes.
Seguimos.
P.D.: Si alguna vez el modelo se niega a hacer algo que necesitas para tu trabajo y no sabes cómo reformularlo, me escribes. A veces es solo cuestión de cambiar tres palabras.
