En las últimas semanas, el uso de la inteligencia artificial en el campo de la Justicia ha saltado a las portadas de diarios y televisiones de todo el país. Más allá de los titulares, estos episodios demuestran que el uso de esta tecnología en nuestros tribunales dejará pronto de ser noticia para convertirse en un hecho estructural. Por ello, resulta imperativo reflexionar sobre el papel que esta herramienta debe desempeñar en nuestro día a día, ya que la IA no es un fenómeno pasajero sino un cambio de paradigma presente.

Como bien sabe el lector, la IA se caracteriza por su capacidad de realizar predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales sobre la base de objetivos y reglas previamente definidas por los humanos.

La inteligencia artificial, y especialmente los modelos de lenguaje de gran tamaño (LLM) que usamos habitualmente, se nutre de todo el conocimiento humano sistematizado durante su entrenamiento para abordar los requerimientos que le formulen sus usuarios. Así, es capaz de facilitar respuestas completas y redactadas de forma exquisita en escasos segundos.

No voy a profundizar ahora en el funcionamiento interno de esta tecnología porque estoy trabajando en una entrada específica donde trataré de explicarlo en detalle. No obstante, es importante retener una idea fundamental: el nuevo paradigma del aprendizaje automático o machine learning basado en redes neuronales no consiste en que la máquina entienda conceptos de forma consciente. Ello sería algo más propio de la ciencia ficción que del nivel de la técnica de que disponemos actualmente.

En realidad, estos sistemas funcionan calculando probabilidades estadísticas para predecir la siguiente unidad de texto (conocido como token). Es un proceso similar al teclado predictivo de nuestros teléfonos pero llevado a un nivel de sofisticación inmenso. Así, tras analizar volúmenes ingentes de información, la IA ha aprendido que si escribimos el juez dictó una..., lo más probable, estadísticamente, es que la siguiente palabra sea sentencia y no telescopio. Al repetir este cálculo a gran velocidad, la IA construye discursos complejos de forma asombrosamente fluida.

Esta capacidad de anticipación y generación hace que la IA sea una herramienta extremadamente versátil. Sobre la base del entrenamiento al que ha sido sometida, puede adaptarse a tareas de naturalezas muy diversas, y tanto puede ayudarnos a cocinar el arroz en su punto perfecto dándonos instrucciones precisas, como actuar como un amigo con quien practicar inglés, o resumirnos de forma clara las noticias más destacadas del día. Esta polivalencia es precisamente la que explica su rápida penetración en todos los sectores profesionales y personales.

Como es lógico, este fenómeno también ha irrumpido con fuerza en el mundo del derecho. Cada vez es más frecuente encontrar anuncios de productos basados en inteligencia artificial aplicados específicamente al sector legal, y el concepto legaltech aparece ya íntimamente vinculado a esta tecnología. Las noticias relacionadas con estas aplicaciones se multiplican a diario, lo que confirma que estamos ante una corriente que está transformando la forma en la que los juristas nos relacionamos con la información y las normas.

Si bien podríamos dedicar un blog entero a hablar sobre como la inteligencia artificial  ha irrumpido en el mundo del derecho, voy a tratar de acotar el escenario y a reducir el foco para hablar específicamente de la inteligencia artificial en el ámbito de la labor jurisdiccional, un fenómeno respecto del cual siempre he mantenido una posición algo ambivalente.

Por un lado, observo con recelo cómo, continuamente, la IA se plantea por algunos sectores como la solución universal a todos nuestros males. Mi escepticismo nace de una realidad evidente: la última gran revolución tecnológica en nuestros juzgados consistió simplemente en sustituir las máquinas de escribir por ordenadores y procesadores de texto. Desde ese hito, que apenas supuso digitalizar el papel, parece que pretendemos saltar directamente a la automatización total mediante IA.

El problema de ello es que es un salto al vacío que ignora los pasos intermedios de modernización que otros sectores ya han consolidado. Nos hemos saltado la etapa de la verdadera gestión de datos y del software de gestión inteligente para intentar aterrizar directamente en un paradigma de algoritmos predictivos. Esta falta de madurez digital previa es la que provoca que muchas soluciones de IA se propongan hoy como parches para problemas que deberían haberse resuelto hace años con programación tradicional y bases de datos bien estructuradas.

Por ejemplo, escucho a menudo que necesitamos una IA para analizar antecedentes penales y detectar la multirreincidencia o si un antecedente es cancelable... ¿Para qué? Considerando que todos los datos se encuentran en una base de datos homogeneizada y estandarizada, una herramienta de programación tradicional puede realizar esa operación de forma exacta y sin margen de error. 

No voy a ahondar aquí en la distinción existente entre la programación tradicional y la programación en base a inteligencia artificial pues a ello pretendo dedicarle en el futuro otra entrada de este blog, pero basta con decir que, a optar por la IA en estos casos, asumimos innecesariamente el riesgo de sufrir alucinaciones o desviaciones que la programación convencional no tiene. Entiendo que para el usuario medio es más sencillo escribir un prompt en cualquier proveedor de IA general que desarrollar una herramienta específica, pero la modernización de la justicia no debe pasar obligatoriamente por la inteligencia artificial. 

No digo esto como un detractor pues, por otro lado, soy un gran defensor de que la IA sí tiene cabida en la justicia. A menudo observo cómo se publican artículos o se imparten cursos que se limitan a rascar la superficie y a tratar aspectos muy superficiales, incluso a ahogarse en un vaso de agua reduciendo la situación a la existencia de una serie de problemas que, analizados fríamente, serían fácilmente solucionables.

Porque el debate de verdad, a mi parecer, pasa por determinar el cómo y el cuándo. Debemos concretar de qué manera integramos el uso de la IA en la justicia, en qué momentos específicos establecemos los límites y bajo qué condiciones permitimos su intervención. No se trata de una aceptación ciega ni de un rechazo categórico por miedo, sino de definir un marco de actuación preciso que determine cómo deben convivir estas herramientas con la labor jurisdiccional.

Por ello, y ahondando sobre esta cuestión, entiendo que en justicia existe una labor que es ineludiblemente humana: se trata de la tarea de motivar, decidir, razonar y argumentar el porqué de una decisión. Esta es la quintaesencia de la labor jurisdiccional, porque decidir implica interpretar la norma y asumir una responsabilidad personal. Es precisamente aquí donde nosotros, como profesionales, aportamos un valor añadido que nos distingue de la máquina y que la inteligencia artificial es incapaz de imitar. Esa función debe seguir siendo siempre humana.

Más allá del acto de juzgar, la inteligencia artificial puede tener un papel determinante en una gran cantidad de labores periféricas muy alejadas de la toma de decisión jurisdiccional. Existe todo un ecosistema de tareas administrativas, procesales y de gestión donde esta tecnología puede incidir de manera muy positiva. 

La IA es capaz de extraer datos clave de documentos voluminosos, resumir actuaciones procesales complejas o automatizar las tareas de redacción más mecánicas y repetitivas. Incluso puede transcribir declaraciones o volcar datos entre distintas plataformas de gestión con una velocidad asombrosa. Al asumir esta carga de trabajo técnica, la herramienta nos devuelve la capacidad de concentrar todo nuestro esfuerzo en lo que realmente importa.

Todas estas acciones están sumamente alejadas de la toma de decisión pero es que incluso creo que la IA también puede ser útil en tareas que, sin implicar decidir, sirven para dar forma a lo que ya hemos razonado. Me refiero a utilizar la herramienta para cohesionar los argumentos que el propio juez ha seleccionado con el fin de generar un borrador estructurado. En este caso, la IA no propone el porqué ni el cómo de la decisión sino que se limita a ensamblar las ideas y criterios que el profesional le suministra. Es el humano quien aporta el material intelectual y la lógica jurídica mientras que la máquina se ocupa exclusivamente de la forma del texto, facilitando una propuesta de redacción que siempre deberá ser revisada, corregida y validada por quien ostenta la responsabilidad de juzgar.

Sin embargo, este despliegue tecnológico se enfrenta a desafíos que no podemos permitirnos ignorar:

La protección de datos

La protección de datos es el primero de estos retos. Es indudable que en los tribunales manejamos información sujeta a un estricto régimen de confidencialidad. El uso de herramientas comerciales como ChatGPT, Gemini o Claude presenta un riesgo crítico ya que estas plataformas utilizan nuestras interacciones y los textos que les facilitamos para seguir entrenando sus modelos. Esto pone en peligro el estatus de reserva de los datos judiciales que podrían acabar integrados en el corpus de conocimiento público de estas empresas.

Sin embargo, considero que este no es un problema de fondo sobre la viabilidad de la tecnología, sino estrictamente un desafío de implementación técnica. Actualmente existen alternativas que garantizan plenamente esa protección. Por ejemplo, en mis proyectos personales utilizo una API de Gemini, una modalidad para desarrolladores que asegura contractualmente la confidencialidad de los datos y garantiza que la información no se utiliza para entrenar modelos ajenos. 

Del mismo modo, la firma de convenios específicos con los proveedores para crear instancias privadas o el despliegue de modelos en servidores propios podría zanjar el asunto definitivamente. Por tanto, la privacidad no es un muro infranqueable sino una cuestión de gestión y de elegir la arquitectura técnica adecuada.

El peligro de los sesgos y la pérdida de asepsia

Otra gran crítica recurrente es que la inteligencia artificial puede heredar prejuicios que terceras personas hayan inculcado o que no hayan sido filtrados adecuadamente durante su fase de aprendizaje, pues un escenario así nos alejaría de la asepsia y la neutralidad que debe caracterizar la labor de cualquier tribunal. 

No obstante, conviene tener en cuenta que el problema de los sesgos aparece principalmente cuando dejamos que sea la máquina quien decida. Como he expuesto con anterioridad, soy partidario de que la IA nunca debe decidir, incluso aunque llegara a ser perfecta, pues esa labor es intrínsecamente humana. Si limitamos su uso a cuestiones accesorias y periféricas, eliminamos el factor de la decisión automatizada de la ecuación y, con ello, desaparece el riesgo de que un sesgo algorítmico contamine la justicia.

Incluso si tras todo lo anterior persistiera el temor a esos posibles sesgos, un simple control humano sobre la labor de la IA solucionaría la problemática. La supervisión constante por parte del profesional permite detectar cualquier desviación o matiz inapropiado en el procesamiento de la información. 

Las alucinaciones

La trampa de las alucinaciones es el desafío que más me preocupa. La IA destaca por su capacidad de generar textos con un tono totalmente convincente y seguro, pero carece de un sistema de verificación de la verdad. 

Esto da lugar a las llamadas alucinaciones, donde el sistema rellena huecos de información con datos inventados, como citas legales inexistentes o fechas erróneas. Para un juez, confiar en estas salidas de texto sin una comprobación exhaustiva supondría un error fatal.

Me inquieta especialmente porque es una cuestión estrictamente técnica que sucede de forma inherente al funcionamiento de estos modelos, lo que nos obliga a mantener una guardia permanente. No estamos ante un fallo que se pueda ignorar, sino ante una característica del sistema que exige que el profesional valide cada dato, cada fecha y cada precepto legal antes de incorporarlos a cualquier documento.

Por ello, el control humano vuelve a presentarse como algo absolutamente innegociable. Debemos asumir y entender que la inteligencia artificial puede PROPONER borradores, esquemas o estructuras, pero jamás resoluciones definitivas. 

La validación minuciosa de cada palabra y de cada dato por parte del profesional es el único dique de contención frente a estos errores técnicos, pues solo a través de esta supervisión activa podemos aprovechar la agilidad de la máquina sin sacrificar el rigor y la certeza que el ciudadano espera de la justicia.

Esta necesidad de cautela que menciono no es solo una opinión personal sino que ya cuenta con un respaldo normativo de primer nivel. El Reglamento (UE) 2024/1689 sitúa a la IA en el ámbito de la justicia como un sistema de alto riesgo, con lo que la Unión Europea reconoce así que estas herramientas pueden tener un impacto relevante en los derechos fundamentales e influir en decisiones críticas. Por ello, la norma exige la implantación de sistemas de gestión de riesgos documentados, una monitorización continua y, sobre todo, una supervisión humana efectiva.

En nuestro ámbito nacional, la Política de uso de la Inteligencia Artificial en la Administración de Justicia camina en la misma dirección. En ella se establece la prohibición de utilizar aplicaciones de IA que no hayan sido autorizadas explícitamente por la administración. 

Estas directrices confirman que el camino hacia la modernización no pasa por el uso indiscriminado de herramientas comerciales sino por un despliegue controlado, autorizado y bajo el mando final de un profesional.

En definitiva, la inteligencia artificial no ha llegado para sustituir la esencia de nuestra función sino para obligarnos a definirla mejor que nunca. Como juez y programador aficionado veo en esta tecnología una oportunidad histórica para liberar a la justicia de sus cargas más pesadas y devolvernos el tiempo necesario para pensar, razonar y decidir. 

El reto no es tecnológico, sino de responsabilidad. Si somos capaces de integrar estas herramientas con cautela, manteniendo siempre el control humano como garantía última, no solo modernizaremos los tribunales, sino que dignificaremos la labor jurisdiccional en este nuevo siglo.