La inteligencia artificial está hoy tan presente en nuestras vidas que ya no es solo una herramienta tecnológica, sino una constante en nuestro entorno cotidiano. Si no lo crees, intenta detenerte un momento y contar las veces que, a lo largo del día, lees algún artículo sobre el tema, escuchas un comentario en la radio o alguien menciona las siglas IA en una conversación de pasillo. Lo que hace apenas unos años parecía ciencia ficción o una curiosidad para entusiastas de la programación, se ha convertido en el ruido de fondo de nuestra sociedad actual.

A pesar de que la inteligencia artificial es un fenómeno cuyas primeras menciones se remontan a mitad del siglo XX, su aplicación práctica en el mundo del derecho y, de manera más específica, en el ámbito de la justicia, se presenta como algo sumamente tardío y novedoso.

Sin embargo, era solo cuestión de tiempo que la inteligencia artificial acabara salpicando a lo que parecía ser una justicia impermeable y, en este contexto, recientemente ha salido a la palestra la Instrucción 2/2026 del Consejo General del Poder Judicial, un documento que marca un antes y un después en nuestra relación con la tecnología. 

Por este motivo, el objeto de esta entrada es analizar cuál es el panorama o situación que ha dejado esta nueva norma, examinando de forma pormenorizada las herramientas que los jueces y magistrados tenemos permitido usar en la actualidad.

Un sucinto análisis del contexto normativo

Sin ánimo de ser exhaustivo ni desviarme del foco principal, creo que es necesario hacer una breve referencia al marco normativo en el que nos hemos movido hasta ahora para entender dónde estamos, pues hasta hace muy poco nos encontrábamos en un escenario donde la falta de una hoja de ruta clara generaba una parálisis por incertidumbre.

Desde una perspectiva europea, este vacío comenzó a llenarse con la Carta Ética Europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno, aprobada por la Comisión Europea para la Eficiencia de la Justicia en diciembre de 2018. Este documento fue pionero en el panorama europeo al establecer cinco principios fundamentales que deben regir cualquier avance tecnológico en nuestra profesión: el principio de respeto de los derechos fundamentales, el principio de no discriminación, el principio de calidad y seguridad, el principio de transparencia, neutralidad e integridad intelectual y, finalmente, el principio de control del usuario.

Posteriormente, contamos con la aprobación del Reglamento (UE) 2024/1689. Esta normativa es clave porque clasifica a la inteligencia artificial empleada en la justicia como un sistema de alto riesgo, debido a que su uso puede tener un impacto relevante en los derechos fundamentales de las personas e influir en decisiones críticas, estableciendo por ello una serie de garantías técnicas y de control humano ineludibles.

Sin embargo, todas estas disposiciones de las que hemos hablados se limitan a establecer una suerte de marco general que define los estándares de seguridad y ética a nivel europeo, pero no contiene instrucciones concretas dirigidas a jueces y magistrados.

Para dar respuesta a esta necesidad de concreción y guiar a los profesionales en su día a día, surgió la Política de uso de la Inteligencia Artificial en la Administración de Justicia aprobada por el Comité Técnico Estatal de la Administración Judicial Electrónica. Con este documento se empezó a consagrar un marco de actuación mucho más específico que el reglamento europeo.

La política de uso establece una clasificación clara al distinguir entre usos permitidos, aquellos que requieren una autorización previa y los que están terminantemente prohibidos, pero en cualquier caso, en su apartado 1.5, establece una prohibición genérica: no utilizar aplicaciones de IA que no hayan sido autorizadas.

Este ha sido, precisamente, el espíritu que ha seguido la Instrucción 2/2026 del Consejo General del Poder Judicial, pues en en su apartado 5.1, establece de forma categórica que en el ejercicio de la actividad jurisdiccional, los jueces, juezas, magistrados y magistradas podrán utilizar única y exclusivamente aquellos sistemas de IA, incluidas las herramientas de IA generativa, que les sean facilitados por las Administraciones competentes en materia de justicia o por el Consejo General del Poder Judicial. 

Panorama actual

La pregunta que surge de manera inmediata es: entonces... ¿Qué hacemos? ¿Qué herramientas tenemos realmente a nuestra disposición bajo este nuevo marco normativo?

En primer lugar, las herramientas oficiales y seguras que tenemos con total certeza a nuestra disposición son las que se ofrecen a través del KENDOJ, y su acceso se produce desde la propia página del CENDOJ, seleccionando en el margen izquierdo el apartado correspondiente. 

En la propia web se detalla que KENDOJ (Knowledge Extractor for CENDOJ) es un sistema de procesamiento de documentos jurídicos en español, fundamentalmente resoluciones judiciales, cuyo objetivo es extraer datos normalizados que sirvan para enriquecer el Fondo Documental de la plataforma.

De entre sus funciones destacan:

1)

  

La opción de seudonimización permite al usuario detectar y reemplazar los datos sensibles por otros inventados como individuos, direcciones, DNIs, teléfonos, hasta más de 30 tipos de datos distintos.

Considero que es una herramienta sublime. Yo desarrollé por mis propios medios una herramienta de seudonimización muy parecida pero menos ambiciosa y con menos potencial. Creo que tanto la interfaz como su funcionalidad es de sobresaliente, y demuestra que se pueden hacer muy bien las cosas.

2)

  

El apartado de clasificación y citas permite al usuario subir un documento, detectar automáticamente los temas (llamados voces) que se encuentran clasificados internamente en base al tesauro CENDOJ y también detectar las citas a legislación y jurisprudencia del documento subido.

Lo cierto es que no le he dado uso y dudo que lo haga, pero puede que para jurisdicciones o casos muy concretos puede llegar a ser un buen aliado.

3)



La herramienta de resumen automático permite al usuario subir un documento, ya sea una resolución judicial o de otra naturaleza, y extraer un resumen.

Las veces que lo he probado ha hecho un buen trabajo. Quizás me gustaría que existiera la posibilidad de introducir qué tipo de resumen quiero obtener, pues el prompt (la instrucción que se manda a la IA) se encuentra completamente vedado, y es posible que en alguna ocasión quiera obtener un resumen que se centre en algún aspecto concreto, o un resumen más esquemático... y todas esas opciones, de momento, no existen.

4)

Permite al usuario subir un documento y realizar preguntas sobre el mismo. 

Posiblemente es la herramienta que menos me gusta de todas. Se nota que el prompt que subyace ha sido forzadamente restringido hasta un nivel un tanto desesperante y hasta el punto que si en el documento figura una parte como "recurrente" y le preguntas ¿Quién es el apelante?, colapsa y aparece el error: Lo siento, no puedo responder a esa pregunta. También reconozco que he tratado de buscarle las cosquillas para tratar de lograr que hiciera tímidamente alguna otra acción para la que no ha sido programada como tal, y el resultado ha sido siempre el mismo: Lo siento, no puedo responder a esa pregunta.

¿Y ahora qué?

Todas las herramientas anteriores son, sin duda alguna, una gran aportación a la carrera judicial, si bien reconozco que tienen, para mí, algunos problemas logísticos, como el hecho de que en ocasiones tardo más en realizar todo el recorrido técnico para llegar a acceder a las mismas que en resolver la tarea manualmente.

Sin embargo, el problema más evidente es que no disponemos de un sistema de IA generativa de propósito general. Aunque las utilidades específicas de KENDOJ cumplen su función, se echa en falta la flexibilidad que aporta un modelo de lenguaje de gran escala en el que la interfaz conversacional permita una interacción fluida con la información. Al estar limitados a herramientas con tareas tan estancas y prompts tan sumamente restringidos, perdemos esa capacidad de razonamiento transversal que un modelo más versátil nos ofrecería.

Pese a esta carencia de una herramienta institucional de tipo generalista, hay que tener en cuenta que el artículo 9.1 y el 9.2 de la instrucción nos dejan una puerta abierta al uso de modelos comerciales, pues si bien el primer apartado prohíbe su uso para el ejercicio de la actividad jurisdiccional propiamente dicha, el segundo aclara que los jueces y magistrados podremos utilizar estos sistemas de IA para finalidades de preparación o estudio, tales como la elaboración de resúmenes, traducciones o el análisis de fuentes jurídicas, doctrinales o técnicas, siempre que la información utilizada proceda única y exclusivamente de fuentes abiertas. 

Esto significa que podemos seguir aprovechando la potencia de los LLM externos como Chatgpt o Gemini, pero bajo la estricta vigilancia de que solo manejen datos públicos y se queden en la fase previa al dictado de nuestras resoluciones.

Sea como fuere, y al margen de estos usos tasados, ¿existe alguna plataforma de IA generativa que podamos usar con carácter general? La respuesta no es sencilla, y mi postura más honesta es decir que no lo sé. Realmente no sé si existe alguna de forma oficial, pero se me viene una a la cabeza que sin duda sería la más prudente porque, a priori, cumple con todos los requisitos que establece la normativa vigente.


Esa opción, a mi entender, es Microsoft 365 Copilot, una herramienta de inteligencia artificial generativa diseñada específicamente para el entorno profesional consistente en un asistente de procesamiento de texto y datos pensado para optimizar tareas mecánicas y de análisis dentro de nuestro flujo de trabajo habitual.

Los argumentos que sustentan que esta es la vía más adecuada bajo el nuevo marco normativo son los siguientes:

  • Cumplimiento del suministro oficial: La instrucción prohíbe el uso de sistemas que no hayan sido facilitados por el CGPJ o la administración competente. Dado que Copilot 365 forma parte del paquete de productos contratado por la institución y se facilita oficialmente a la carrera judicial a través de sus cuentas de correo electrónico corporativas, su uso se ajusta, al menos indirecta o tangencialmente, al marco de herramientas autorizadas.
  • Protección de datos: Las inteligencias artificiales generativas comerciales se caracterizan por entrenar sus modelos en base a los datos que introducen los usuarios, lo cual implica que no existe una verdadera protección de la información, ya que lo que escribimos puede acabar formando parte del conocimiento global del sistema. Sin embargo, en la versión institucional que tenemos a nuestra disposición opera un régimen radicalmente distinto: la Protección de Datos Empresariales (EDP). Bajo el protocolo EDP, se garantiza que los datos vertidos en los prompts, así como los documentos analizados, no pasan a formar parte de la base de entrenamiento de los modelos globales de lenguaje de OpenAI o Microsoft. Esto asegura que la propiedad intelectual y los datos del juzgado no puedan ser replicados o filtrados en consultas de terceros fuera de la organización.

Por todo lo anterior considero que si existe una herramienta de inteligencia artificial generativa cuyo uso pudiera ser considerado el más prudente, esa sería Copilot, aunque para asegurar el tiro siempre podría usarse la herramienta de anonimización del CGPJ antes de ingresar los datos al sistema. No obstante, y en puridad, creo que los protocolos EDP que hemos explicado y los propios términos de uso de Microsoft aseguran esta privacidad. 

No obstante, lo conveniente sería que el Consejo se pronunciara acerca de la posibilidad o no de su uso pues, de lo contrario, seguiremos en un terreno pantanoso incompatible con la certeza que requiere este tipo de interacciones.

En conclusión...

A modo de conclusión, considero positiva la existencia de unas líneas básicas de uso de inteligencia artificial en nuestra labor diaria, si bien la realidad es que todavía falta mucho camino por recorrer para cubrir las necesidades reales del día a día.

No podemos obviar que la brecha digital es peligrosa, porque mientras nosotros debatimos sobre el sexo de los ángeles, el resto de operadores jurídicos ya utilizan sistemas de IA generativa para optimizar sus recursos. Si no somos capaces de integrar esta tecnología de forma segura y eficaz acabaremos yendo, como siempre, diez pasos por detrás. 

Es posible que el Consejo no haya puesto todavía a nuestra disposición soluciones de IA generativa por ese miedo latente a que se empleen de forma indebida. No obstante, este enfoque me parecería un error estratégico de calado. 

La solución no reside en la prohibición, sino en la formación profunda y la transparencia absoluta. Es imperativo explicar qué es exactamente una alucinación del modelo y proporcionar pautas claras sobre cómo detectarla, insistiendo en por qué la revisión humana debe ser un paso obligatorio y no opcional. Debemos formar a los compañeros en la identificación de los sesgos algorítmicos que pueden contaminar el razonamiento y abordar conceptos complejos como el alignment faking donde la IA parece darnos la razón de forma complaciente simplemente para satisfacer nuestras expectativas. Solo entendiendo estos riesgos y asumiendo la necesidad de un control humano crítico podremos integrar estas herramientas sin que se conviertan en un peligro para la función jurisdiccional.

Debemos ser conscientes de que cerrar los ojos ante esta necesidad solo genera un riesgo mayor. Si la institución no ofrece de forma inminente una alternativa segura y oficial, los usuarios acabarán buscando soluciones por su cuenta en plataformas externas que quizás sean mucho menos indicadas y seguras.