Joaquín Silguero: "Tenemos que utilizar la IA como ayuda, no como sustitución al trabajo del juez"

ENTREVISTA / JORNADAS JURÍDICAS

El director del CENDOJ vuelve a Ceuta para arrojar luz sobre las aplicaciones de la inteligencia artificial en el ámbito judicial; para el apoyo de los magistrados y de los operadores jurídicos sin un coste para el ciudadano en materia de sus derechos fundamentales

El magistrado y director del Centro de Documentación judicial del Consejo General del Poder Judicial (CENDOJ), Joaquín Silguero
El magistrado y director del Centro de Documentación judicial del Consejo General del Poder Judicial (CENDOJ), Joaquín Silguero | CEDIDA

El magistrado y director del Centro de Documentación judicial del Consejo General del Poder Judicial (CENDOJ), Joaquín Silguero, regresa a Ceuta esta vez como ponente a unas jornadas jurídicas a las que acudió en 2013 como secretario general de la Administración de Justicia, entonces encargado de implementar la entonces Nueva Oficina Judicial, una reforma que hoy considera “de sentido común” y “al servicio de la función jurisdiccional”.

La conferencia de Silguero, encargado de un organismo que acumula ya más de un millón de sentencias, pretende esclarecer las dudas que arroja la inteligencia artificial (IA) en su aplicación en la justicia, con la que se muestra “vigilante” para que su uso no deje a “los derechos de los ciudadanos en papel mojado”.

Pregunta. Buenas tardes, don Joaquín. Tengo entendido que tiene usted vehículos personales con Ceuta y que, además, vuelve a las Jornadas Jurídicas después de más de 10 años y esta vez de ponente. Creo que fue en 2013 cuando acudió, pero como secretario general de la Administración de Justicia. ¿Qué opinión le merece la ciudad en el aspecto jurídico, teniendo en cuenta su condición de frontera y su reducida población?

Respuesta. Pues la verdad es que la ciudad me parece que tiene una serie de retos precisamente por eso que señala: su situación de frontera, tanto de España como de Europa. Eso conlleva comporta una serie de retos, y, por tanto, la comunidad judicial, los compañeros que trabajan allí —magistrados, fiscales, abogados, procuradores, funcionarios…— desempeñan su labor en condiciones especiales, con especial dificultad y por tanto con mucho sacrificio para que las cosas funcionen.

R. Recuerdo que cuando fui hace unos años se decidió trabajar con Ceuta porque había problemas como la división de los edificios, entre otros. El ánimo entonces fue dotarla de las reformas que ya se estaban aplicando en otras ciudades españolas. Hoy en día se vuelve a incidir en temas de reformas de justicia, pero más allá de las leyes, es fundamental el elemento humano. Y Ceuta lo tiene, desde luego.

P. Me interesa su papel en ese momento, porque creo que fue el encargado de implantar la Nueva Oficina Judicial. Echando la vista atrás, ¿qué beneficios ha aportado la Nueva Oficina Judicial y cuáles son las diferencias más significativas con el modelo anterior?

R. La Nueva Oficina Judicial pretendía aplicar una regla de sentido común: especializar a los equipos de funcionarios que desarrollan tareas distintas. Por ejemplo, las ejecuciones de los procesos —es decir, una vez dictada la sentencia, recibir por ejemplo el dinero que se le ha reconocido en el fallo—, ese tipo de actuaciones, cuanto más rápidas y eficaces sean, mejor para el ciudadano. Por eso se propusieron entonces ese tipo de servicios comunes, que no solo eran una buena idea, sino que hoy se refuerzan con la Ley de Eficiencia (Ley Orgánica 1/2025), lo que pasa es que esta da un paso más, generando también equipos especializados en la parte de los jueces, por ejemplo. De ahí surgen los tribunales de instancia, etc.

R. Humildemente, el riesgo que veo es importante que no olvidemos que todas las reformas deben estar al servicio de la función jurisdiccional. Las personas no acuden a los juzgados a ver los medios y lo bien dotados que están, sino para obtener una resolución al litigio en tiempo y en forma. Y cuanto más ágil sea la justicia, mejor. Los retrasos, por ejemplo, en la jurisdicción social o laboral, equivalen en la práctica a una denegación de justicia, con señalamientos de más de un año en algunas zonas. Eso es algo que no podemos tolerar ni como sociedad ni como sistema judicial.

P. Al igual que en aquella época, ahora también hay sindicatos opuestos a la implantación, en este caso del sistema de tribunales de instancia, y esta reforma está generando malestar aquí en Ceuta. ¿Qué opinión le merece este cambio? ¿Cree que mejorará el sistema?

R. Este cambio, sin duda, intenta mejorar la situación, pero llama la atención que la ley no haya ido dotada de unas cuantías más importantes. Como toda la ciudadanía sabe, tenemos un problema de ausencia de presupuestos, y eso dificulta afrontar grandes reformas en momentos de crisis. Por tanto, las preocupaciones de los sindicatos, aunque no conozco en detalle sus planteamientos, entiendo que provienen de una falta de inversiones suficientes en justicia, y eso es un problema que nos debe preocupar a todos.

P. Antes de entrar en la parte de inteligencia artificial, como director del CENDOJ, supongo que esta institución afronta retos más allá de la irrupción tecnológica. ¿Cuáles son esos retos y cómo los están abordando desde el CENDOJ?

R. Hablante 2: Efectivamente, el CENDOJ no solo da servicio a los jueces, sino también a toda la carrera judicial, fiscales y letrados de la Administración de Justicia. Además, una gran preocupación para nosotros es la transparencia: que la sociedad conozca lo que hacen los tribunales. En este sentido, la base de datos del CENDOJ, que se puede consultar gratuitamente, cuenta con más de un millón de sentencias tratadas informáticamente, y actualmente recibimos alrededor de dos millones y medio de búsquedas al mes, tenemos cada vez más visitas. Eso es un reto y también un acicate, porque nos obliga a trabajar en la misma línea.

R. Hace poco también hemos abierto todos los cursos de formación de forma gratuita que se ofrecen a los jueces. Este ejercicio de transparencia es muy importante. Además, seguimos trabajando con las administraciones con competencias transferidas en justicia y con el propio Ministerio para que las aplicaciones tecnológicas sean más útiles para los jueces. Y en ese sentido también estamos trabajando en temas de instrucción digital, de la cooperación internacional —como el prontuario de auxilio judicial internacional— y también en ámbitos como las bibliotecas judiciales. Estamos trabajando en muchos ámbitos y, por desgracia, con un panorama complicado, porque tenemos los presupuestos prorrogados del año 2023, y eso hace que el sector público tenga un problema a la hora de invertir en cosas nuevas. Es un momento muy delicado.

R. Hemos hecho cosas muy transformadoras. Por ejemplo, hace unos años editábamos todas las publicaciones del poder judicial en papel; y hoy todas se hacen en formato electrónico, y con el ahorro obtenido hemos podido facilitar conexión a internet securizada para que todos los jueces de España trabajen en remoto, mejorando también la conciliación familiar.

R. También seguimos centrados en prioridades fundamentales como la violencia de género, las plataformas y sistemas de discapacidad, y la accesibilidad digital. Todas las webs judiciales que gestionamos usan la plataforma Insuite, que permite acceso a personas con diversidad funcional. Además, tenemos la alegría de que ahora estamos coordinando a nivel digital la red europea de consejos generales del poder judicial. Estamos trabajando en muchos frentes y siempre con la misma vocación de servicio público.

P. Este jueves realizará su ponencia titulada ‘Aplicaciones de Inteligencia Artificial y Poder Judicial’. ¿Cómo afronta la oportunidad y qué cree que va a aportar a este foro jurídica?

R. Lo más importante es que se entienda que estamos en un momento trascendental y especialmente preocupante: se están adoptando una serie herramientas fabricadas por grandes multinacionales —norteamericanas o chinas— y se están incorporando a los procesos judiciales sin la suficiente reflexión previa.

R. En este sentido, pondré de manifiesto la importancia de la Instrucción 2/2026 del Consejo General del Poder Judicial, sobre cómo los jueces deben usar las aplicaciones de inteligencia artificial. No hace falta convertirlos en ingenieros, pero sí que tengan la suficiente información para que comprendan qué está pasando actualmente, porque el juez no solo consume IA, sino que propios pleitos ya la incorporan en muchos casos.

R. Por ejemplo, ¿en qué ha quedado la prueba hoy en día con los deepfakes y la manipulación de vídeos o imágenes? Debemos revisar la valoración de la prueba para adaptarla a estas nuevas realidades tecnológicas.

P. Una de los problemas que achaca usted al uso de la IA en el sistema judicial es que los distintos sistemas de gestión procesal no son interoperables, no comparten la misma información. Creo que podría pensarse que cuanta más información alimente a la IA, mejor funcionará. ¿Puede ser esta la solución?

R. La IA funciona mejor cuando la información es de calidad, no solo por el volumen de datos, sino también por cómo está guardada la información. Nosotros ya estamos desarrollando aplicaciones basadas en inteligencia artificial que ya están en uso “en real”, en producción, por los jueces. Son seis actualmente, y el objetivo es llegar a 10 aplicaciones para distintos casos de uso.

R. Lo importante es que avancemos hacia un uso de la IA que sea responsable, con garantías que protejan los derechos fundamentales, cumpliendo el Reglamento Europeo de IA de 2024. Sin embargo, hay muchos intereses económicos en juego, y eso está llevando, por ejemplo, a que haya negociaciones que se cruzan.

R. Por ejemplo, no es normal que el reglamento de la inteligencia artificial de la Unión Europea todavía no haya entrado en vigor en todos sus extremos, y, sin embargo, la Comisión Europea en noviembre del año pasado haya puesto un paquete de medidas, justamente, so pretexto de la simplificación de la normativa, un paquete de medidas que cambian determinados artículos que eran fundamentales para tutelar los derechos de las personas. Hace tiempo dije “cuidado con la inteligencia artificial que puede terminar dejando los derechos fundamentales de las personas en papel mojado”.

El magistrado y director del Centro de Documentación judicial del Consejo General del Poder Judicial (CENDOJ), Joaquín Silguero
El magistrado y director del Centro de Documentación judicial del Consejo General del Poder Judicial (CENDOJ), Joaquín Silguero | CEDIDA

R. Es más, incluso en China hay un tribunal de apelación que esta semana ha establecido que no se puede despedir a los trabajadores como consecuencia de que las empresas utilicen sistemas de inteligencia artificial. Deberán ser recolocados en otros departamentos, pero no despedirlos, es lo que dice el tribunal. Y estamos hablando de China. En nuestros países lo tenemos que tener mucho más claro.

R. ¿Qué es lo que pasa? Que la evolución tecnológica es tan rápida y hay tantos intereses económicos, millonarios en Estados Unidos, que muchas de las cosas que estamos haciendo, o reaccionamos ya o vamos a reaccionar tarde.

P. ¿Cuáles pueden ser los riesgos para los derechos fundamentales del ciudadano? Teniendo en cuenta que el juez es el que confía en un sistema de robotización, ¿no es el derecho a una ciencia social, precisamente, basada en el conocimiento y en la humanidad de los profesionales que la ejercen? ¿Cómo casan esos dos aspectos, los artificiales y los sociales?

R. Sí, bueno, lo fundamental es que hay que entender que la que lo que es la inteligencia artificial está aplicando en casos de la vida real. Por ejemplo, es tremendo que en este momento haya informes de la guerra en Irán, por poner un ejemplo, que demuestran que el uso de la inteligencia artificial ha llevado a elegir objetivos que no eran correctos. Es decir, ¿qué pasa cuando un sistema de inteligencia artificial alucina o se equivoca? Pues pasa en la guerra que las armas autónomas que utilizan este tipo de inteligencia, matan. Bueno, pues, en el mundo del derecho, cuando a una persona no se le da una decisión en tiempo y forma, como decía, y, además, justa… cuando no se siguen esos parámetros, todo el sistema falla. No olvidemos que los litigios y los tribunales nos ocupamos de la aplicación del derecho al caso concreto, y al colectivizarlo todo la IA, al final, bloquea. Es como si fuéramos a repetir lo que ya pasó anteriormente. Eso en la jurisprudencia no puede ser. De hecho, nosotros en el CENDOJ prompt de inteligencia artificial que hemos diseñado para hacer resúmenes de sentencias, expresamente saca los casos en que existen votos particulares. Para entendernos, cuando uno de los jueces que forma parte de un tribunal no está de acuerdo con sus compañeros.

R. Bueno, pues nosotros no solamente lo no lo ocultamos, sino que lo promovemos para que cada vez que nuestra inteligencia artificial hace un resumen de una resolución, saque esa parte también. Porque probablemente el abogado o la parte en su recurso puede utilizar ese tipo de argumentos, pero es que la vida no son blancos y negros, están los colores y los matices, y la justicia precisamente es el sitio donde se aplican en su total esplendor.

P. Parece que la IA ha venido agilizar el sistema judicial, que todo el mundo sabe que es muy lento, y a ayudarlo con el gran volumen de trabajo que enfrenta. Pero teniendo en cuenta que esto tiene errores, ¿no puede llegar a ser contraproducente que un juez o un abogado tengan que pasar más tiempo corrigiendo a la propia IA que en poner una sentencia o en formular un recurso?

R. Vamos a ver, sí. Es que esa pregunta, digamos, también me lleva a hablar de lo que estaba hablando ahora, de los matices. Vamos a ver. Hay muchos jueces en los tribunales de primera instancia que tienen 2.000 asuntos al año, por ejemplo. Eso es muchísimo.

R. Lo que pasa es que, si aplicamos el microscopio a los asuntos, veremos que dentro de esos asuntos hay muchos que son repetitivos y otros son diferentes. Para entendernos, si estuviéramos hablando de médicos, muchos son catarros que pasan al cabo de los días sin mayor afección, y otros son grandes operaciones de corazón, etcétera. Entonces, la primera cosa que tenemos que hacer en justicia es tratar distinto a lo que requiere mayor atención. Por eso es una equivocación tratar de poner números de producción en justicia. Hay asuntos que requieren mucho más estudio y son más complejos, y otros que son lo que llamamos repetitivos o casi repetitivos.

R. Tenemos que buscar formas que sean sensatas de tratar los procesos y llegar a soluciones colectivas y, por lo tanto, utilizar la IA como ayuda, no como sustitución al trabajo del juez, pero sí como apoyo al trabajo del juez, sobre todo en materias repetitivas.

P. Ha habido casos recientes de mala praxis por el uso de la IA en el sistema judicial, tanto aquí en Ceuta como en Canarias al menos. De momento, no todo el mundo reconoce que la usa, pero da la sensación que estos casos seguirán ocurriendo con más frecuencia conforme los operadores jurídicos digan que la usan. ¿Cree que habrá más casos en el futuro?

R. Sí, sí. Va a haber más casos por la sencilla razón de que en los casos de Ceuta, etcétera, que sí, que estoy al tanto, al final, de lo que estamos hablando son de problemas de alucinaciones y, por lo tanto, hablamos de citas inexistentes, de jurisprudencia o de legislación. Entonces, en eso ahí está el deber del profesional.

R. Es más, ya hay una sentencia muy interesante de la sala de lo Contencioso-Administrativo del Tribunal Supremo que es del año pasado, del 11 de diciembre, si no recuerdo mal, y, precisamente, ya establece una doctrina a nivel del Tribunal Supremo sobre otro tema muy importante relacionado, la transparencia. Es decir, para poder saber cuándo funcionan las cuestiones y este tipo de errores, necesitamos tener acceso a cómo están hechas. Entonces, en aquel caso, que fue el tema del software con el que se hace la valoración de las personas a efectos del bono social se pidió por parte de una plataforma ciudadana tener acceso al código fuente, y esa sentencia dice que tienen derecho a poder acceder al código fuente. Pero esto, que es una decisión interesante, sin embargo, frente a estos grandes modelos tipo ChatGPT o Deepseek, las grandes empresas… es que son auténticas cajas negras.

R. Entonces, el tema de la transparencia y el tema al quería unirlo, que es la verificabilidad de con qué están hechas; eso, por mucho que la legislación española y la europea estén hablando sobre estos temas, dudo mucho que sea eficaz en la práctica. Es decir, vamos a tener que estar muy vigilantes de eso y, desde luego, a nivel de juzgado habrá que dar el oportuno apoyo al juez a través de sistemas de supervisión.

R. De hecho, nosotros estamos defendiendo que el Consejo General del Poder judicial supervise la inteligencia artificial en el ámbito judicial, y el Gobierno lo ha puesto ya en un anteproyecto de ley que esperemos al final que salga. Me refiero al anteproyecto de la gobernanza y buen uso de la inteligencia artificial. Eso es muy importante. Si no tenemos la capacidad de poder supervisar cómo están hechas esas aplicaciones, lo que son las declaraciones de derechos van a quedar en papel mojado.

También te puede interesar

Lo último

stats