Escándalo judicial: la IA inventa jurisprudencia del Supremo y un juez las usa

Jurisprudencia ficticia, IA sin control y un juez bajo sospecha: el caso que abre la caja de Pandora en la justicia española

12 de Enero de 2026
Actualizado a las 12:20h
Guardar
chat GPT-5:

La inteligencia artificial no ha tardado en irrumpir en los tribunales, y con ella llega el primer caso que pone en cuestión los límites éticos, técnicos y legales de su uso. Por primera vez en España, según ha publicado el diario El Mundo, un magistrado ha sido denunciado ante el Consejo General del Poder Judicial (CGPJ) por presuntamente emplear una herramienta de inteligencia artificial de manera indebida en la redacción de una resolución judicial. La acusación ha sido presentada contra Antonio Pastor, titular del Juzgado de Instrucción número 5 de Ceuta.

Según el abogado Rachid Mohamed Hummu, autor de la queja, el juez citó en su resolución una doctrina del Tribunal Supremo que nunca existió. La Fiscalía, sostiene el letrado, había incluido previamente dicha referencia en su informe, identificándola con número, año y fecha, y reproduciendo entre comillas una supuesta cita doctrinal. Esa cita falsa fue después incorporada por el juez a su resolución “sin ninguna verificación o control”. El resultado: la inadmisión de un recurso basada en una sentencia del Supremo que jamás fue dictada.

Automatización sin control

El problema de fondo no está en la tecnología, sino en la ausencia de filtros humanos y protocolos de verificación. El abogado describe lo ocurrido como un “fallo estructural en la elaboración y control de una resolución judicial”, más que como un error técnico. Y tiene razones: el magistrado asumió literalmente los argumentos del Ministerio Fiscal, transformando información posiblemente producida por una IA en parte integrante del razonamiento judicial.

La práctica del “copiar y pegar” jurisprudencial ha sido habitual en la justicia desde mucho antes de la IA. No hay más que ver las sentencias, autos y providencias de un famoso juez de la Audiencia Nacional para entender que el copia y pega es absolutamente una norma de trabajo. Pero lo que ahora preocupa es la velocidad y la aparente autoridad con la que los sistemas automatizados generan fragmentos de texto jurídico con apariencia de precisión, citando sentencias, numeraciones y doctrinas falsas.

Esa alucinación jurídica, como la califican algunos expertos en ética tecnológica, produce una distorsión especialmente grave en el Estado de Derecho: no solo se inventa un razonamiento, sino una fuente legal inexistente sobre la que descansa una decisión judicial.

Implicaciones sistémicas

La denuncia ante el CGPJ no es un episodio anecdótico, sino una llamada de atención sobre la fragilidad institucional ante el uso creciente de herramientas de inteligencia artificial en la Administración de Justicia. Aunque desde 2023 el Gobierno impulsa la Estrategia de Justicia 2030, que prevé la digitalización de procedimientos y la introducción de sistemas de apoyo automatizado, el marco ético y de responsabilidad sigue difuso.

El Reglamento europeo de Inteligencia Artificial, que clasifica los usos jurídicos como de “alto riesgo”, establece obligaciones claras de transparencia y supervisión humana continua. Sin embargo, el episodio de Ceuta muestra hasta qué punto la frontera entre asistencia tecnológica y delegación ciega del juicio humano puede borrarse en la práctica cotidiana.

En palabras de Mohamed, esta práctica tiene un “efecto devastador desde el punto de vista constitucional”: compromete la tutela judicial efectiva y erosiona la confianza pública en la imparcialidad y competencia de los tribunales.

La digitalización de la justicia ha sido presentada como un antídoto contra la lentitud procesal y el atasco burocrático. Pero la eficiencia tecnológica, si no se acompaña de responsabilidad, puede devenir en un riesgo sistémico. En este caso, el uso erróneo de la IA serviría como prueba empírica de una nueva forma de sesgo: la “automatización del error”, donde un fallo inicial se amplifica al ser asumido por una autoridad judicial sin contraste humano.

La situación recuerda a otros precedentes, como el del abogado en Canarias que presentó documentos presuntamente elaborados con IA y plagados de referencias inexistentes. Ambos casos exhiben el mismo patrón: citas con numeración precisa, fechas concretas y fragmentos textuales convincente, pero fabricados. La apariencia de rigor del lenguaje jurídico se convierte así en una máscara para la ficción producida por algoritmos probabilísticos.

Delegar o discernir

El debate que se abre va más allá del caso concreto. A medida que la IA se introduce en ámbitos decisionales, el gran desafío no es su uso, sino su rendición de cuentas

El caso de Ceuta es el primer síntoma visible de ese dilema en España. Marca una línea de fractura entre la promesa de la justicia digital y los riesgos de su automatización sin control. El Consejo General del Poder Judicial, que ahora deberá valorar la denuncia, se enfrenta a un precedente inédito que probablemente obligará a revisar los protocolos de uso de IA en juzgados y fiscalías.

Lo que está en juego no es solo el desenlace disciplinario de un magistrado, sino la credibilidad del sistema judicial en la era de la inteligencia artificial. En su defensa, el juez podrá alegar error material o desconocimiento técnico, pero la advertencia quedará registrada: la IA no piensa, ni verifica, ni responde jurídicamente.

El incidente de Ceuta es una lección temprana de riesgo institucional en una era de velocidad algorítmica. La justicia del futuro no solo necesitará sistemas más inteligentes, sino una ética más robusta y un control humano más exigente. Porque si la verdad puede ser generada por una máquina, la responsabilidad de comprobarla sigue siendo, irremediablemente, humana.

Lo + leído