(El Economista, 23-01-2026) | Mercantil, civil y administrativo
La irrupción de la inteligencia artificial en el ámbito judicial español también está dejando episodios de errores graves derivados de las llamadas "alucinaciones" de estos sistemas. Juzgados de Ceuta, Canarias y Navarra ya han registrado casos en los que se han utilizado referencias jurídicas inexistentes generadas por herramientas de IA.
Dos de estos incidentes han salido a la luz este mismo mes de enero. En uno de ellos, un abogado de Melilla presentó una queja ante el Consejo General del Poder Judicial después de que el titular del Juzgado de Instrucción número 5 de Ceuta dictara un auto apoyándose en un escrito del Ministerio Fiscal que incluía supuesta jurisprudencia del Tribunal Supremo que en realidad no existía y que había sido creada por una herramienta de inteligencia artificial.
En Canarias, el problema fue detectado antes de que tuviera mayores consecuencias. Un letrado recurrió a la IA para redactar un recurso de apelación en el que se citaban resoluciones judiciales falsas. Ante esta situación, el Tribunal Superior de Justicia de Canarias abrió una investigación para determinar si se había vulnerado el principio de buena fe procesal. El tercer caso se produjo en Navarra en 2024. Un abogado utilizó una aplicación de IA para preparar una querella e incorporó una referencia normativa errónea, concretamente un precepto del Código Penal colombiano. En este supuesto, el Tribunal Superior de Justicia de Navarra decidió archivar las actuaciones una vez que el profesional reconoció el fallo.
Estos episodios se suman a más de 800 casos documentados a nivel internacional, teniendo en cuenta únicamente aquellos que han dejado rastro público, bien porque los errores aparecen reflejados en resoluciones judiciales o porque se han impuesto sanciones. Damien Charlotin, abogado francés especializado en derecho internacional y arbitraje e investigador principal en la escuela de negocios HEC de París, mantiene un exhaustivo registro de litigios de todo el mundo afectados por el uso incorrecto de la inteligencia artificial.
Su trabajo recoge incidentes en países como Estados Unidos, Reino Unido, Canadá, Australia, Nueva Zelanda, Sudáfrica, Brasil, Argentina o Italia, en los que la IA ha generado sentencias, precedentes o referencias legales inexistentes.
Ángel Sancho, director de inteligencia artificial y sistemas de información legal en Lefebvre, explica que las tres alucinaciones más habituales de la IA en el ámbito jurídico consisten en inventar resoluciones judiciales, atribuir citas literales que nunca se han pronunciado y forzar interpretaciones de la jurisprudencia. A su juicio, el principal riesgo surge cuando los profesionales del derecho recurren a herramientas generalistas, como ChatGPT, en lugar de soluciones diseñadas específicamente para el ámbito jurídico.
Según Sancho, actualmente el uso de la IA avanza a dos velocidades. Mientras que el Ministerio de Justicia está incorporando herramientas destinadas a servir de apoyo a jueces y funcionarios, centradas en tareas como la clasificación de documentos, la elaboración de resúmenes o la búsqueda de información, en los despachos de abogados su empleo es más intenso y se utiliza como un verdadero asistente jurídico.
Pese a estos esfuerzos, advierte de que muchos usuarios no se limitan a las herramientas oficiales y recurren directamente a aplicaciones generalistas de uso libre. Estas presentan, a su juicio, dos grandes limitaciones: por un lado, su información solo está actualizada hasta una fecha determinada, a pesar de que diariamente se aprueban nuevas normas y se dictan nuevas sentencias; por otro, carecen de un criterio claro sobre el origen y la fiabilidad de los datos que ofrecen.
Sancho añade que este tipo de sistemas tienden a proporcionar respuestas que resulten satisfactorias para el usuario. Si se les solicita una sentencia sobre una materia concreta y no disponen de información fiable, recurren a patrones generales para dar una respuesta verosímil y, si se insiste, pueden llegar a inventar referencias jurídicas sin dificultad. Esta capacidad de generar contenidos plausibles, unida a la dificultad para verificar de inmediato las fuentes, convierte a los modelos generalistas en una herramienta especialmente delicada en el ámbito legal.
Desde su punto de vista, la solución pasa por una doble vía: utilizar aplicaciones especializadas y cambiar la forma en que los profesionales interactúan con la IA. En el caso de las herramientas jurídicas avanzadas, se incorporan mecanismos que obligan al sistema a ceñirse a un corpus normativo concreto, a identificar las fuentes y a ajustarse a las exigencias propias del razonamiento legal. Aun así, insiste en que la verificación final siempre debe recaer en el usuario.
En última instancia, la responsabilidad por los errores derivados del uso de la inteligencia artificial en escritos procesales o resoluciones judiciales recae en quienes la emplean, ya sean abogados, fiscales o jueces. Los letrados pueden enfrentarse a sanciones disciplinarias tanto en el ámbito procesal como colegial, mientras que los jueces cuentan también con mecanismos de control y corrección por falta de diligencia. En Estados Unidos, no obstante, los tribunales están mostrando una mayor indulgencia con los ciudadanos que se representan a sí mismos y que, de forma incorrecta, utilizan la IA para preparar su defensa.