¿Pueden los jueces usar ChatGPT en España en 2026? La Instrucción que regula y limita el uso de IA en la función jurisdiccional

¿Pueden los jueces usar ChatGPT en España en 2026? La Instrucción que regula y limita el uso de IA en la función jurisdiccional

Brain Code |

Fecha de entrada en vigor: 30 de enero de 2026
Norma aplicable: Instrucción 2/2026 del Pleno del Consejo General del Poder Judicial (BOE-A-2026-2205)

Desde el 30 de enero de 2026, los jueces en España no pueden utilizar herramientas de inteligencia artificial no autorizadas —incluida IA generativa pública— para redactar resoluciones, analizar pruebas o tratar datos judiciales.

Solo podrán emplear sistemas de inteligencia artificial:

  • Facilitados por la Administración competente o por el CGPJ.
  • Sometidos a control institucional, auditoría y supervisión.
  • Bajo revisión, validación y asunción personal del juez.

La responsabilidad de la resolución judicial continúa siendo exclusiva del juez.

Qué regula exactamente la Instrucción 2/2026

La Instrucción 2/2026 establece criterios obligatorios para el uso de sistemas de inteligencia artificial por jueces y magistrados en el ejercicio de la función jurisdiccional.

No se trata de una guía ética ni de una recomendación técnica. Es una norma vinculante que delimita jurídicamente cómo puede utilizarse la IA en la Justicia española.

Se integra con:

  • El Reglamento (UE) 2024/1689 (AI Act).
  • El Real Decreto-ley 6/2023 sobre digitalización de la Justicia.
  • La Política de uso de la IA en la Administración de Justicia aprobada por el CTEAJE en 2024.

Con esta instrucción, el uso de IA en tribunales deja de estar en una zona interpretativa y pasa a estar formalmente regulado.

Prohibición de utilizar IA no autorizada en la función jurisdiccional

Los jueces solo podrán utilizar sistemas de inteligencia artificial que hayan sido:

  • Facilitados por las Administraciones competentes en materia de Justicia.
  • O facilitados por el propio CGPJ.
  • Y sometidos a auditoría y control institucional.

Queda prohibido el uso de herramientas externas no autorizadas para el ejercicio de la actividad jurisdiccional.

Un juez no puede utilizar herramientas públicas de IA generativa para:

  • Redactar sentencias.
  • Analizar pruebas.
  • Introducir datos judiciales.
  • Elaborar resoluciones con información del procedimiento.

Solo podrían emplearse sistemas no autorizados para fines de estudio o preparación, utilizando exclusivamente fuentes abiertas y sin incorporar datos judiciales.

El modelo resultante es un sistema de IA institucional, auditado y bajo control público.

La IA no puede sustituir ni condicionar al juez

La instrucción establece principios estructurales claros:

  • Control humano efectivo.
  • No sustitución del juez.
  • Responsabilidad judicial exclusiva.
  • Independencia judicial plena.

La inteligencia artificial no puede:

  • Tomar decisiones judiciales.
  • Valorar hechos o pruebas.
  • Interpretar y aplicar el Derecho de forma autónoma.
  • Condicionar directa o indirectamente la libertad de criterio del juez.

El juez sigue siendo el único titular de la potestad jurisdiccional.

Los borradores generados por IA no son decisiones automatizadas

La norma permite la generación de borradores de resoluciones mediante IA, pero bajo límites estrictos:

  • Solo con sistemas autorizados.
  • Siempre como instrumento de apoyo.
  • Con revisión y validación personal, completa y crítica del juez.
  • Sin que el borrador tenga consideración de decisión automatizada.

El sistema debe garantizar que:

  • El borrador se genere únicamente a voluntad del juez.
  • Pueda modificarse libremente antes de su validación.

Se preserva así el cumplimiento del marco europeo sobre decisiones automatizadas y la estructura constitucional del poder judicial.

Prohibición de perfilado y justicia predictiva sin habilitación legal

La Instrucción 2/2026 prohíbe el uso de sistemas de IA para:

  • Perfilado de personas.
  • Predicción de comportamientos.
  • Evaluación de riesgos.
  • Clasificación de sujetos.

Salvo que exista habilitación normativa expresa.

En la práctica, se limita la implantación de modelos de scoring predictivo en el ámbito jurisdiccional sin base legal específica, en línea con el tratamiento de los sistemas de alto riesgo en el AI Act.

Refuerzo de la protección de datos y soberanía del dato judicial

La norma incorpora exigencias estrictas en materia de protección de datos:

  • Prohibición de introducir datos judiciales en sistemas no autorizados.
  • Prohibición de tratamiento masivo o indiscriminado.
  • Aplicación del principio de necesidad y proporcionalidad.
  • Obligación de medidas técnicas y organizativas que garanticen seguridad, confidencialidad y trazabilidad.

Los sistemas utilizados deben:

  • Prevenir accesos no autorizados.
  • Garantizar la trazabilidad de las operaciones.
  • Impedir la reutilización de datos para fines distintos.

Esto implica arquitecturas técnicas cerradas, auditables y bajo soberanía institucional.

Antes y después de la Instrucción 2/2026

Elemento Situación previa Situación tras 30/01/2026
Uso de IA generativa Sin marco vinculante específico Regulación expresa y obligatoria
Herramientas externas Zona interpretativa Prohibidas para datos judiciales
Borradores automáticos Proyectos piloto Permitidos solo con sistemas autorizados y validación personal
Perfilado y predicción No regulado de forma detallada Prohibido salvo habilitación legal
Responsabilidad Implícita Expresa y exclusiva del juez
Supervisión Marco organizativo Supervisión formal del CGPJ

Impacto estratégico para el ecosistema LegalTech y proveedores de IA

La instrucción eleva el umbral de entrada al mercado judicial español.

Cualquier proveedor que quiera desplegar IA en el ámbito jurisdiccional deberá acreditar:

  • Auditoría algorítmica.
  • Explicabilidad suficiente.
  • Trazabilidad completa.
  • Cumplimiento del AI Act para sistemas de alto riesgo.
  • Cumplimiento estricto del régimen de protección de datos jurisdiccionales.

Se consolida un modelo de IA institucional bajo gobernanza pública y con control reforzado del dato judicial.

Qué no hace esta norma

No prohíbe la inteligencia artificial en la Justicia.
No impide la generación de borradores.
No frena la digitalización.
No excluye la IA generativa como herramienta de apoyo.

Lo que hace es encapsular su uso dentro de un marco jurídico estricto que preserva:

  • La independencia judicial.
  • La responsabilidad personal del juez.
  • La tutela judicial efectiva.
  • La soberanía del dato jurisdiccional.

Conclusión

La Instrucción 2/2026 marca el paso desde la experimentación tecnológica hacia una gobernanza formal del uso de inteligencia artificial en la Justicia española.

España no opta por prohibir la IA judicial. Opta por institucionalizarla, auditarla y someterla a control humano efectivo dentro del perímetro de soberanía pública del dato.

Para organizaciones que trabajan en inteligencia artificial aplicada a entornos regulados —sector público, defensa, energía, salud o justicia— esta norma anticipa una tendencia clara: la eficiencia tecnológica ya no es suficiente. La gobernanza algorítmica verificable se convierte en el nuevo estándar.

En Brain and Code hemos preparado un pequeño video de 1 minuto —creado con NotebookLM— sobre esta nueva norma jurídica. Te invitamos a echarle un vistazo!
→ https://www.linkedin.com/feed/update/urn:li:activity:7424403116722147329

Leave a comment