Uso de IA en Poder Judicial: “La responsabilidad del contenido recae sobre el funcionario”
El Poder Judicial emitió una circular el pasado 20 de febrero sobre el uso de la inteligencia artificial para regular su uso laboral en los funcionarios judiciales.
En la misma se establecen una serie de directrices para el uso de estas herramientas tecnológicas, entre ellas que la responsabilidad final sobre el contenido de cualquier resolución, oficio, informe, documento, acusación, dictamen o cualquier otro acto en ejercicio de la función jurisdiccional o administrativa, recae exclusivamente en el funcionario que lo firma.
"El lineamiento central es claro: no existe delegación de funciones en sistemas automatizados. La responsabilidad profesional y la decisión final recaen siempre en el criterio humano.
Cada servidor judicial asume el compromiso de emplear estas herramientas con prudencia tecnológica, rigurosidad técnica y absoluto respeto por la intimidad y la privacidad de los usuarios", señalaron en un comunicado acerca de los Lineamientos básicos para el uso de la Inteligencia Artificial Generativa autorizada en el Poder Judicial, aprobada por el Consejo Superior.
El documento firmado por el Lic. Carlos Toscano Mora Rodríguez, subsecretario general interino de la Corte Suprema de Justicia, está dirigido a todos los despachos judiciales, Ministerio Público, Defensa Pública, el Organismo de Investigación Judicial (OIJ), oficinas administrativas y servidores del Poder Judicial. Enfatiza que la IA es una herramienta de asistencia auxiliar y nunca un sustituto del ser humano.
Sobre la protección de datos y derecho a la intimidad, el oficio manifiesta que la anonimización manual de datos personales es obligatoria.
"Con esta disposición, la institución consolida un marco claro para el uso ético, responsable y seguro de herramientas de Inteligencia Artificial, orientado a fortalecer la eficiencia en la gestión judicial sin comprometer los derechos fundamentales de la ciudadanía.
La regulación establece directrices institucionales que garantizan la transparencia, la protección de datos personales, la confidencialidad de la información y, sobre todo, la responsabilidad humana en la toma de decisiones", agregaron en la comunicación que reconoce que la Inteligencia Artificial Generativa (GenIA) es una herramienta de apoyo para optimizar procesos, nunca un sustituto del criterio jurídico ni de las funciones esenciales que corresponden exclusivamente a los empleados judiciales.
Asimismo, señalan que se establecen lineamientos técnicos de obligatorio acatamiento para evitar la exposición de información institucional o su utilización para el entrenamiento de modelos externos.
Al respecto, el magistrado presidente de la Corte Suprema, Orlando Aguirre, adelantó que la institución realizará revisiones periódicas de estos lineamientos, reconociendo el avance acelerado de la tecnología y la necesidad de una regulación dinámica y actualizada.
"Con este paso, el Poder Judicial reafirma su compromiso con una justicia moderna, eficiente y en constante evolución, que incorpora innovación tecnológica con responsabilidad, ética y pleno respeto por los derechos de la ciudadanía", señaló Aguirre Gómez.
Evitar sesgos y discriminación
En el oficio se establece el principio de no discriminación, por lo que el empleado tiene la obligación de revisar el texto generado por la IA para detectar y eliminar cualquier producto que sea discriminatorio.
También determina el principio de evitar sesgos. "Dado que los modelos de lenguaje de la Inteligencia Artificial generativa pueden reproducir estereotipos sociales, es lineamiento obligatorio que servidor judicial analice críticamente las respuestas.
Si la IA genera una argumentación basada en estereotipos de género, raza o condición social, el funcionario debe descartar dicho resultado", indica el documento.
Además, agrega que todo borrador, resumen o texto generado por la IA debe ser revisado por el responsable, quien deberá informar expresamente sobre el uso de sistemas de IA generativa para el apoyo sustantivo de labores, tareas o actividades institucionales.
Para esto, los involucrados harán explícito en el expediente, documento o decisión, el nombre de la herramienta usada, modelo y empresa proveedora; fecha en que fue usada; además, explicarán para qué fue empleada. Para tal efecto se deberá incluir una nota al final del documento o en el expediente detallando específicamente cuál sistema se utilizó, cuándo y cómo se usó.
Acerca de la contextualización y creación de prompts (consultas), "con el fin de garantizar la veracidad de la respuesta y el respeto a las fuentes normativas aplicables al caso concreto, el servidor no debe confiar en el conocimiento pre-entrenado de la IA sobre el marco jurídico".
En cuanto a la delimitación temporal, se debe especificar la fecha de corte relevante "recordando que la IA puede tener una base de datos desactualizada".
Sin embargo, las herramientas de IA generativa no son bases de datos, sino grandes modelos de lenguaje que generan resultados de acuerdo con el entrenamiento previo que han recibido, aunque en efecto las versiones pagas suelen entregar respuestas más actualizadas que las gratuitas.
Tampoco menciona cuál de todas las soluciones disponibles en el ecosistema es la que va a usar en el sistema judicial, aunque cita programas de OpenAI y Google. Pero de igual manera no especifica si es cada usuario el que va a instalar la aplicación en un dispositivo o si la va a correr en la nube, así como la versión que va a ejecutar.
"Es responsabilidad individual de cada servidor judicial garantizar que la información institucional no sea expuesta ni utilizada para entrenar modelos externos.
Y la obligación de verificar que dentro de la configuración de privacidad se pueda deshabilitar el uso de datos para el entrenamiento", finaliza la resolución.

