• Rodolfo Moreno Cruz
.

La semana pasada, la Suprema Corte sorprendió al publicar una tesis aislada sobre el uso de inteligencia artificial (IA) en los procesos judiciales (Registro digital: 2031010). El simple hecho ya generó titulares jugosos en redes sociales: “La inteligencia artificial llegó a la Corte”, “El futuro ya está aquí”, “La IA en México se vuelve realidad”.

Suena espectacular, pero si uno revisa lo que realmente dice la tesis, la emoción se desinfla un poco.

La tesis aislada proviene de una resolución de los Tribunales Colegiados. En ella se exige que las y los jueces, al usar herramientas de IA, observen cuatro principios mínimos: proporcionalidad e inocuidad, protección de datos personales, transparencia y explicabilidad, y supervisión humana. Dicho de otro modo:

· Úsala solo cuando sea necesario y sin dañar.

· Protege los datos judiciales.

· Explica qué usaste, cómo lo usaste y por qué salió ese resultado.

· Y, sobre todo, que la decisión final siga siendo humana.

Hasta aquí, nada mal. Es un buen recordatorio de que las máquinas son auxiliares, no sustitutos. La tesis incluso señala que se tomaron como referencia esfuerzos internacionales, como las Directrices Éticas para una Inteligencia Artificial Fiable del Grupo de Expertos de Alto Nivel de la Comisión Europea, y el Reglamento del Parlamento Europeo sobre normas armonizadas en materia de IA.

Pero, siendo francos, la tesis se siente un poco tímida. Es como si en los noventa, cuando llegaron las primeras computadoras, alguien hubiera recomendado: “úsela con la luz encendida”. Sí, gracias, pero el reto real está en otro lado.

El problema de fondo es que la Corte parece confundir principios éticos generales —que aplican para cualquier uso de la IA en la sociedad— con reglas específicas para el ámbito judicial. Y no es lo mismo. Por ejemplo, habría que definir lineamientos claros sobre lo debe hacer el Juez al usar IA. Por ejemplo, evitar que se filtren datos sensibles de víctimas, testigos o menores; precisar qué tanto peso probatorio puede tener un resultado analizado o procesado con IA en contraste con otro elaborado por un ser humano; Ese tipo de reglas, mucho más concretas, son las que realmente marcan la diferencia entre la ética abstracta y la práctica judicial cotidiana.

De hecho, uno de los documentos que cita, quizá más mencionado que leído, es la guía elaborada por el Grupo de Expertos de Alto Nivel de la Unión Europea sobre lo que significa una “IA confiable”. Esa guía no se quedó en lo obvio: aterrizó los principios en requisitos concretos que deben observar todos los actores del ciclo de vida de la IA —quienes la diseñan, quienes la implementan, quienes la usan y la sociedad que se ve afectada—.

Si lo comparamos, la tesis luce como un apunte introductorio, un “IA para principiantes”. Y no es que esté mal; al contrario, es un avance y abre la puerta a la discusión. Pero el riesgo es que, mientras el mundo debate cómo enfrentar sesgos algorítmicos, impactos democráticos o incluso la huella ambiental de estas tecnologías, en México apenas estamos diciendo: “que el juez explique si usó una calculadora inteligente”.

La Corte ya dio el primer paso, y se agradece. Pero si México quiere tomarse en serio la inteligencia artificial en la justicia, necesitamos pasar de las buenas intenciones a reglas mucho más ambiciosas y realistas. De lo contrario, corremos el riesgo de que la IA no llegue a modernizar el sistema judicial, sino a evidenciar lo lento que seguimos caminando.