El uso de la IA en las decisiones judiciales es el eje de la tesis aislada del 29 de julio de 2025 del Segundo Tribunal Colegiado en Materia Civil del Segundo Circuito (queja 212/2025), primer precedente judicial sobre la materia. En ella se impugnó la decisión de un Juez de Distrito que fijó y luego modificó el monto de la garantía para inscribir una demanda de amparo, cálculo realizado con apoyo de herramientas de IA.
La tesis sostuvo que, ante la ausencia de un marco normativo en México, el uso de IA en los procesos jurisdiccionales debe regirse por una perspectiva de derechos humanos y aplicarse de forma ética y responsable. En consecuencia, este precedente judicial exige a las personas juzgadoras que observen, como mínimos para el manejo de esta nueva tecnología, los principios de:
(a) proporcionalidad e inocuidad; (b) protección de datos personales; (c) transparencia y explicabilidad; y (d) supervisión y decisión humanas. De modo que, en nuestro país las herramientas de IA en procesos judiciales deben emplearse sólo como medios para alcanzar fines legítimos —por ejemplo, habilitar el análisis matemático o sistematizar operaciones de cómputo—, pero nunca para interpretar ni aplicar las normas.
De igual forma, el Reglamento de Inteligencia Artificial de la Unión Europea establece que los sistemas destinados a asistir a los jueces en la resolución de casos sólo pueden operar como instrumentos auxiliares y bajo estricta supervisión humana, al estar clasificados como de alto riesgo, a fin de garantizar la transparencia, la imparcialidad y la protección de los derechos fundamentales.
Otros ejemplos son Argentina y Colombia: en Argentina, la sentencia N.º 1239/2025 fue anulada; se dejó sin efecto la pena de dos años y seis meses de prisión y se ordenó un nuevo juicio, al considerarse que fundamentar una decisión mediante IA sin control humano vulnera los principios del debido proceso y la garantía del juez natural. En Colombia, la sentencia T-323 de 2024 ordenó establecer un manual o lineamientos para la implementación de la IA, en particular en la rama judicial y, de manera específica, respecto del uso de ChatGPT.
De acuerdo con la UNESCO, 44% de los poderes judiciales de 96 países ya utiliza herramientas de IA; por ello, en México es inaplazable adoptar guías de buenas prácticas para su uso, entrenar a los sistemas con información de calidad para evitar decisiones discriminatorias y garantizar la transparencia en el uso de los datos, a fin de prevenir y corregir posibles sesgos y asegurar resoluciones justas y equitativas.
Es evidente que la administración de justicia, frente al uso de la IA, requiere un marco de gobernanza, mecanismos de control y garantías, así como evaluaciones de impacto algorítmico que midan sus efectos sobre derechos, sesgos, presunción de inocencia, igualdad, precisión y explicabilidad.
Asimismo, es indispensable someter los sistemas de IA a reglas claras y auditorías externas, además de reconocer el derecho a la transparencia algorítmica e impugnar cualquier influencia algorítmica que vulnere derechos fundamentales. No puede soslayarse que la persona juzgadora sigue siendo quien analiza y decide; por tanto, sus determinaciones no pueden delegarse en esta tecnología. La IA puede sugerir o calcular, pero no debe valorar la prueba, declarar culpabilidades, fijar sanciones ni imponer medidas cautelares sin la intervención de un criterio judicial humano.
0 Comentarios