29 de octubre de 2025
Dos casos sucedidos recientemente, de aplicación en el ámbito judicial de la herramienta digital, dan pie para el debate de cómo tiene que utilizarse esa disciplina científica. "Para evitar que la IA comprometa el debido proceso, toda intervención tecnológica debe adherirse a un protocolo de buenas prácticas, donde la responsabilidad final recae siempre en el humano", sostiene el autor de esta nota.

Por Lucas Moyano (*)
La Inteligencia Artificial (IA) ya no es un cuento de ciencia ficción; es una realidad diaria para jueces, fiscales, defensores y abogados.
Hoy, la tecnología ofrece una oportunidad gigante para optimizar los tribunales, automatizando muchas de esas tareas repetitivas donde la intervención humana no aporta nada de valor.
Sin embargo, la implementación de la IA en la Justicia debe ser cautelosa porque arrastra un riesgo enorme: los sesgos inherentes en los algoritmos, que podrían generar fallos injustos. Hay que automatizar, sí, pero con ética y control.
Como hemos visto, el camino no está exento de tropiezos. Y para ello veamos dos casos que ocurrieron recientemente.
El primero, donde una sentencia fue anulada porque un juez de primera instancia copió y pegó un texto directamente generado de un asistente de IA, incluyendo una frase que lo delató y decía: "Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar".
Un segundo ejemplo alude a abogados que citan fallos que nunca existieron. Un fenómeno conocido como "alucinaciones" de la IA.
Si un abogado confía en los resultados aportados por el asistente de IA sin cotejar la fuente original puede correr el riesgo que sus presentaciones sean desestimadas y estar sujeto a posibles sanciones.
La enseñanza que nos dejan estos ejemplos es que el uso de la Inteligencia Artificial no exime de responsabilidad a quienes la utilizan en diferentes ámbitos, tal como en este caso particular es el ámbito de la Justicia.
En el caso del juez que copió y pegó, la Cámara de Apelaciones que anuló el fallo advirtió que la gravedad no estaba sólo en el "copiar y pegar", sino en la orden de que la IA eliminara las citas y la trazabilidad de la fuente. Esto atenta directamente contra el principio de motivación de las sentencias, una garantía constitucional que exige que el juez explique por qué tomó la decisión, demostrando que su razonamiento es propio y está basado en la ley.
No debemos confiar ciegamente en la IA. Y es el control humano la única garantía de la ética y la verdad procesal.
Aprender a usar la IA correctamente
El verdadero desafío es aprender a utilizar la IA correctamente.
Para ello, el uso ético debe enfocarse en tres pilares, teniendo como eje al ciudadano y al juicio humano, que a continuación se detallan.
Automatizar lo rutinario: la IA no debe intervenir en el análisis de un caso complejo, sino en el volumen de trabajo repetitivo que ahoga a los tribunales. El uso ético y responsable se enfoca en la automatización de procesos estandarizados y en utilizarla como una asistencia al profesional.
Acelerar la gestión: sistemas que automatizan la gestión de procesos en juicios ejecutivos (como la carga de datos o control de plazos) permiten que estos trámites rutinarios avancen con mayor celeridad, sin automatizar la decisión judicial.
Análisis de documentos: la IA es una poderosa lupa digital. Es excelente extrayendo datos específicos (fechas, nombres, montos) de miles de expedientes o analizando grandes volúmenes de jurisprudencia en minutos. Esto permite a fiscales, defensores o abogados de la matrícula armar estrategias con mayor rapidez.
Seudonimización de datos: La IA puede seudonimizar automáticamente (reemplazar nombres y datos sensibles) las sentencias públicas. Esto es vital para fomentar la Justicia Abierta y la transparencia, sin vulnerar la Ley de Protección de Datos Personales.
El control humano
Para evitar que la IA comprometa el debido proceso, toda intervención tecnológica debe adherirse a un protocolo de buenas prácticas, donde la responsabilidad final recae siempre en el humano.
La IA es una herramienta de asistencia, pero en ningún momento puede sustituir la deliberación, el análisis del caso o el juicio crítico del Juez. Tampoco, la diligencia profesional indelegable del abogado.
En ese caso, el abogado tiene el deber ineludible de cotejar cada cita. Las "alucinaciones" son su responsabilidad.
En materia de privacidad, nunca debemos ingresar información confidencial a sistemas de IA externos (basados en la nube) o de proveedores sin las debidas garantías de seguridad y confidencialidad, para no violar la reserva de las actuaciones judiciales.
Además, debemos asegurar que los sistemas no repliquen sesgos algorítmicos.
La Justicia debe ser clara sobre cómo y para qué se utilizó la IA en un proceso, permitiendo que el ciudadano entienda que la decisión fue asistida; pero no tomada por la tecnología.
Oportunidad histórica
Soy de la opinión que la Inteligencia Artificial nos da la oportunidad histórica de tener una Justicia más rápida y más eficiente.
Pero esa velocidad nunca puede ir en detrimento de la confianza y el criterio humano. Y en ese contexto, la IA será un brillante asistente; pero nunca un sustituto.
El desafío de la Inteligencia Artificial aplicada a la Justicia es lograr eficiente y eficazmente el desarrollo de los procesos de gestión judicial, avanzando en una integración tecnológica que mejore la calidad; pero que mantenga la humanidad.
Cuando la Inteligencia Artificial se encuentra con la Justicia, lo que está en juego es significativo.
Los errores o sesgos algorítmicos en los sistemas de IA pueden socavar la equidad judicial, erosionar la confianza pública y poner en peligro los derechos fundamentales.
Por último, en esta carrera por la evolución y desarrollos tecnológicos, no debemos perder ni delegar la capacidad que nos hace humanos: la de deliberar, razonar y decidir libremente.
(*) Especialista en Ciberdelitos y Evidencia Digital. Autor del libro "Ciberdelitos, cómo investigar en entornos digitales", de Editorial Hammurabi.
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
Así lo sostuvo el concejal electo de La Libertad Avanza Azul Ignacio Furiasse cuando analizó en diálogo con este diario el resultado altamente favorable que obtuvieron los libertarios en la elección legislativa a nivel nacional que se realizó el último domingo. "Sabíamos que los catorce puntos de diferencia no eran reales y que en esta elección no íbamos a tener el mismo escenario, pero la verdad que fue una sorpresa el hecho de haber ganado en la provincia de Buenos Aires", resaltó.
29 de octubre de 2025
29 de octubre de 2025
29 de octubre de 2025
29 de octubre de 2025
29 de octubre de 2025
29 de octubre de 2025
28 de octubre de 2025
28 de octubre de 2025
28 de octubre de 2025
28 de octubre de 2025
28 de octubre de 2025