Corte apartó a jueza que habría redactado condena con IA antes de fallo definitivo
Durante el estudio, la Corte encontró que el texto contenía mensajes propios de una IA.
Publicidad
Publicidad
Publicidad
Publicidad
La Corte Suprema de Justicia revocó una decisión y apartó de un caso a la jueza Séptima Penal del Circuito de Cali por haber incluido en el expediente judicial un borrador de sentencia condenatoria pese a que no había terminado el juicio y por haberlo redactado con ayuda de inteligencia artificial sin seguir las recomendaciones estipuladas.
Y es que la defensa del hombre ya imputado por delitos sexuales contra menores de edad, encontró que, previo a los alegatos de conclusión y el anuncio del sentido del fallo programado para septiembre de 2025, ya estaba en el expediente digital dicho borrador anticipando una condena.
Dicho documento incluía un análisis detallado de las pruebas, conclusiones sobre la responsabilidad penal del acusado y hasta una pena ya definida de 18 años de prisión. Pero todo esto ocurrió antes de los alegatos de conclusión, etapa en la que las partes involucradas presentan sus argumentos finales.
Para el alto tribunal, se trata de una vulneración al debido proceso y al derecho a un juicio imparcial. Además, demostró que el resultado estaba decidido de antemano afectando así el principio básico de la imparcialidad judicial.
“En esas condiciones, la incertidumbre que debe presidir todo proceso penal ya no existe, de modo que las posibilidades de inocencia o culpabilidad se encuentran cerradas de antemano. Desde esta perspectiva, cuando el resultado del proceso se conoce antes de culminar el debate, el juicio pierde su función decisoria y se convierte en un mero ritual, carente de eficacia real para la determinación de la responsabilidad penal”, explicó la Corte.
A esto se suma el agravante de que ese borrador fue redactado con ayuda de inteligencia artificial para analizar el testimonio de la víctima, evaluar su credibilidad, revisar la coherencia del relato y concluir que se cumplía el estándar probatorio para condenar.
Durante el estudio, la Corte encontró que el texto contenía mensajes propios de una IA, como sugerencias que suele hacer sobre el contenido ya redactado.
Publicidad
Para los magistrados, la jueza recurrió a la herramienta de inteligencia artificial para emitir una condena, sobrepasando los usos permitidos de estas tecnologías en el ámbito judicial.
“Si bien el juez puede acudir a sistemas de IA cuando ello resulte necesario y pertinente, su utilización debe ser razonada y ponderada, orientada a la protección de los derechos fundamentales, y sujeta a buenas prácticas, criterios éticos y respeto por los mandatos superiores. El empleo indiscriminado o imprudente de estas tecnologías puede comprometer la responsabilidad del funcionario judicial, por lo que, como presupuesto mínimo, deben observarse el principio de no sustitución de la racionalidad humana y las cargas de transparencia, responsabilidad y privacidad”, alertó la Corte.
En otras palabras, el alto tribunal insistió en que la valoración de pruebas y la decisión sobre la culpabilidad de una persona son funciones exclusivas del juez y no pueden ser delegadas en sistemas tecnológicos.
Publicidad
Además, la existencia del borrador condenatorio afectó directamente la presunción de inocencia. Mientras no exista una sentencia en firme, toda persona debe ser tratada como inocente. Sin embargo, al quedar registrado un documento que ya daba por culpable al acusado, el proceso perdió su función real de decidir.
Por estas razones, la Corte apartó del caso a la jueza original del caso y ordenó que otro despacho judicial continúe con el proceso, pidiendo a los jueces respetar estrictamente las reglas sobre el uso de inteligencia artificial en la justicia.