|15/11/23 02:21 PM

Juez brasileño admite uso de ChatGPT en sentencias judiciales

La controversia surge cuando un magistrado federal enfrenta cuestionamientos sobre el uso de ChatGPT para elaborar una sentencia con múltiples fallos

Por Redacción

15 de noviembre, 2023 - 14:56

El juez federal en el estado brasileño de Acre, Jefferson Rodrigues, se encuentra bajo escrutinio del Consejo Nacional de Justicia (CNJ) debido a una sentencia plagada de errores, supuestamente redactada con el respaldo de la herramienta de Inteligencia Artificial ChatGPT.

Según informes de la agencia AFP basados en documentos judiciales, Rodrigues fundamentó su decisión en expedientes procesales falsamente atribuidos al Tribunal Superior de Justicia de Brasil. Este hecho, que pone en tela de juicio la integridad del sistema judicial, ahora requiere explicaciones del magistrado ante el CNJ.

El ChatGPT, ¿culpable?

Cuando fue confrontado, Rodrigues afirmó que su asesor de confianza, apoyado por ChatGPT, fue el responsable de la controvertida sentencia. Sin asumir plenamente la responsabilidad, el juez minimizó el incidente, calificándolo como un "simple error" derivado de la abrumadora carga de trabajo que enfrentan los jueces.

"Las inconformidades surgieron del uso de una herramienta virtual inadecuada", señaló el magistrado, atribuyendo el equívoco a la consulta de jurisprudencia realizada por su consultor. Afirmó que este asesor experimentado le permitía prescindir de revisar en detalle los documentos generados en su oficina.

Rodrigues tiene 15 días, a partir de este miércoles, para ampliar sus explicaciones ante el CNJ. Este organismo, al admitir que este es el primer caso de este tipo en Brasil, reconoce la creciente tendencia del uso de herramientas basadas en inteligencia artificial en el sistema de justicia del país, aún no regulada por la legislación vigente.

A pesar de las advertencias sobre los posibles errores en el uso de chatbots como ChatGPT en asuntos especializados, este no es el primer caso de un juez que se aventura en este terreno. En febrero del 2023, el juez colombiano Juan Manuel Padilla García admitió haber consultado la herramienta para fundamentar una acción de tutela.

Mientras Padilla defendía la ayuda de la inteligencia artificial en la toma de decisiones judiciales, casos como el de los abogados estadounidenses Steven Schwartz y Peter LoDuca ilustran las consecuencias negativas. Condenados a pagar una multa de 5.000 dólares, fueron señalados por actuar de mala fe al presentar decisiones judiciales falsas obtenidas mediante consultas a ChatGPT.