Por Patrizia Gallo

La sentencia “Provincia de Chubut c/P.R.A.” (carpeta judicial n° 6209, del 15/10/2025), dictada por la Cámara en lo Penal de Esquel (Provincia de Chubut, Argentina), anuló una condena penal como consecuencia del uso indebido de la inteligencia artificial (IA) generativa por parte del juez que condenó en primera instancia a R.A.P. a 2 años y 6 meses de prisión efectiva por robo simple, un robo ocurrido en Esquel, el 17 de noviembre de 2023. Ante esta condena, la defensa interpuso recurso de impugnación, alegando arbitrariedad en la valoración probatoria. La Cámara Penal de Esquel, en el examen del fallo, descubrió que el magistrado había recurrido a la IA —sin informar a las partes ni dejar constancia— para redactar parte esencial de la sentencia, concretamente el análisis de nulidad sobre dos pruebas fundamentales para la imputación del robo —videos y pericia criminalística—.

La sentencia de la Cámara Penal

Estos son algunos párrafos relevantes de la sentencia del tribunal de alzada:

Al acudir a los argumentos vertidos por el Juez en su sentencia —respecto de los cuales la Defensa apoya su queja—, hemos advertido que en el renglón anterior al inicio del Punto IV, titulado «Resolución Sobre las cuestiones probatorias planteadas por la Defensa« se puede leer: «Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar:» (sic)…Dicha frase da cuenta, objetivamente, que el magistrado ha utilizado un asistente de inteligencia artificial (IA) generativa de aquellos que se utilizan para realizar tareas como escribir, planificar, aprender y explorar ideas y se caracteriza por su capacidad para procesar y comprender información de diversas fuentes, como texto, imágenes y videos, funcionando con un enfoque en el aprendizaje automático y el procesamiento del lenguaje natural…Se desconoce qué asistente utilizó y cuál fue el requerimiento realizado, el que podría inferirse de la respuesta que le ha brindado el asistente artificial que ha sido volcada en la sentencia.

“Aunque la IA Gen puede asistir en la generación de ideas o borradores, la decisión final debe recaer siempre en un operador humano que evalúe el contexto específico del caso… En el caso de autos, surge del propio texto mismo de la sentencia, que el magistrado utilizó la IA generativa en un aspecto central de la resolución en crisis, esto es resolver las nulidades de dos pruebas esenciales en el proceso.

Por otro lado, la circunstancia de haber copiado todo el texto proporcionado por el asistente, inclusive parte de la «conversación« en la que el asistente de IA le indica, «Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar:«, exhibe que, de mínima, no ha ejercido correctamente la supervisión y el control humano obligatorio. Tanto es así que suscribió la sentencia con esa cita.

Entiendo que, la circunstancia de no dejar constancia del uso de la herramienta y a qué fines, impide controlar cuál ha sido el grado de asistencia requerida y, con ello, el control de las partes en cuanto a la trazabilidad del razonamiento del magistrado. También se presenta como un obstáculo para este Tribunal al examinar la corrección de la sentencia, en todos sus aspectos, en especial con relación a la fundamentación de la misma. Al no mencionar cual es la asistencia requerida, desconocemos cual ha sido el «prompt« o instrucción que se le dio al asistente de inteligencia artificial.

Ciertamente, si no hubiera estado escrita dicha frase, nunca hubiéramos descubierto que el magistrado utilizó la IA para la resolución del caso, con la gravedad que ello conlleva, pues como vengo sosteniendo se trata de una herramienta complementaria que no ha sido diseñada para sustituir la actividad intelectual del Juez sino para colaborar con su elaboración, siendo obligatorio por los principios de transparencia y supervisión dejar constancia en la sentencia de las colaboraciones requeridas.

 La falta de indicación sobre el modo en que se usó la inteligencia artificial en un punto decisorio, entraña un riesgo concreto de que dicha tecnología se hubiese utilizado delegando una actividad jurisdiccional indebidamente.

Dicha delegación, de haberse producido, entraña una flagrante violación al principio del juez natural, ya que nadie puede ser «… juzgado por otros jueces que los instituidos por la ley antes del hecho de la causa y designados de acuerdo a esta Constitución…« (art. 44 de la CCh) [Constitución de Chubut], mucho menos, una tecnología desarrollada por empresas privadas, y aplicada al margen del control de las partes…A su vez, la garantía del juez natural, lleva ínsito que la decisión debe ser tomada por una persona, la que debió ser instituida por el Estado para cumplir esa función.

Aceptar que el Juez puede delegar en un asistente artificial la fundamentación de su resolución podría significar en los hechos la eliminación de la competencia pues los programas no tienen límites espaciales ni de ninguna índole.

Condición esencial de todo sistema judicial legítimo es que sus decisiones sean comprensibles, motivadas y sujetas a impugnación. Los sistemas de inteligencia artificial, especialmente aquellos de tipo «caja negra», vulneran estos principios cuando operan con algoritmos que no pueden ser explicados ni comprendidos por los justiciables, ni siquiera por los jueces”. Todo el resaltado me pertenece.

Con esta argumentación, la Cámara Penal declaró nula la sentencia condenatoria de primera instancia.

Reflexiones sobre la sentencia de alzada

En primer lugar, llama la atención que el extenso desarrollo que sustenta la declaración de nulidad, se concentre en el hecho de que el juez haya recurrido a la IA y no tanto en el razonamiento mismo, expresado por el juez a quo, donde analiza y concluye que las medidas probatorias impugnadas por la defensa son válidas. Esa circunstancia se explica porque el tribunal entiende que el juez ha delegado el juicio normativo en el asistente virtual y, por lo tanto, pretende trasladar el control de legalidad que debe recaer en la sentencia, al método de procesamiento y análisis de datos efectuado por la IA y que desembocó en el párrafo transcripto en la sentencia. De ahí, la necesidad planteada por la Cámara, de que el magistrado deba “blanquear” cuál asistente virtual utilizó y cuál fue la consigna o instrucción.

Este planteamiento, conduce a la siguiente pregunta: ¿qué quiere decir que el juez delegue el juicio normativo que solo a él corresponde hacer?  ¿Dónde está el límite entre esa “delegación” y el (aceptado) método de consulta con sus asistentes/colaboradores, para proceder a “formar” ese juicio?

Todos sabemos que, en general, los jueces consultan opiniones sobre la resolución de los casos, con su secretario letrado —que en el sistema judicial argentino, es normalmente quien lee el expediente y propone la solución— e inclusive con otros colaboradores. Muchas veces el magistrado cambia de opinión (o termina de configurarla) luego de escuchar diferentes argumentaciones en esos diálogos enriquecedores y de ese modo adopta —y expresa en su resolución— esos razonamientos y conclusiones, que en algún sentido tienen un origen ajeno. En ese escenario, a nadie se le ha ocurrido nunca pensar que esa sentencia sea nula por “delegación del juicio normativo”. Y ello, porque se entiende (o debería entenderse) que el juez, luego de tomar la decisión de resolver conforme a la solución propuesta por su colaborador, hace suyo ese razonamiento, volcándolo en la sentencia que suscribe.

Ahora bien, otra cosa diferente es que esa solución expresada por el magistrado sea correcta o no, esté fundamentada o no, pero lo que está claro es que esas características (corrección, fundamentación) se refieren exclusivamente a lo expuesto por el juzgador en la resolución y no al origen (externo a ese documento judicial per se) del razonamiento allí expresado.

Lo que expresa el juez en su sentencia es siempre su decisión (no del asistente/colaborador que la propuso), más allá de su eventual adecuación. La revisión de ese resolutorio puede poner en tela de juicio el acierto de dicha decisión, pero no puede considerar que no pertenezca al magistrado y que, por lo tanto, el control sobre ella, incluya rastrear su procedencia y llegar a su fuente primigenia, para incluirla en el análisis (en el ejemplo dado, la charla con su colaborador). 

Lo mismo debería entenderse respecto de la IA. Los parámetros que rigen al extrapolar ese modus operandi de consulta, cuando el colaborador es un asistente virtual, son los mismos. Si el juez, luego de consultar a la IA, traslada esa respuesta digital irreflexivamente y sin fundamentación apropiada (como lo que, según la Cámara Penal, ocurrió en la sentencia anulada), el problema será la sentencia en sí misma (arbitraria) y en todo caso, la inidoneidad del juez, pero no la herramienta (virtual) utilizada. En ese sentido, contrariamente a lo que señala el tribunal, no son los sistemas de inteligencia artificial, especialmente aquellos de tipo ‘caja negra’, los que vulneran el principio de que las decisiones judiciales deben ser comprensibles y motivadas, sino el propio juez por su falta de pensamiento crítico, ante las respuestas que obtiene, usando las nuevas tecnologías.

Volviendo al caso comentado, debió haber sido el párrafo en sí (su contenido), donde el magistrado descartó la invalidez de las pruebas impugnadas, lo que motivara exclusivamente la declaración de nulidad y no la herramienta a la que recurrió antes de tomar la decisión (IA). Sin embargo, lejos de considerar anecdótica la fuente de las ideas desarrolladas por el a quo en la sentencia (como hubiera ocurrido de no estar la frase delatora del dialogo con la IA), sorprendentemente, la Cámara ha considerado que se violó la garantía de juez natural (!). Esta afirmación denota algo peor que la confusión del tribunal entre criticar el razonamiento del magistrado o la herramienta a la que acudió: creer que fue la herramienta la que juzgó suplantando al juez.

Quizá  lo que subyace a la argumentación del Tribunal de apelación sea algo más que el celo por el respeto a la transparencia y trazabilidad de los razonamientos judiciales; quizá sea tecnofobia, un miedo profundo a que la IA pueda acabar reemplazando al juez.


Foto de Peter Herrmann en Unsplash