Por Hugo Acciarri
Sobre deberes de revelar el uso de IA (disclosures) y citas a IA en escritos judiciales
De toda la artillería —o pirotecnia— regulatoria que suele proponerse con relación a la inteligencia artificial (IA) me interesa referirme a dos iniciativas dirigidas a la presentación de escritos judiciales por las partes y sus abogados ante jueces y tribunales. Una, es el deber de revelar el empleo deliberado de IA (disclosure). Otra, la exigencia de citar su uso. Es decir, indicar que tal o cual párrafo incluye contenidos que se relacionan con el uso de un sistema o modelo de IA. En mi opinión, se trata de malas ideas, sea cual fuera el vehículo normativo que las prescriba (leyes, acordadas, reglamentos colegiales, etc.). Dados los límites de esta columna, no voy a discutir detalles en profundidad, ni el estado de la legislación, jurisprudencia o literatura relevante, sino apenas esbozar algunas razones que las desaconsejan.
La genética de los escritos judiciales siempre ha sido una caja negra y quizás no sea malo, en términos generales, que lo siga siendo. Su contenido material, en la práctica vigente, puede surgir de colaboración directa e inmediata con otras personas (borradores, proyectos, memorándums), de una vida de formación o de la trasposición de otros escritos, propios o ajenos. Lo crucial, no obstante, es el producto final y su autoría formal. No se requiere, hoy, revelar la inspiración ni el origen del contenido. Los productos de la IA, al igual que las variadas manifestaciones de la inteligencia humana, el contexto o la casualidad no son más que algunas de esas fuentes materiales posibles. Confiar ciegamente en un consejo humano erróneo o incurrir en un sesgo de contexto puede ser tan funesto como confiar irreflexivamente el producto de una IA.
La propia dinámica del uso de la IA conspira, además, contra la utilidad de cualquier deber general de revelación. La obsolescencia acelerada de ese disclosure es previsible: sería comparable a haber exigido, en los años noventa, que se revelara el uso de electricidad en la redacción de un escrito o a imponer hoy la obligación de declarar el uso de Internet. En ambos casos, el insumo terminó volviéndose ubicuo y aquella hipotética exigencia habría perdido sentido normativo y valor informativo. Todo indica que el uso de IA seguirá ese mismo camino.
Pero quizás más concluyente aún sea pensar en los incentivos y consecuencias que genere un deber de ese tipo. Si omitir revelar el uso de la IA generara alguna sanción y declararlo eximiera (en cualquier medida y modo) de sufrirla, ese deber promovería que todo escrito incluya una mención, tan general como inútil, del tipo “se usó IA” entre sus requisitos naturales. Si, al contrario, ese disclosure no fuera en modo alguno eximente, exigirlo carecería de sentido práctico. Luego, parece más razonable asumir en todos los casos que el uso de IA es altamente probable y simplemente poner la mira sobre las consecuencias (negativas) relevantes de su uso. “Leo con más cuidado un escrito si sé que se usó IA en su confección, por la posibilidad de alucinaciones”, parece una alegación tan ingenua como profesionalmente improponible.
Aunque la APA se haya apresurado a aconsejar como hacerlo, el deber de citar a una IA también parece poco razonable.
McAdoo, T, Denneny, S y Lee, C., Citing generative AI in APA Style: Part 1—Reference formats, 9 de septiembre de 2025.
Una cita suele identificar una autoridad o la autoría original de una idea o conjunto de datos, aunque haya surgido de una organización o una persona sin tal reconocimiento y permitir su trazabilidad hasta la fuente. A veces, también, pone en contexto o permite brevedad, al remitir a otro desarrollo previo o más amplio. Muy resumidamente expuesto, citar es atribuir, permitir verificación y mostrar el lugar de una afirmación o argumento en un “mapa” de autoridad y discusión. Nada de eso se cumple atribuyendo una frase o idea a una IA, en el estado presente de la tecnología. No tiene sentido pensar en su autoridad, no permite la ubicación en ningún mapa y no da trazabilidad alguna, en cuanto carece de garantía de replicabilidad. Incluir el prompt en la cita, no mejora la quimérica transparencia; sí, empeora la legibilidad y concisión.
Aunque parezca demasiado obvio aclararlo, el producto de un LLM no es la consecuencia unívoca de un prompt. Lo usual, para un usuario apenas familiarizado, es aprovechar la naturaleza bayesiana de las redes y mejorar el prompt inicial, con sucesivas iteraciones. Pero, aunque así no se hiciera, tampoco puede explicarse, en términos estadísticos, el output (el texto que se vaya a utilizar), solo sobre la base de un único prompt (input). Al contrario, es el producto de un conjunto mucho más amplio de factores, que incluyen los denominados instruction layer, el contextual stack, los system level constraints y otros parámetros latentes que, conjuntamente, explican la respuesta del modelo.
Los tribunales e instituciones de control tienen motivos muy serios para preocuparse por las citas inventadas, las alucinaciones y los errores de todo tipo que puedan contener los escritos de las partes y sus abogados, derivados del uso impropio de herramientas generativas o de cualquier otra fuente. Pero esa preocupación no justifica desplazar la atención desde los resultados hacia los insumos, ni sostiene la esperanza de que un disclosure puramente ritual mejore el servicio de justicia. La exigencia de revelación y citación parece asumir una visión equivocada sobre cómo funciona y se emplea la IA. Pero, lo que es más grave, también sobre cómo los seres humanos deciden y se comportan frente a las normas. Exigir disclosures y citaciones en busca de una ilusoria transparencia es una de esas respuestas simples a un problema complejo. Una ilusión anestesiante que compromete la persecución eficiente de los fines de la regulación. Y, como suele ocurrir muchas veces, una mala respuesta.
Foto: Pedro Fraile
* Esta columna se publicó en LA LEY – Argentina
