Por Gonzalo Quintero Olivares

 

Si hay un tema “revolucionario” en la penalística de nuestro tiempo ese es, sin duda, el de la inteligencia artificial (IA), entendiendo por revolución el cambio completo en la manera de entender y utilizar  el derecho penal o, al menos, una parte de él. Entre los operadores penales es visible la preocupación por lo que puede suponer la irrupción de la IA. Tanta repercusión merece algún comentario, y eso es lo que pretendo hacer con estás pequeñas reflexiones, que no aspiran a  otra cosa que acercarse al tema partiendo de las noticias que recibimos sobre sus portentosas capacidades, y, concretamente, las consecuencias de la aplicación de estas a la prognosis criminal.

Llegan informaciones de decisiones judiciales producidas en otros Estados en las que el dictamen de la IA sobre la peligrosidad de un sujeto se ha plasmado directamente en una sentencia, aunque también hay noticia de rechazos de Cortes constitucionales a esas decisiones. Razones para la preocupación, por lo tanto, sobran.

Esa función predictiva es solo, por supuesto, una pequeña parte del poder de la IA, que, según se conviene en decir al señalar su punto de partida, es la denominación que designa las máximas posibilidades (en continuo progreso) que puede ofrecer el tratamiento y análisis de la información, extremo a retener, porque advierte de que el primer paso lo compondrá lo que se suministre a un sistema para su tratamiento, lo que conduce a una razonable conclusión: la IA no va a inventar, sino que extraerá conclusiones a partir de los datos que le sean suministrados o estén a su alcance. Tal vez por ello algunos observadores consideran excesivo utilizar el título de “inteligencia”, pero esa no es una cuestión en la que merezca la pena detenerse, pues el de IA es ya un concepto aceptado.

En defensa de la denominación de IA se ha aducido que esos sistemas no solo son capaces de tratar y analizar la información, sino que también pueden realizar procesos de razonamiento como puedan tener los seres humanos usando su capacidad intelectual. Tomando un ejemplo habitual: la IA puede escribir un texto como si lo hubiera escrito una persona real y concreta, partiendo de otros textos escritos por esa misma persona, siempre que estén en la red, y eso, indudablemente, es algo más que el tratamiento y análisis de la información.  Discrepando de esa idea se dice, también, que hay una cuestión previa no resuelta: el pleno conocimiento de la capacidad de la inteligencia humana, todavía muy incompleto, condición previa a poder establecer el contenido y alcance de lo que se califica como IA.

Al margen de los debates sobre lo que es y la exactitud de la denominación de IA, creo que ha de quedar fuera de duda que estamos realmente ante una revolución técnica y cultural, para muchos la Cuarta Revolución Industrial, que irrumpe en todos los ámbitos del saber humano, y es innecesario ofrecer una relación de cuáles son sus campos posibles, entre los cuales, sin duda alguna, está la ciencia jurídica y la justicia, y, con ellas, el derecho penal y todo lo que a él se vincula, comenzando, por supuesto, por la justicia penal.

Hasta hace, relativamente, poco tiempo la presencia de la IA en el derecho penal se “reducía” a los problemas vinculados a la robótica (yo mismo había entrado en el tema en La robótica ante el derecho penal: el vacío de respuesta jurídica a las desviaciones incontroladas, REEPS 1 (2017)). El mundo de los robots está en permanente crecimiento y paulatinamente se va normalizando su presencia en la vida cotidiana, realizando desde pesadas operaciones domésticas o industriales hasta delicada intervenciones quirúrgicas. La responsabilidad por daños derivados de  desviaciones de los robots es por sí sola una materia jurídica tan importante como nueva, pero no entraré en ello.

Hoy el campo de relevancia de la IA en el ámbito penal es tan amplio como plagado de peligros. En este punto creo que es importante tener presente lo que declara la Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales:  :

“…la IA ha experimentado un gran avance en los últimos años, convirtiéndola en una de las tecnologías estratégicas del siglo XXI, que puede generar considerables beneficios en términos de eficiencia, precisión y adecuación y que, por consiguiente, aporta una transformación positiva a la economía y la sociedad europeas, pero también enormes riesgos para los derechos fundamentales y las democracias basadas en el Estado de Derecho..”

Esa advertencia, como veremos, es de particular importancia.

La predicción o pronóstico de comportamiento delictivo es sin duda una de las más importantes (y complejas) aportaciones de la IA al sistema penal. Es de gran utilidad, ante todo, en el campo de la Criminología y la Sociología criminal. Pero va mucho más allá: su contribución en la tarea policial está plenamente aceptada, si bien es ya uno de los terrenos en los que se ha de observar un especial cuidado con el respeto a los derechos y garantías fundamentales del ciudadano por las razones que en seguida indicaré. La tarea predictiva está vinculada a los algoritmos, y, para los fines de este pequeño comentario, baste con decir que son sistemas que acogen los datos que se le suministran y, a partir de ellos, pueden formular pronósticos o predicciones de validez, concretamente, para la prevención de los comportamientos  desviados o criminales.

Pero, claro está, la herramienta es utilizada por humanos que tienen sus propias ideas sobre cuáles han de ser los comportamientos desviados e, incluso, los grupos de personas que han de ser objeto de observación, que han de ser sometidos a análisis. La configuración de un algoritmo no es una tarea libre de ideologías, y, por eso mismo, sus resultados pueden ser “sectarios”, y eso no se puede olvidar.

Es muy importante, y, además, no hacerlo sería inútil y absurdo, no satanizar las infinitas ventajas y potencialidades de la IA en tantos ámbitos de la actividad humana, desde la física a la medicina, a la investigación en cualquier campo o a la enseñanza, y la relación puede ampliarse. También es importante en la lucha contra el delito, pero, y es solo una cautela, pueden venir afectados los derechos de los ciudadanos. La indagación secreta y técnica sobre la conducta futura de un sujeto no puede imponerse a su derecho a la presunción de inocencia, y no solo porque afecte a su privacidad, que ya sería un motivo para oponerse a ello, sino porque, a su vez, el programa de valoración de su personalidad y la prognosis de su conducta futura puede no ser “neutral”.

 

IA y peligrosidad criminal

Aceptada la capacidad que tiene la IA para formular pronósticos de toda índole a partir del análisis de datos, incluyendo la prognosis de peligrosidad de un sujeto, podemos plantear un tema central: ¿puede fundamentarse una decisión judicial en un pronóstico elaborado por un sistema cibernético?

Para responder a la cuestión hay que recordar, muy resumidamente, cuál es la significación de la peligrosidad en el derecho penal, tema que por obvio parece que se olvida frecuentemente. El concepto de peligrosidad entra en el derecho penal por influjo del positivismo naturalista, que se oponía al de culpabilidad, inspirada en el indiscutible presupuesto de la libertad del hombre como base de su responsabilidad. La peligrosidad derivaba de la metodología científica naturalista, que, convencida de un determinismo universal, común a las cosas y a los hombres, habría de negar la libre voluntad del individuo y, por ello, que la reacción penal se basara en la culpabilidad. Si al delincuente se le castigaba, no era porque libremente hubiese escogido el mal, sino porque con su acto manifestaba una peligrosidad que la sociedad debía neutralizar con la aplicación de medidas de seguridad tendentes a la reeducación del sujeto, y, de no poder ser así, a su definitiva inocuización.

Con el tiempo se acabaría aceptando, eclécticamente un sistema «dualista» o de «doble vía», según el cual el Derecho Penal puede fundamentar sus reacciones, según la naturaleza del caso y la personalidad del autor, ya en la culpabilidad ya en la peligrosidad (por otra parte, del mismo modo que desde hace tiempo se cuestiona abiertamente la solidez científica del principio de culpabilidad, sucede otro tanto con el concepto de peligrosidad).

Históricamente hemos conocido leyes reguladoras de las consecuencias de la peligrosidad que la aceptaban incluso sin la comisión de delito alguno (estados peligrosos) junto a la que se apreciara con ocasión de la comisión de un delito (peligrosidad pre y postdelictual). Actualmente, El CP describe cuáles son los  estados peligrosos y las medidas de seguridad aplicables. Ahora bien: en principio las medidas de seguridad, privativas o no privativas de libertad, se aplican a los sujetos declarados inimputables con arreglo a los artículos 20-1, 20-2 y 20-3 del CP.

Para los sujetos imputables la peligrosidad está presente en la fundamentación de la agravante por reincidencia, y también en la imposición de determinadas medidas como la libertad vigilada o en la sustitución de las penas privativas de libertad. La peligrosidad de un sujeto, entendida como pronóstico de mal  comportamiento emitido a partir de un hecho ya cometido – en ningún caso se admite la peligrosidad sin delito – puede estar también presente en la base axiológica de algunas circunstancias agravantes, no solo la de reincidencia, o atenuantes y, en general, es un criterio a disposición de los Tribunales utilizable en su tarea de  determinación de la pena que imponen.

Llegados a este punto se puede volver al tema inicial: la posibilidad de que el criterio de un Tribunal en orden a la adopción de una u otra de las decisiones en las que está presente la peligrosidad del sujeto  venga proporcionado por un sistema de IA. Esa posibilidad creo que ha de ser rotundamente rechazada, por diversos motivos, de los que hay que destacar, ante todo, el deber de motivar las sentencias, respecto del cual ya tiene establecido el TC que no se cumple con la transcripción o cita de una sentencia anterior sobre caso parecido; mucho menos aun con el traslado de las conclusiones de un programa cibernético.

A eso se suman óbices técnicos que cercenan garantías del justiciable. Se parte de una base incierta, cual es la neutralidad de la IA, que lleva a la suposición de que el informe que produce el sistema a partir del algoritmo es objetivo, sin parcialidad, olvidando que ha sido elaborado a partir de los datos que le han suministrado, muchas veces referidos a otros hechos y a otros sujetos, datos que a su vez se conectan con otros que obran en la infinidad de la nube. A su vez, para que la defensa pudiera ejercer su función con toda su potencial argumentación, debería conocer todos los datos que han sido introducidos para elaborar al algoritmo, lo cual es imposible en la práctica.

Remediar esos defectos es posible, dicen los expertos (dejando de lado el muy elevado costo económico que tienen tanto los programas con las soluciones a sus defectos) y para ello hay que disponer de un control sobre los criterios seguidos, realizado con ayuda de juristas, el modo de interrelacionar que sigue el programa, controles que eviten conclusiones sesgadas o sectarias. En fin, todo un conjunto de medios preventivos cuyo conocimiento y puesta en práctica corresponde a los expertos en la materia, que no somos los penalistas.

La peligrosidad del sujeto concreto que está siendo enjuiciado, y que puede afectar a importantes decisiones, como son las que he indicado antes, ha de ser apreciada por el juzgador, que no puede sustituir su propia valoración por la que le suministre un sistema que ha elaborado sus conclusiones a partir de experiencias que pueden ser ajenas a la persona juzgada, que es, no se olvide, la titular del derecho a un juicio justo con todas las garantías.


Foto: Pedro Fraile