jueves, 20 de octubre de 2022

Los Jueces-Robot traen una era de Justicia justa pero inhumana (por falta de Empatía)

La Justicia humana es uno de los valores universales que el hombre social, desde tiempos inmemorables, anhela alcanzar. Un ideal que ciertamente está subyugado a determinismos culturales en el continuo de la historia de la humanidad, desde el preciso momento en que está percibido y gestionado por el mismo hombre, lo que hace de la Justicia teórica y normativa un ente vivo por evolución continua de la propia sociedad. Todo y así, la Justicia en calidad de ideario colectivo mantiene, de manera inalterable por atemporal, la esencia de un principio de identidad moral basado en obrar y juzgar a la luz de la verdad, a la vez que se vertebra en otorgar a cada cual aquello que le corresponde. No en vano representamos alegóricamente a la Justicia desde hace siglos con los ojos vendados (símbolo de la imparcialidad), y sosteniendo en ambas manos una balanza (símbolo de la equidad) y una espada (símbolo del poder de la razón). No obstante, a nadie se le escapa el hecho de que en un contexto complejo como es el hábitat humano, no puede existir Justicia humana (en el sentido más amplio del concepto humanista) sin la interpelación de la variable de la Empatía en los factores tanto de la equidad como de la razón.

Un trío de factores (imparcialidad-equidad-razón) que junto a la variable intrínsicamente humana de la Empatía se despliegan, en pleno siglo XXI, de manera pragmática en los sistemas jurídicos de los países del orbe democrático occidental (tanto en los de tradición romano-germánicos, como en aquellos de tradición anglosajona) en el marco de lo que denominamos el Derecho Procesal -que regula los requisitos, desarrollo y efectos de un proceso judicial-, a través de cinco grandes principios jurídicos en materia de derecho civil: garantía jurisdiccional, defensa, audiencia, legalidad, e igualdad de partes (1). Expuesto lo cual, y sin intención de entrar en su desarrollo por no ser objeto de la presente reflexión, tan solo señalaremos que dichos principios jurídicos occidentales, como máximas derivadas de la triada alegórica milenaria, perpetúan su axioma de valor moral en la búsqueda de unas decisiones judiciales que se perciban socialmente como justas -trascendiendo así la rigidez de la norma en relación a los retos que suponen las realidades humanas con mayor grado de complejidad-, gracias a la injerencia transversal de la Empatía. Pues sin Empatía judicial, la Justicia puede ser radicalmente justa en términos de aplicación rigurosa de la norma, a la par que percibirse como inhumana al no tener en consideración las singularidades de la complejidad de la vida de las personas enjuiciadas. Una línea de pensamiento jurídico de rabiosa actualidad que une Justicia y Empatía conocido bajo el nombre de Virtue Jurisprudence (Jurispridencia de la Virtud), y que permite reforzar la legitimidad del sistema judicial en las sociedades democráticas contemporáneas gracias a su esfuerzo por humanizar la Justicia. Pues como bien sabemos, en la cosmología humana, profundamente humana, nada es todo negro o todo blanco en parámetros absolutos.

Vista dicha breve introducción sobre la naturaleza de una Justicia que anhela ser cada día más humana, cualquier referencia a un sistema judicial exento de la variable de la Empatía nos parece distópico. Y aún y así, todo apunta a que nos abocamos globalmente hacia la instauración de un proceso judicial sin Empatía, intervención mediante de la Inteligencia Artificial (IA). Tal es el caso paradigmático de China, que desde hace años utiliza la IA denominada Smart Court SoS para administrar tribunales y jueces supremos, con el objetivo de reducir la carga de trabajo típica de los jueces y ahorrar miles de millones de horas de trabajo (2). Una IA judicial que, tras las partes rellenar los formularios pertinentes, juzga los casos de manera automática ofreciendo un veredicto en cuestión de minutos con la redacción ad hoc incluida de los documentos legales oportunos, previa comparación de otros pleitos conocidos y la requerida consulta de la legislación y jurisprudencia al uso. Pero esta IA judicial no solo juzga, sino que además ejecuta la sentencia al estar conectada directamente tanto con las fuerzas del orden público chinas, como con el famoso programa del Sistema de Crédito Social chino que sanciona a los ciudadanos que no cumplen con sus obligaciones sociales, permitiendo a la IA judicial imponer automáticamente el grado de privatización de las libertades individuales correspondientes a los enjuiciados acorde a la sentencia.

Pero el modelo de gestión judicial chino basado en la IA no es el único existente en el mundo, ya que su sombra alargada se extiende a otros continentes. En América, por ejemplo, Estados Unidos hace años que utiliza la IA Compas (Correctional Offender Management Profiling for Alternative Sanctions) que determina si un preso puede acceder o no a la libertad condicional mientras se completa el proceso judicial, determinando mediante varios factores sociológicos su nivel de probabilidad de reincidir (3). Y en Europa, si bien Estonia es el país pionero en implantar la IA judicial -en este caso para juicios menores cuya causa a enjuiciar no supere los 7.000€/ 8.000USD- (4), existen otros países como España que a día de hoy se preparan para instaurar la IA en su sistema judicial (5). Un proceso global imparable de Justicia robotizada que ha llevado a la Unión Europea, a través de su organismo de la Comisión Europea para la Eficiencia de la Justicia (CEPEJ), a crear una Carta Ética sobre el uso de la IA en los sistemas judiciales y su entorno, como guía práctica para beneficio de sus países miembros (6). Una tendencia generalizada por la implantación de la IA en los procesos judiciales a nivel mundial que, incluso, trasciende los propios sistemas judiciales estatales para alcanzar todos aquellos otros ámbitos de la vida pública que requieran impartir algún grado de justicia, como es el caso deportivo a la hora de validar comportamientos o resultados de los participantes en una competición (7), ámbito al que seguramente le seguirán otros sectores cotidianos propios de la vida de las personas.

Las implicaciones y retos éticos que comporta la inmersión de la sociedad en un mundo judicializado por la IA son varios, siendo objeto de estudio de la Roboética. El más evidente, por haber sido ya expuesto sobradamente por la comunidad científica, es el peligro a los sesgos raciales, étnicos, y de género que incurren en tanto desigualdades como en injusticias sociales. En este punto cabe señalar los sesgos raciales que se han observado en la IA Compas que predice futuros delincuentes en calidad de presos reincidentes norteamericanos, cuyos resultados claramente van en detrimento de las personas negras y en favor de las blancas (8), como en otra IA norteamericana del sistema de atención médica que excluye porcentualmente más a las personas negras que a los blancos a la hora de protegerlos con recursos sanitarios extras (9). En materia de sesgos étnicos, por su parte, nos encontramos con el propio sistema judicial robótico chino que sirve de manera descarada de instrumento de represión contra ciertas minorías étnicas y religiosas (10). Y, en materia de sesgos de género, existen los llamados softwares opacos de uso tanto público como privado, cuyas fuentes de datos personales son desconocidas y por tanto susceptiblemente ilegales, que realizan sesgos de género en sus aplicaciones de uso comercial y/o institucional (11). Por poner algunos casos ejemplificadores.

Pero, más allá de los evidentes sesgos mencionados, me interesa exponer tres grandes retos en materia de Roboética que, a la luz del desarrollo de los acontecimientos en esta materia, nos plantea la implantación de una IA judicial. Retos todos ellos derivados de un mismo eje vertebrador: la Empatía, o mejor dicho y en su defecto, de la falta de la misma. Veamos:

1.-¿Una IA judicial puede ofrecer una Justicia humana?

Desde una mentalidad técnica, es evidente que la aplicación de una norma jurídica creada por el hombre equivale a una Justicia humana, con independencia de si quien la ejecuta se trata de una IA. Postulado que reduce el concepto de Justicia a una mera técnica jurídica, cuya única finalidad es la observancia estricta de la regla normativa al uso acorde a su formulación.

Pero desde una mentalidad humanista, la Justicia es mucho más que la aplicación técnica de la norma, pues el concepto de Justicia humana implica la participación de la ética, en la defensa de su esencia como principio moral de alcanzar aquello que es justo, lo cual resulta imposible sin la interpelación de la variable de la Empatía humana. Por lo que, como ya apuntamos con anterioridad, la Justicia sin Empatía puede ser de todo menos justa humanamente. Una línea argumental que nos lleva a concluir, en un simple ejercicio de regla de tres, que la naturaleza algorítmica de una IA judicial que por antonomasia carece de Empatía nunca podrá aplicar una Justicia humana.

2.-¿Una IA judicial puede ofrecer garantías procesales?

Los defensores de la IA judicial afirman que las garantías procesales de un juicio están aseguradas, ya que la IA judicial actúa en la actualidad como robot-ayudante del juez, y que es el magistrado del caso quien tiene la última palabra. No obstante, la dinámica no es tan sencilla. Tomemos como ejemplo el sistema judicial chino, donde tras la sentencia de la IA, en el caso que el magistrado humano no esté conforme al veredicto debe elevar un escrito a un organismo superior exponiendo su discrepancia. Lo cual nos permite afirmar que, conociendo la condición humana, pocos serán los magistrados que aun discrepando de la sentencia de la IA opten por recurrirla, ya sea por comodidad, por miedo a diferir, o por asegurar el cumplimiento de la ratio de trabajo establecido. Y ello sin aventurarnos a imaginar un futuro donde los magistrados humanos acaben por ser sustituidos por magistrados robots, en beneficio de la eficiencia judicial y el ahorro al contribuyente. Tiempo al tiempo.

Por otro lado, y como se expuso en la introducción del artículo, los principios jurídicos sobre los que se vertebra todo Derecho Procesal, al menos en el marco de los países democráticos occidentales, se sustentan en la interpelación a la variable de la Empatía para garantizar un proceso justo por humano. Ello se entiende por medio de la evolución natural que la Justicia occidental ha desarrollado al pasar de un modelo punitivo o castigador característicos de siglos pasados, al actual modelo restaurativo que busca la readaptación del delincuente. Un modelo éste propio de la Justicia moderna que, otorgando importancia al contexto en las decisiones judiciales, entiende que no puede existir un enjuiciamiento justo sin una visión empática hacia la persona enjuiciada y sus circunstancias. No falta decir que este modelo, base de la nueva jurisprudencia de los países occidentales del siglo XXI, se vería disruptivamente alterado por la implantación generalizada de una IA jurídica exenta de Empatía humana, a la vez que dicho escenario podría conducir presumiblemente hacia un nuevo constructo judicial donde el propio Derecho Procesal que conocemos se vería substancialmente modificado. O, dicho en otras palabras, la injerencia de una IA judicial normalizada por sociabilizada puede acarrear el peligro de hacernos retroceder a un modelo judicial exclusivamente castigador.   

3.-¿Una IA judicial puede ofrecer control procesal?

Pocos serán los ingenuos que apuesten por que la implantación de una IA judicial se limite, con el tiempo, únicamente a enjuiciar. Ya que, como sabemos, la razón de ser de toda IA desde la perspectiva humana es la de favorecer la eficacia, la eficiencia y la efectividad en todos los ámbitos de desarrollo de la vida humana, incluida la Justicia, en un mundo cada vez más robotizado. Un avance de este presumible escenario lo encontramos, una vez más, en el sistema de la IA judicial chino, donde la IA no solo enjuicia sino que ejecuta la sentencia mediante una interconexión en tiempo real con los medios y recursos penalizadores del país. Lo cual hace prever que el paso de una IA judicial que sentencie a una IA judicial que ejecute la pena será, irremediablemente, directamente proporcional a la implantación progresiva de la IA judicial en el conjunto del mundo desarrollado. Es decir, la pregunta no es si una IA judicial acabará ejecutando las sentencias, sino cuándo. Un panorama futurible que nos obliga a plantearnos la siguiente cuestión: ¿llegado el caso en que la IA judicial sentencie y ejecute, los hombres continuaremos teniendo control sobre el sistema procesal?. Una pregunta acuciante por resolver, aún más si cabe, por el anuncio de la llegada inevitable de la Super IA, a la cual se le prevé autonomía y conciencia propia (12). Y todo ello sin hacer mención a la ya existente IA que es capaz de predecir los delitos antes de que ocurran, la cual bien puede acabar integrándose bajo principios de economía jurídica en la lógica procesal de una futura IA judicial de nueva generación (13). Un horizonte judicial altamente probable estadísticamente que no resulta nada tranquilizador.

A la vista de los argumentos expuestos, y de los retos que el hombre se verá obligado a afrontar en su tenacidad impetuosa por implantar una IA judicial, lo que es evidente es que en un futuro no muy lejano no solo seremos testigos de un cambio disruptivo en el sistema judicial, sino aun más veremos alterado y redefinido el propio concepto de Justicia. El cual, todo apunta, será de todo menos humano, y por tanto menos justo. Quien sabe, quizás las futuras generaciones reconstruyan a imagen y semejanza de sus tiempos la alegoría de la Justicia, y acaben por sustituirle la espada como símbolo del poder de la razón humana -donde tiene cabida la Empatía-, por algún nuevo atributo que represente un frío pero implacable algoritmo.

 

Referencias

(1)    Principios del proceso civil

(2)    China utiliza inteligencia artificial (IA) para administrar tribunales y jueces supremos; Reducir la carga de trabajo típica de los jueces en más de un tercio y ahorrar miles de millones de horas de trabajo 

(3) Perfiles de Gestión de Delincuentes Correccionales para Sanciones Alternativas (COMPAS) 

(4) Estonia se prepara para tener “jueces robot” basados en inteligencia artificial 

(5)    Inteligencia Artificial y robótica para una Justicia española disruptiva 

(6)    Carta Ética Europea de la CEPEJ sobre el uso de la inteligencia artificial (IA) en los sistemas judiciales y su entorno 

(7)    Más allá del VAR: ¿la inteligencia artificial repartirá justicia en el deporte? 

(8)    Sesgo de máquina 

(9)    Diseccionando el sesgo racial en un algoritmo utilizado para gestionar la salud de las poblaciones 

(10) Manuales de operación de China para internamiento masivo y arresto por algoritmo  

(11)Algoritmos sesgados aprenden de datos sesgados: 3 tipos de sesgos encontrados en conjuntos de datos de IA  

(12) Y la Super Inteligencia Artificial se hizo Dios, de todos los hombres 

(13) Dilemas éticos de la IA que predice los delitos antes que ocurran