domingo, 28 de agosto de 2022

Roboética, un rompecabezas sin completar

Si algo caracteriza a la presente Cuarta Revolución Industrial de la humanidad es, sin lugar a dudas, la entrada en la Era de la Robótica, donde los robots no son simples autómatas al puro estilo mecanicista medieval y renacentista, sino que cuentan con Inteligencia Artificial. Y es justamente este tipo de inteligencia computacional, basada en la combinación de algoritmos, la que posibilita a los robots imitar e incluso superar las capacidades propiamente humanas, en algunos casos además con toma de decisiones autónomas derivadas de su facultad potencial de autoaprendizaje. He aquí donde el asunto de los robots se complica, sobre todo para nuestra especie, pues la Inteligencia Artificial les permite que, a partir de casos concretos basados en lógicas conductuales preprogramadas, puedan abstraer principios de comportamiento cuyas decisiones afectan de lleno a la Ética. Y, ¿por qué a la Ética?, podemos preguntarnos. Pues porque toda conducta que incida sobre el ámbito del ser humano, aunque sea de naturaleza artificial, es susceptible de ser moralmente considerada como aceptable o reprochable. De ahí la imperiosa necesidad del hombre contemporáneo en crear una nueva disciplina acorde a los tiempos actuales denominada Roboética.  

Dicho lo cual, ¿cuáles son los principios y fundamentos de la Roboética como disciplina? Lo cierto es que, aunque sea vergonzoso aceptarlo, no están claros. Depende si los valores que conforman el corpus ethicum validador de la conducta humana, como comportamiento reflejo a seguir por los robots, beben de sistemas culturales de organización social democráticos o autoritarios, de filosofías existencialistas humanistas o capitalistas, entre otros parámetros. Ya que, como todos sabemos aun a pesar de la ceguera etnocentrista occidental, la Ética tanto es geográfica como, en un mercado global, profundamente económica. Tal es el caso, por poner un ejemplo, del principio del derecho a la privacidad personal cuyo valor ético viene condicionado por su latitud de origen y por el interés partidista del Mercado.

Pero aún más: la exposición de este hecho irrefutable nos cuestiona, a día de hoy y sin necesidad de plañimientos en plaza pública, la naturaleza de la propia Roboética en calidad de disciplina. Entendiendo toda disciplina como un conjunto de normas jerárquicas cuyo cumplimiento constante, por consenso colectivo, conducen a un resultado inequívoco con independencia de su contexto de aplicación. Por lo que, en consecuencia, debemos entender actualmente la Roboética ya no como una disciplina stricto sensu, sino como una joven materia objeto de estudio por parte de la Filosofía contemporánea; que no es poco. Aunque por otro lado, no es menos cierto de la existencia tanto de hordas de ingenieros mercenarios bajo bandera de corporaciones tecnológicas que, con criterios sesgados por económico partidistas, intentan estructurar la Roboética con el fin de convertirla en una disciplina al uso; así como recientemente es patente la participación de organismos públicos que buscan desarrollarla bajo marcos normativos jurídicos internacionales y nacionales, dígase aquí las Recomendaciones Éticas sobre la Inteligencia Artificial de la Unesco de noviembre de 2021, las Directrices Éticas para una Inteligencia Artificial Fiable de la Unión Europea de abril de 2019, o los derechos civiles ante la Inteligencia Artificial de la Carta de Derechos Digitales del Gobierno de España de julio de 2021, por poner algunos ejemplos relevantes. Esfuerzos en suma por parte de los actores implicados que, cabe aclarar, no resuelven los muchos y grandes desafíos éticos que supone la Inteligencia Artificial. En gran medida por la inexistencia de unos principios y fundamentos claros por universales de la Roboética. Y en menor parte, pero no por ello menos relevante, porque el amplio rango de dominio que tiene la Inteligencia Artificial, en su interrelación creciente con todos los ámbitos de la vida humana, presenta estadísticamente una cantidad significativa de problemas éticos potenciales que, sin una buena estructuración rigurosa de la Roboética como disciplina, ni las políticas corporativas de las compañías tecnológicas en materia de ética artificial, ni mucho menos los legisladores que siempre van a traspiés, pueden llegar a abarcar.   

Lo que queda claro, por tanto, es que la Roboética, que la concebimos como aquella materia de estudio que identifica y analiza la naturaleza y el impacto ético de la Inteligencia Artificial en el medio humano (ya sea el propio de los derechos civiles, de la salud, de la educación, de la política, del entorno laboral, de la economía, o de cualquier otro), tanto ha trascendido de creces las tres famosas leyes de la robótica estipuladas por Isaac Asimov en la primera mitad del siglo pasado por desarrollo evolutivo natural de la sociedad contemporánea, como requiere por consiguiente de un esfuerzo metodológico colectivo que la estructure en calidad de disciplina académica y, por extensión, científica. En este sentido, considero requisito obligatorio para un adecuado proceso metodológico inicial el organizar la Roboética en tres niveles bien diferenciados: Metaética Robótica, Roboética Normativa, y Roboética Aplicada.

Sin explayarnos en estos conceptos apuntaremos que la Metaética Robótica debe atender tanto el origen de los valores morales como sustrato fundamental del corpus ethicum de la Roboética, como sobre todo la definición o explicación de las características que conforman dichos valores morales; que la Roboética Normativa debe atender la búsqueda de normas o reglas de oro en calidad de principios generales que determinen las conductas éticas de la Inteligencia Artificial; y que la Roboética Aplicada debe atender las cuestiones morales atribuidas a casos concretos de la vida humana y a sus controversias derivadas en la aplicación de la Roboética Normativa. Una división de niveles para una buena estructuración de la Roboética como disciplina que, en la actualidad, brilla por su ausencia en el mercado bajo la dinámica de un totum revolutum. Un caos estructural donde los actores privados y públicos implicados en Inteligencia Artificial tan solo ponen foco, con mayor o menor diligencia, en un ámbito que bien podría equipararse al nivel de la Roboética Normativa, aunque de manera totalmente dispar entre ellos. Dando lugar a una coexistencia de sistemas normativos desiguales causados por la carencia de una estandarización en los principios éticos a normatizar y, de paso, dejando los problemas de la Roboética Aplicada derivados de sus normas singulares por disparejas a los ingenieros informáticos (que se erigen como filósofos de la moral). Es decir, y echando mano del refranero: en el campo de la Inteligencia Artificial ética a día de hoy cada maestrillo tiene su librillo (de principios roboéticos).

Tanto es así que, si hacemos un estudio y posterior análisis de los principios rectores éticos en materia de Inteligencia Artificial por parte de entidades gubernamentales, grandes corporaciones tecnológicas, entidades privadas, y asociaciones académicas, se pueden observar a fecha de hoy catorce principios generales susceptibles en materia de Roboética Normativa: Crecimiento inclusivo y Bienestar, Promoción de los Valores y Derechos Humanos, Equidad y no Discriminación, Sostenibilidad (ambiental), Derecho a la Intimidad y Protección de Datos, Transparencia y Explicabilidad, Gobernanza y colaboración adaptativas y de múltiples partes implicadas, Proporcionalidad e Inocuidad, Seguridad y Protección (en la robustez de la fiabilidad de los sistemas), Responsabilidad y Rendición de Cuentas, Justicia, Sensibilidad y Educación, Excelencia Científica, y Supervisión y decisión humana. Y, de todos ellos, tan solo el principio general de la Seguridad y Protección en el uso de la Inteligencia Artificial es común al conjunto de los actores implicados (obviamente, pues nadie desea un producto defectuoso). El resto de principios son de observancia dispar según la naturaleza de cada actor. Si bien, es de obligada mención, los principios éticos de Equidad y no Discriminación, y de Transparencia y Explicabilidad se sitúan en segunda posición a poca distancia como normas consensuadas por casi todos ellos. No obstante, cabe destacar asimismo que existen grandes diferencias entre los principios observados por el sector público y el sector privado. Por exponer algunos ejemplos comparativos clarificadores, señalar que en el sector privado no hay cabida en la actualidad para los principios éticos normativos en la Promoción de los Valores y Derechos Humanos, la Sostenibilidad ambiental, la Proporcionalidad e Inocuidad, la Responsabilidad y Rendición de Cuentas, o la Justicia (¡con los intereses del Mercado hemos topado!). Mientras que por otro lado sí que contemplan, de manera paradójica por no calificar de irónica, el Derecho a la Intimidad y la Protección de Datos como uno de sus principios éticos principales, lo cual es bien sabido que se trata de un fundamento incumplido sistemáticamente por las grandes corporaciones tecnológicas bajo la lógica del mercadeo de los ciudadanos en calidad de consumidores y consumibles.

Como se puede deducir a la luz de los argumentos expuestos, la Roboética no solo está en pañales sino que es un rompecabezas sin completar. Un nudo gordiano en un sistema referencial de valores éticos desestructurado, donde los intereses económicos y los ideales socio-políticos de un mundo polarizado por potencias antagónicas ejercen su férrea resistencia en un tablero de juego global. Lo cual no implica que nos hallemos ante un problema irresoluble, sino frente a un apasionante reto por desarrollar de inevitable afrontación a causa de sus profundas implicaciones sociales. Siendo el primer principio ético como fuerza inercial de la Roboética la Responsabilidad, pues en su definición y desarrollo nos jugamos el sistema moral de las futuras generaciones. Preguntémonos qué tipo de Inteligencia Artificial ética estamos creando y nos responderemos sobre qué tipo de sociedad estamos construyendo. Así pues, la pregunta consiguiente que se tercia no es si la Roboética tiene futuro como disciplina, pues esta respuesta cae afirmativamente por su propio peso gravitatorio social, sino cuál es el futuro que le espera a la Roboética a corto y medio plazo. La conclusión es, a todas luces, más sencilla de lo que pudiera parecer en primera instancia: en un mundo polarizado económica y políticamente, la lógica induce a pensar que coexistirán dos sistemas de Roboética predominantes al menos de manera transitoria, hasta que llegado el momento a décadas vista una acabe por fagotizar a la otra o, en el mejor de los escenarios, a simbiotizarse mutuamente.

Mientras tanto, desde la Filosofía de herencia occidental, trabajemos sin dilación por una Metaética Robótica fundamentada en los valores morales universales de tradición clásica, desarrollemos una Roboética Normativa a la luz de los Derechos Humanos vertebrados en los derechos civiles propios de los Estados Sociales y Democráticos de Derecho, y trabajemos por una Roboética Aplicada que vele de manera garantista por los preceptos fundamentales para el desarrollo de una vida digna para todas las personas a la luz de la Roboética Normativa.

-Muy bien, ¿y en el caso del Dilema del Tranvía para vehículos autónomos, qué solución damos?,- podría preguntar un pragmático tal que un ingeniero o un agente de seguros.

-Para esta y otras cuestiones de Roboética Aplicada, contráteme y me pongo a trabajar en la respuesta, que los filósofos aun siendo buenos en resolución de problemas complejos no vivimos solo de teorizar.

-Bueno..., quizás ya me apañe con el equipo de programadores.

-Usted mismo, aunque recuerde que enseñar ética a un robot no es como jugar al tetris, sino más bien como enseñar solfeo a una hormiga. Dicho lo cual, y a la espera que entienda que debe poner un filósofo en su compañía, que tenga un buen día.


Enlace:

www.roboetica-consultoria.com