jueves, 15 de septiembre de 2022

Roboética y Vehículos Autónomos: El nudo gordiano a resolver

El ser humano ha construido el mundo a su medida, y si algo caracteriza a nuestro mundo es justamente la impredicibilidad, lo cual obliga a las personas a una toma de decisiones continuas que afectan tanto a sí mismos como a los demás y al entorno más inmediato que las rodea. Un contexto complejo, cargado de múltiples derivaciones e implicaciones, que los robots con Inteligencia Artificial se ven obligados a afrontar desde el mismo momento en el que salen de sus zonas de acción predecibles, dígase entornos fabriles o laboratorios, para convivir con los humanos en un hábitat lleno de retos cotidianos. Pues el hombre, aun sujeto a una pauta conductual recurrente, siempre es impredecible.

En este contexto de un hábitat humano complejo, los robots deben percibir el entorno más inmediato en el que se encuentran, decidir qué opciones son las más correctas acorde a su funcionalidad, y accionar su consiguiente movimiento físico en dicho entorno. Una acción decidida por percibida que, bajo el tamiz moral por consenso humano colectivo, puede enjuiciarse como buena o mala. O, dicho en otras palabras, toda interacción del robot con el hombre tiene un alcance ético. He aquí la importancia de la Roboética. Una materia que los ingenieros no pueden abordar ni mucho menos dar respuesta de manera exclusiva, ya que la coexistencia robot-hombre afecta profunda y transversalmente al conjunto de ámbitos sociales, ergo se trata de un problema a resolver de carácter multidisciplinar done la Filosofía juega un papel relevante. En caso contrario estaríamos dejando la construcción de los nuevos modelos de sociedad en manos únicamente de los ingenieros, tal si de una nueva oligarquía reinante se tratase, y con ello la humanidad les estaría cediendo de facto la definición e incluso selección negativa de los principios rectores éticos válidos para las futuras generaciones en materia política, económica y social.

Como podemos deducir a la luz de lo expuesto, la Roboética contempla tantas líneas de estudio como ámbitos de interacción robot-hombre puedan llegar a existir. No obstante, el nudo gordiano por excelencia a resolver de la Roboética es, en la actualidad, el derivado de los automóviles autónomos en referencia a los conocidos Dilemas T (del Tranvía y del Túnel), donde la Inteligencia Artificial debe elegir, directrices de software mediante, entre la vida y la muerte de personas implicadas en un supuesto crítico de circulación viaria impredecible. De estudios al respecto se han realizado muchos, destacando el experimento de la Máquina Moral del MIT, donde en el caso del Dilema del Tranvía la decisión más universal es la de salvar a las personas sobre los animales, salvar a cuantas más personas mejor, y a los niños sobre los ancianos. Además, y en el caso específico de un paso de peatones, el orden de preferencia es el que sigue: un bebé a bordo de un carrito, una niña, un niño y una mujer embarazada. Siendo en todo caso las personas más sacrificables, junto con los ancianos, los delincuentes y los sintecho. No obstante, el estudio también arrojó diferencias morales culturales, como el hecho que los ciudadanos de Europa y EEUU cuentan con una mayor predicción moral por las personas de complexión atlética sobre los obesos, o que los asiáticos salvarían más a las ancianas que los occidentales (The Moral Machine Experiment, 2018). Mientras que en el caso del Dilema del Túnel, una encuesta realizada anteriormente en el año 2014 a lectores de la revista Robohub de la Asociación Robots de Suiza determinó, en el supuesto de que los encuestados en calidad de conductores debieran morir o salvarse en la carretera bajo pena de matar a un niño que imprudentemente cruzaba la calzada, el 64% de los participantes optaron por matar al niño y salvarse ellos en calidad de conductores.

Está claro que el hecho de intentar afrontar los Dilemas T nos sitúa en la Roboética Práctica, que si bien debiera derivar de una Roboética Normativa previa, su complejidad por afectar a los derechos fundamentales del ser humano requiere de un proceso metodológico a la inversa fundamentado en el Estudio de Caso que nos ilumine hacia la Roboética Normativa anhelada. Y todo ello siendo conscientes que la Ética es de naturaleza geográfica en un mundo global. Es decir, que resulta plausible la existencia de dos Roboéticas Normativas dependiendo del bloque geoeconómico en el que nos situemos, a falta que a largo plazo una fagotice o se simbiotice con la otra. No obstante, y con independencia que tratar de Roboética Aplicada es tratar, como bien apuntó el especialista en Ética de Cambridge del siglo XIX Henry Sidgwick, de una ética práctica que debate entre el egoísmo (la motivación que cada persona tiene en beneficio propio), el consencuencialismo de Jeremy Bentham (que determina la moral según el valor social otorgado a las cosas), y la deontología de Kant (que considera que el hombre tiene unos deberes morales por encima del egoísmo y el consecuencialismo), lo cierto es que la Roboética Aplicada en materia de automóviles autónomos en un contexto de incertidumbre bien puede sintetizase en dos conductas humanas instintivas, que preceden a las conductas reflexivas más propias de los valores morales:

-El Instinto de Supervivencia Individual, donde prima el Bien Individual sobre el Bien Colectivo.

-El Instinto de Supervivencia de la Especie, donde prima el Bien Colectivo sobre el Bien Individual.

La praxis diferenciadora entre ambos instintos de supervivencia en los Dilemas T radica, como es fácilmente deducible, en si está o no en juego nuestra propia vida como individuos.

Así pues, la pregunta obligada no es otra que aquella que se cuestiona ¿cómo alinear estas dos variables aparentemente irreconciliables para alcanzar una Roboética Normativa coherente? O, reformulando la pregunta, ¿cómo podemos integrar dichos instintos de supervivencia en un corpus de valores morales que configure una Roboética Normativa cohesionada, que sea capaz de validar una Roboética Aplicada correcta?.

Parte de la respuesta la encontramos en la neurociencia, y más concretamente en la neurociencia moral, cuyos estudios en la función y estructura del comportamiento moral del cerebro nos apuntan a que los valores morales son una evolución de los instintos, los cuales generan una conducta automática por irreflexiva de lo que está bien y lo que está mal. Es decir, y como bien saben los psicólogos, la moralidad es casi siempre una respuesta natural en el ser humano, piscopatías y lesiones cerebrales aparte. Aunque a nadie se le escapa que los valores morales son mucho más por su esencia reflexiva fruto de una gestión del conocimiento marcadamente cultural, donde el pensamiento crítico es trascendental, de ahí la diferencia antagónica entre ciertos instintos de supervivencia humanos y algunos valores morales universales de corte humanista refinados por la Razón a lo largo de milenios (pongamos como ejemplo el egoísmo y la solidaridad).

Expuesto lo cual, tenemos dos sumas de historias feymenianas posibles en el caso que nos ocupa: una Roboética Aplicada que integra instintos y valores morales [(Bien Individual Bien Colectivo) U Bien Universal), y otra Roboética Aplicada que separa instintos y valores morales [(Bien Individual Bien Colectivo) Bien Universal].

Si partimos del primer escenario, podemos hacer uso de la campana de Gauss -entre otras metodologías de distribución estadística vinculada a una o más variables- para encontrar los parámetros interseccionales entre los Instintos de Supervivencia Individual y de Especie en unión al sistema de referencias del conjunto de los valores morales universales, obtenido como resultado un corpus de valores morales para una Roboética Normativa cohesionada como fundamento de una Roboética Aplicada correcta.

Mientras que si partimos del segundo escenario, el problema se complica por elección de preferencias entre las proposiciones implicadas, obteniendo como resultado el planteamiento del trilema que sigue:

-¿Quiere el hombre que el vehículo autónomo siga sus instintos humanos en un contexto impredecible, pero no puede frente a unos valores morales programados en la Inteligencia Artificial?, entonces es impotente.

-¿Puede el hombre que el vehículo autónomo siga sus instintos humanos en un contexto impredecible, pero no quiere frente a unos valores morales programados en la Inteligencia Artificial?, entonces está sometido.

-¿Quiere y Puede?, entonces, ¿qué relevancia tiene la Inteligencia Artificial de un vehículo autónomo?.  

Frente a este trilema, es obvio que solo nos sirven las dos primeras elecciones para el caso de análisis que nos ocupa donde existe relevancia en la decisión ética de un vehículo autónomo en contextos impredecibles, si bien ambas conducen a resultados distintos, por lo que la decisión entre una y otra resulta obligatoria a priori para definir nuestro modelo de Roboética Aplicada correcta. Todo y así, si entendemos que la Roboética Aplicada parte de una Roboética Normativa, y que ésta para tener validez cívica debe estar respaldada por una normativa jurídica (Derecho), siendo la Ley un instrumento de organización social que universaliza la respuesta a una pregunta ética del hombre social, llegaremos a la conclusión que la opción válida es la primera elección: aun queriendo el hombre que un vehículo autónomo siga sus instintos humanos, el hombre queda impotente en su acción frente a unos valores morales programados en la Inteligencia Artificial del vehículo autónomo por consenso colectivo.   

Lo ideal, llegados a este punto, es que dichos valores morales programados en la Inteligencia Artificial integren el primer escenario que contempla la simbiosis entre instintos y valores. He aquí el punto de intersección entre ambos escenarios anteriormente expuestos: [(Bien Individual Bien Colectivo) U Bien Universal) y [(Bien Individual Bien Colectivo) Bien Universal]. Dos escenarios que si bien pueden parecer irreconciliables por contradictorios en una primera instancia, no lo son a la luz de la Lógica aristotélica que fundamenta el método científico contemporáneo.

Como apunte final, señalar que la Roboética no queda exime del peligro que conlleva la estandarización de la Ética, un problema con el que el ser humano lidia desde los albores de la humanidad, y que el Derecho aun caminando siempre detrás de las necesidades sociales intenta dar solución práctica. Peligro mayor presenta la excesiva sintetización de la Ética por parte de los ingenieros informáticos, quienes la convierten en una simple respuesta de acción robótica para el entorno humano, sin mayores parámetros de referencia que aquellos marcados por la eficacia, la eficiencia y la efectividad. Y sin olvidar que la Ética, como materia reflexiva del comportamiento moral de un ser humano en continua evolución, no es una materia estática sino cambiante por viva como parte indisoluble de una consciencia humana colectiva que madura progresivamente. Todo y así, tenemos un faro que ilumina la humanidad que no es otro que los valores morales universales, los cuales marcan como ideas apriorísticas el horizonte conductual al que el hombre debe dirigirse para trascender su naturaleza de animal social. Dicho lo cual, Roboética Aplicada estandarizada sí, pero bajo la luz de una Roboética Normativa tan vigilante como periódicamente revisionista. En caso contrario, la ética robótica puede acabar convirtiéndose en todo menos en humana.