El ser humano ha construido el mundo a su medida, y si algo caracteriza a nuestro mundo es justamente la impredicibilidad, lo cual obliga a las personas a una toma de decisiones continuas que afectan tanto a sí mismos como a los demás y al entorno más inmediato que las rodea. Un contexto complejo, cargado de múltiples derivaciones e implicaciones, que los robots con Inteligencia Artificial se ven obligados a afrontar desde el mismo momento en el que salen de sus zonas de acción predecibles, dígase entornos fabriles o laboratorios, para convivir con los humanos en un hábitat lleno de retos cotidianos. Pues el hombre, aun sujeto a una pauta conductual recurrente, siempre es impredecible.
En este contexto de un hábitat
humano complejo, los robots deben percibir el entorno más inmediato en el que
se encuentran, decidir qué opciones son las más correctas acorde a su
funcionalidad, y accionar su consiguiente movimiento físico en dicho entorno.
Una acción decidida por percibida que, bajo el tamiz moral por consenso humano
colectivo, puede enjuiciarse como buena o mala. O, dicho en otras palabras,
toda interacción del robot con el hombre tiene un alcance ético. He aquí la
importancia de la Roboética. Una materia que los ingenieros no pueden abordar
ni mucho menos dar respuesta de manera exclusiva, ya que la coexistencia
robot-hombre afecta profunda y transversalmente al conjunto de ámbitos sociales,
ergo se trata de un problema a resolver de carácter multidisciplinar
done la Filosofía juega un papel relevante. En caso contrario estaríamos
dejando la construcción de los nuevos modelos de sociedad en manos únicamente
de los ingenieros, tal si de una nueva oligarquía reinante se tratase, y con
ello la humanidad les estaría cediendo de facto la definición e incluso
selección negativa de los principios rectores éticos válidos para las futuras
generaciones en materia política, económica y social.
Como podemos deducir a la luz de
lo expuesto, la Roboética contempla tantas líneas de estudio como ámbitos de
interacción robot-hombre puedan llegar a existir. No obstante, el nudo gordiano
por excelencia a resolver de la Roboética es, en la actualidad, el derivado de
los automóviles autónomos en referencia a los conocidos Dilemas T (del Tranvía y
del Túnel), donde la Inteligencia Artificial debe elegir, directrices de
software mediante, entre la vida y la muerte de personas implicadas en un
supuesto crítico de circulación viaria impredecible. De estudios al respecto se
han realizado muchos, destacando el experimento de la Máquina Moral del
MIT, donde en el caso del Dilema del Tranvía la decisión más universal es la de
salvar a las personas sobre los animales, salvar a cuantas más personas mejor,
y a los niños sobre los ancianos. Además, y en el caso específico de un paso de
peatones, el orden de preferencia es el que sigue: un bebé a bordo de un
carrito, una niña, un niño y una mujer embarazada. Siendo en todo caso las
personas más sacrificables, junto con los ancianos, los delincuentes y los
sintecho. No obstante, el estudio también arrojó diferencias morales
culturales, como el hecho que los ciudadanos de Europa y EEUU cuentan con una
mayor predicción moral por las personas de complexión atlética sobre los
obesos, o que los asiáticos salvarían más a las ancianas que los occidentales (The Moral Machine Experiment, 2018). Mientras que en el caso del Dilema del
Túnel, una encuesta realizada anteriormente en el año 2014 a lectores de la
revista Robohub de la Asociación Robots de Suiza determinó, en el
supuesto de que los encuestados en calidad de conductores debieran morir o salvarse
en la carretera bajo pena de matar a un niño que imprudentemente cruzaba la
calzada, el 64% de los participantes optaron por matar al niño y salvarse ellos
en calidad de conductores.
Está claro que el hecho de intentar
afrontar los Dilemas T nos sitúa en la Roboética Práctica, que si bien debiera
derivar de una Roboética Normativa previa, su complejidad por afectar a los
derechos fundamentales del ser humano requiere de un proceso metodológico a la
inversa fundamentado en el Estudio de Caso que nos ilumine hacia la Roboética
Normativa anhelada. Y todo ello siendo conscientes que la Ética es de
naturaleza geográfica en un mundo global. Es decir, que resulta plausible la
existencia de dos Roboéticas Normativas dependiendo del bloque geoeconómico en
el que nos situemos, a falta que a largo plazo una fagotice o se simbiotice con
la otra. No obstante, y con independencia que tratar de Roboética Aplicada es
tratar, como bien apuntó el especialista en Ética de Cambridge del siglo XIX
Henry Sidgwick, de una ética práctica que debate entre el egoísmo (la
motivación que cada persona tiene en beneficio propio), el consencuencialismo
de Jeremy Bentham (que determina la moral según el valor social otorgado a las
cosas), y la deontología de Kant (que considera que el hombre tiene unos
deberes morales por encima del egoísmo y el consecuencialismo), lo cierto es
que la Roboética Aplicada en materia de automóviles autónomos en un contexto de
incertidumbre bien puede sintetizase en dos conductas humanas instintivas, que
preceden a las conductas reflexivas más propias de los valores morales:
-El Instinto de Supervivencia
Individual, donde prima el Bien Individual sobre el Bien Colectivo.
-El Instinto de Supervivencia de
la Especie, donde prima el Bien Colectivo sobre el Bien Individual.
La praxis diferenciadora
entre ambos instintos de supervivencia en los Dilemas T radica, como es fácilmente
deducible, en si está o no en juego nuestra propia vida como individuos.
Así pues, la pregunta obligada no
es otra que aquella que se cuestiona ¿cómo alinear estas dos variables
aparentemente irreconciliables para alcanzar una Roboética Normativa coherente?
O, reformulando la pregunta, ¿cómo podemos integrar dichos instintos de
supervivencia en un corpus de valores morales que
configure una Roboética Normativa cohesionada, que sea capaz de validar una
Roboética Aplicada correcta?.
Parte de la respuesta la
encontramos en la neurociencia, y más concretamente en la neurociencia moral,
cuyos estudios en la función y estructura del comportamiento moral del
cerebro nos apuntan a que los valores morales son una evolución de los
instintos, los cuales generan una conducta automática por irreflexiva de lo que
está bien y lo que está mal. Es decir, y como bien saben los psicólogos, la
moralidad es casi siempre una respuesta natural en el ser humano, piscopatías y
lesiones cerebrales aparte. Aunque a nadie se le escapa que los valores morales
son mucho más por su esencia reflexiva fruto de una gestión del conocimiento
marcadamente cultural, donde el pensamiento crítico es trascendental, de ahí la
diferencia antagónica entre ciertos instintos de supervivencia humanos y algunos
valores morales universales de corte humanista refinados por la Razón a lo
largo de milenios (pongamos como ejemplo el egoísmo y la solidaridad).
Expuesto lo cual, tenemos dos
sumas de historias feymenianas posibles en el caso que nos ocupa: una Roboética
Aplicada que integra instintos y valores morales [(Bien
Individual ∩ Bien Colectivo) U Bien
Universal), y otra Roboética Aplicada que separa instintos y valores morales [(Bien
Individual ∩
Bien Colectivo) ꓕ
Bien Universal].
Si partimos del primer escenario,
podemos hacer uso de la campana de Gauss -entre otras metodologías de
distribución estadística vinculada a una o más variables- para encontrar los
parámetros interseccionales entre los Instintos de Supervivencia Individual y
de Especie en unión al sistema de referencias del conjunto de los valores
morales universales, obtenido como resultado un corpus de valores
morales para una Roboética Normativa cohesionada como fundamento de una Roboética
Aplicada correcta.
Mientras que si partimos del
segundo escenario, el problema se complica por elección de preferencias entre las
proposiciones implicadas, obteniendo como resultado el planteamiento del trilema
que sigue:
-¿Quiere el hombre que el
vehículo autónomo siga sus instintos humanos en un contexto impredecible, pero
no puede frente a unos valores morales programados en
la Inteligencia Artificial?, entonces es impotente.
-¿Puede el hombre que el vehículo
autónomo siga sus instintos humanos en un contexto impredecible, pero no quiere
frente a unos valores morales programados en la Inteligencia Artificial?,
entonces está sometido.
-¿Quiere y Puede?, entonces, ¿qué
relevancia tiene la Inteligencia Artificial de un vehículo autónomo?.
Frente a este trilema, es obvio
que solo nos sirven las dos primeras elecciones para el caso de análisis que
nos ocupa donde existe relevancia en la decisión ética de un vehículo autónomo
en contextos impredecibles, si bien ambas conducen a resultados distintos, por
lo que la decisión entre una y otra resulta obligatoria a priori para
definir nuestro modelo de Roboética Aplicada correcta. Todo y así, si
entendemos que la Roboética Aplicada parte de una Roboética Normativa, y que ésta
para tener validez cívica debe estar respaldada por una normativa jurídica
(Derecho), siendo la Ley un instrumento de organización social que universaliza
la respuesta a una pregunta ética del hombre social, llegaremos a la conclusión
que la opción válida es la primera elección: aun queriendo el hombre que un
vehículo autónomo siga sus instintos humanos, el hombre queda impotente en su
acción frente a unos valores morales programados en la
Inteligencia Artificial del vehículo autónomo por consenso colectivo.
Lo ideal, llegados a este punto,
es que dichos valores morales programados en la Inteligencia Artificial
integren el primer escenario que contempla la simbiosis entre instintos y
valores. He aquí el punto de intersección entre ambos escenarios anteriormente
expuestos: [(Bien Individual ∩ Bien Colectivo) U Bien Universal) y [(Bien
Individual ∩
Bien Colectivo) ꓕ Bien Universal]. Dos escenarios que si bien pueden
parecer irreconciliables por contradictorios en una primera instancia, no lo
son a la luz de la Lógica aristotélica que fundamenta el método científico
contemporáneo.
Como apunte final, señalar que la
Roboética no queda exime del peligro que conlleva la estandarización de la
Ética, un problema con el que el ser humano lidia desde los albores de la
humanidad, y que el Derecho aun caminando siempre detrás de las necesidades
sociales intenta dar solución práctica. Peligro mayor presenta la excesiva
sintetización de la Ética por parte de los ingenieros informáticos, quienes la
convierten en una simple respuesta de acción robótica para el entorno humano,
sin mayores parámetros de referencia que aquellos marcados por la eficacia, la
eficiencia y la efectividad. Y sin olvidar que la Ética, como materia reflexiva
del comportamiento moral de un ser humano en continua evolución, no es una
materia estática sino cambiante por viva como parte indisoluble de una
consciencia humana colectiva que madura progresivamente. Todo y así, tenemos un
faro que ilumina la humanidad que no es otro que los valores morales
universales, los cuales marcan como ideas apriorísticas el horizonte conductual
al que el hombre debe dirigirse para trascender su naturaleza de animal social.
Dicho lo cual, Roboética Aplicada estandarizada sí, pero bajo la luz de una
Roboética Normativa tan vigilante como periódicamente revisionista. En caso
contrario, la ética robótica puede acabar convirtiéndose en todo menos en humana.