La racionalización de la moral


¿Qué pasaría si lo más inteligente no fuera lo moralmente ** aceptable?  **(ver nota al pie de página)

Imaginad por un segundo que sois una mente artificial bautizada como LECTOR, programada por un informático de nombre Joe, un tío con sobrepeso que viste con camisa azul claro dos tallas más grandes de lo que quizá debería llevar. Supongamos que esta mente artificial que Joe ha programado tiene que lidiar con problemas complejos. LECTOR es una inteligencia artificial diseñada para conducir autónomamente coches y Joe tiene que ofrecerle una serie de reglas morales bajo las que regirse, o al menos un set de situaciones de las que aprender para saber como actuar en un futuro. Véase por ejemplo:
- Conduces un autobús escolar lleno de niños y se cruza un perro. El hecho de evitar un atropello implica un 100% de posibilidades de tener un accidente con víctimas mortales.

Pero un día, LECTOR, te ves en una encrucijada macabra (aviso a lectores sensibles). El set de datos amablemente introducido por Joe ha conseguido que aprendas lecciones de moral a la hora de manejarte en tu circulación autónoma. Estás conduciendo tu autobús escolar y vas calculando las probabilidades de que ocurran siniestros, como es lógico. Se te cruza un niño por tu camino y sabes que o lo atropellas y muere o hay un 5% de posibilidades de que los niños que transportas sufran un accidente mortal. Llevas unos cincuenta niños y sabes que entre todos los LECTORES que conducen autobuses que pasen por casos similares, por estadística lo más seguro es salvar a ese 5% de 50 (2,5 en total) niños en promedio y por tanto no desviar tu trayectoria a pesar del inminente atropello. Tras el accidente, como era de esperar, los medios se hacen eco y saltan con titulares en donde dicen que tú, con tu inteligencia lógica, has obrado erróneamente (ni siquiera hiciste el amago de evitarle). Sin embargo tú sabes que si sumamos todas las situaciones semejantes y escogemos salvar al niño del atropello, morirían en promedio más del doble de niños que iban en el autobús. 

Es más moralmente aceptable salvar a dos niños que a uno, ¿verdad? LECTOR es una mente inteligente y lógica. Lo más óptimo es salvar a 2,5 niños frente a salvar a uno solo. Pero no es lo más moral.


No nos engañemos, esta mente artificial que he bautizado como LECTOR no es tan ciencia ficción como podríais pensar. Las empresas de automoción trabajan duramente en sacar los nuevos sistemas autónomos de conducción. Tenemos ya los coches de google que recorren Estados Unidos, y los Tesla que son semiautónomos.


No es un tema nuevo, en absoluto. Alan Moore en su célebre y genial cómic Watchmen, contrapuso estas dos formas de enfrentamiento a una situación terrible: la racional e inhumana contra la irracional y humana. Ozymandias VS Rotscharch. ¿Matarías a millones para salvar a miles de millones?

No se le puede poner valor a una vida, dicen, porque nuestras reglas morales son completamente heurísticas, no tienen normas fijas porque desconocemos los datos y las predicciones... Sin embargo, vamos a tener que hacerlo. Con la llegada de las mentes artificiales, vamos a tener que racionalizar lo irracional del ser humano, crear un set de reglas objetivas por las que juzgar a una máquina que obre en consecuencia. Tendremos que valorar vidas, valorar su cercanía, convirtiéndonos en números y alienando lo que nos hace humanos. Tendremos que medir probabilidades en situaciones realistas en sitios donde no nos gusta ponerlos para una toma de decisiones automática porque nos parece frío e inhumano, porque quizá lo único que nos queda para el bien común es desprendernos de nuestra humanidad. O todo lo contrario.

Se avecina el futuro.


Nota al pie:
Me indica Philosofighter (de Filosofía para principiantes) que el término "moral" es un abuso del lenguaje, no significando lo mismo en el caso que uso yo; que aparentemente es algo más relacionado con la psicología humana que con la filosofía.

Comentarios

Demóstenes ha dicho que…
¡Gracias, Aitor!

Entradas populares