Vehículos autónomos y dilemas morales

by Julen

El progreso (bueno, o lo que sea) nos entrega máquinas con cada vez mayores capacidades. Un buen ejemplo que cualquiera comprende es el de los vehículos autónomos. En vez de que seamos nosotras, las personas de a pie, quienes tomemos las decisiones, la propuesta es delegar en la máquina. Si el suelo está húmedo, los neumáticos presentan cierto nivel de desgaste y el vehículo que nos precede circula a una determinada velocidad, la máquina (que ya no conducimos) decide que no se aproximará a una determinada distancia de ese vehículo. Para ello tiene en cuenta los distintos parámetros que es capaz de procesar, con datos más fiables que los que nuestro sistema sensorial y de percepción es capaz de obtener.

La inteligencia artificial de la que se dota a la máquina le transfiere potencialmente la decisión. Pero el asunto se complica porque la ciencia de los datos (el dataísmo del que Yuval Noah Harari en Homo Deus y Byung-Chul Han en Psicopolítica han escrito) se puede enfrentar a situaciones en las que entran en juego no ya hechos objetivos sino implicaciones morales. La máquina, con su capacidad de procesamiento, pudiera tener que decidir si atropello a unas personas o a otras.

El MIT nos ofrece un juego para que tomemos conciencia sobre lo que decidimos como personas si se nos presentara un dilema de estas características. Puedes jugar desde la página Moral Machine. El sitio está traducido a varios idiomas, incluido el español. La dinámica del juego que se propone es muy sencilla y forma parte de los clásicos dilemas morales que seguramente en algún momento de nuestra educación nos plantearon: ¿a quién matar si no hay opción de evitarlo?

El juego nos coloca frente a decisiones que nos obligan a priorizar: ¿primero nosotras o primero otras personas?, ¿a qué tipo de personas otorgamos más valor: gente joven, ancianos, niños, gente en forma, mujeres, hombres? No hay otra; tenemos que elegir. Y ahí cada cual tiene que enfrentarse a la persona que es y a los valores que arrastra. Por supuesto, la estadística está para lo que está y el juego nos comparará con las puntuaciones medias: ¿cómo somos si nos comparamos con el resto de personas que han realizado el ejercicio?

Aunque ya conocía este sito web he vuelto a él ahora con más interés ya que estoy preparando contenidos para lo que serán unas clases sobre ética en torno a la inteligencia artificial y el universo Big Data en el nuevo grado de Business Data Analytics que impartimos en Bilbao el curso que viene desde Mondragon Unibertsitatea. Una de las referencias a nivel estatal para conseguir una primera aproximación es, sin lugar a dudas, Rosa Colmenarejo Fernández, doctora por la Universidad de Córdoba y estudiosa de estas cuestiones. Tiene un librito muy interesante publicado por la UOC: Una ética para Big Data. Introducción a la gestión ética de datos masivos. Digo «librito» porque son solo 128 páginas repartidas en cinco capítulos con su correspondiente bibliografía y lo cito porque el libro contenía la referencia a Moral Machine.

La creciente capacidad de las máquinas nos obliga a profundizar en un planteamiento sociotecnológico. Más allá de la tecnología en sí misma, nuestra humanidad (o la evolución hacia el homo deus si seguimos a Harari) necesita enfrentarse al desafío de las supermáquinas. Richard Sennett decía en Construir y habitar que «es preciso concebir las máquinas más como presencias extrañas que como amigas» y aludía a la distinción entre replicantes y robots. De ello escribiremos algún otro día. Sea como sea, ciertas máquinas del presente y muchas más en el futuro nos van a enfrentar a dilemas morales.

En fin, participa y juega a la Moral Machine. Es solo un juego pero quizá el futuro deba resolver esos dilemas morales porque las máquinas habrán tomado el mando de ciertos ámbitos de decisión. ¿O no?

Artículos relacionados

3 comentarios

Isabel 09/07/2019 - 13:26

¡Uff!… y supongo que de paso que jugamos vamos alimentando los datos para el diseño o rediseño del algoritmo que regirá las decisiones que esa inteligencia artificial tomará en nuestro nombre.

Fíjate que ni me atrae la idea de la simulación. Espero que nunca me toque esa decisión (como otras muchas que la vida nos puede poner delante, alguna tocará) pero casi prefiero apechugar con lo que sea capaz de hacer, o no hacer, si tal cosa sucede, que cargar además con el remordimiento de por qué esa decisión y no la otra. Me ha recordado a la que tiene que tomar la protagonista de La decisión de Sophie

Responder
Julen 10/07/2019 - 16:23

El asunto, me temo, es que las máquinas ya están decidiendo cada vez más cosas. A lo mejor incluso más que decidir qué niño salvar es qué niño eliges tener. Serán algoritmos los que nos dirán qué decisiones tomar en tantos ámbitos de la vida… Bufff, tela, ¿verdad?

Responder
Ética respecto a los datos masivos en un grado universitario - Consultoría artesana en red 02/10/2019 - 06:55

[…] Como decía, hoy comenzamos. La primera sesión la quiero dedicar a preguntarles sobre qué aspectos consideran que debemos tratar en las 20 horas de que dispondremos en el grado. Yo, por supuesto, tengo mi teoría bien pensada, pero me interesa buscar por dónde va su pensamiento. Además, quiero jugar en el aula con la máquina moral diseñada por el MIT para que nuestros algoritmos decidan en el caso de un accidente inevitable de un vehículo autónomo. Ya comenté este juego en un post anterior. […]

Responder

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.