Una película de terror: el coche sin conductor de Google

by Julen

Accidente de cocheDavid Weinberger escribía hace unos días un artículo de los que te hacen pensar: Will a Google car sacrifice you for the sake of the many? (And Networked Road Neutrality). En él imagina un escenario en el que muchos coches sin conductor están rodando por nuestras calles y carreteras. Por supuesto, todos están interconectados. Y eso quiere decir que tienen que tomar decisiones de acuerdo con las circunstancias concretas que ocurran. Deberán tener en cuenta su propia situación y la de otros coches que los rodean.

Pues bien, el señor Weinberger nos coloca ante una situación delicada:

Google self-driving cars are presumably programmed to protect their passengers. So, when a traffic situation gets nasty, the car you’re in will take all the defensive actions it can to keep you safe.

But what will robot cars be programmed to do when there’s lots of them on the roads, and they’re networked with one another?

We know what we as individuals would like. My car should take as its Prime Directive: “Prevent my passengers from coming to harm.” But when the cars are networked, their Prime Directive well might be: “Minimize the amount of harm to humans overall.” And such a directive can lead a particular car to sacrifice its humans in order to keep the total carnage down. Asimov’s Three Rules of Robotics don’t provide enough guidance when the robots are in constant and instantaneous contact and have fragile human beings inside of them.

Es decir, el asunto es que un vehículo en forma individual, con los datos que maneja de la situación, incluyendo lo que le rodea, tendrá que decidir qué daño ocasiona ante un accidente inevitable. Eso supone elegir entre diferentes tipos de daños. Dicho a lo bestia, matar a una persona o a otra. Atropellar a una niña de lazo azul en el pelo o a una pareja de ancianos porque no hay tiempo material para frenar y evitar a la niña. Pero desviarse supone atropellar a ese par de ancianos de aspecto tan entrañable. ¿Y si la decisión es sacrificar a quien ocupa el vehículo? ¿O será mejor sacrificar a la pareja joven que ocupa el coche que viene de frente por el otro carril? ¿Y qué hará esa otra máquina en el caso de que nuestro vehículo haya decidido estrellarse contra él?

El conflicto moral es evidente: ¿cómo acordamos la orden que tomará el «robot»? Sí, vale, parece ciencia ficción pero puede que no lo sea tanto. La Internet de las Cosas saca a escena, como ya hemos comentado aquí en varias ocasiones, el conflicto sobre si es BigData o la máquinas/objetos quienes deciden. Pero por detrás, está el asunto de cuál será la decisión, una vez que hemos delegado ciertos asuntos en las máquinas. Nos enfrentamos ante un dilema muy humano. Las máquinas -en este caso los coches- podrían prometernos menores índices globales de siniestralidad en las carreteras pero surgen momentos en que las decisiones serán dramáticas.

De hecho se plantea otro gran dilema, que David Weinberger denomina la Networked Road Neutrality:

Imagine a time when the roadways are full of self-driving cars and trucks. There are some good reasons to think that that time is coming, and coming way sooner than we’d imagined.

Imagine that Google remains in the lead, and the bulk of the cars carry their brand. And assume that these cars are in networked communication with one another.

Can we assume that Google will support Networked Road Neutrality, so that all cars are subject to the same rules, and there is no discrimination based on contents, origin, destination, or purpose of the trip?

Buff, vaya cuestiones. ¿Llegaremos a este escenario o es solo ciencia ficción que no se hará realidad? Tiempo al tiempo.

Artículos relacionados

15 comentarios

Venan 16/06/2014 - 08:29

Yo daría una solución/respuesta humana como a tantos otros dilemas a los que tenemos que enfrentarnos. El problema no es de las máquinas, sino de quien las programa. Qué haría Julen como programador (Dios supremo), la niña, los ancianos, la pareja joven o estrellar contra el muro a sus ocupantes? Probablemente el mismo compromiso que el piloto a punto de estrellarse.

Responder
Julen 17/06/2014 - 06:07

La cuestión es, Venan, ¿será la máquina «neutral»? Lo cual no quiere decir que el humano lo sea, pero igual que da respeto pensar en una Internet de dos velocidades, imagina coches con diferentes pre-programaciones. Buff, me parece tema delicadísimo.

Responder
pere losantos 18/06/2014 - 14:48

Julen,

eres grande (aunque prefieras los entornos pequeños y cercanos :)!

El tema de las prioridades de paquetes lo trabajamos en una clase con chicos/as de máster de telecos. Partimos de http://www.matternet.us para una clase de creatividad, imaginarnos el cielo surcado por drones y qué servicios podrían vender los chavales.

Establecimos paralelismos con el protocolo http, con VPN (autopistas confidenciales de google-camiones) y algunos otros temas. No conocía la referencia de David Weinberger, en la clase del año que viene la usaré.

Gracias por cada post matutino!

Responder
pere losantos 18/06/2014 - 14:49

Ah, lo expliqué en un post. La mejor idea para los alumnos, el DroneBook 🙂

http://perelosantos.eu/2014/05/20/30-ideas-de-negocio-sobre-matternet/

Responder
Julen 19/06/2014 - 05:26

Nada, Pere. Aquí cada cual con nuestra enfermedad. Lo mío es un vomitorio matutino en forma de post 😉
David Weinbergeer tiene un blog bien interesante. Es el tipo que escribió el Cluetrain Manifiesto.

Responder

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.