De todas las discusiones de ciencia que me he encontrado últimamente, ésta es la que más interés ha suscitado. Se trata del artículo a cargo de Patrick Lin, donde se cuestionaba la ética del coche autónomo (artículo original).
El dilema versa así: si el coche autónomo fuera a toda la velocidad, y se viera frente a la posibilidad de chocarse contra un coche grande o un coche pequeño, ¿con cuál decidiría impactar, si el coche estuviese programado para minimizar el daño? ¿Es esto una situación improbable? Bueno, no tanto. Es muy común que en carreteras de nuestro país (y más en Estados Unidos) salten a la carretera animales salvajes. Los humanos reaccionan instintivamente, pero un coche autónomo responderá según cómo esté programado. Y hay que dar respuesta a estas situaciones extremas.
Además, no es tan simple. En el caso anterior, el coche debería chocarse contra el vehículo más grande para proteger la vida de su propio ocupante. ¿Pero y si el impacto fuera inminente contra dos motoristas: uno que va sin casco y otro que sí que lo lleva? En esta ocasión, la situación más favorable no afecta al ocupante del coche. ¿Pero entonces todos los motoristas dejarán de llevar casco para evitar que sean la preferencia de este robot?
Lo más probable parece ser que los programadores necesitarán diseñar funciones coste, donde se estudie toda la situación y se elija la que minimice los daños humanos. El coche autónomo no debe de comportarse como lo haría una persona, sino mejor. De hecho, esa fue la razón que esgrimió Sebastian Thrun (director del Google Car) para embarcarse en el proyecto. Recordemos que aproximadamente un tercio de los accidentes tienen como causa concurrente las distracciones al volante, fallos humanos evitables. Hace un año, responsables del Google Car anunciaban que efectivamente, su coche tenía habilidades de conducción mejoradas frente a las humanas. Es decir, el coche autónomo no debería ser simplemente capaz de pasar un examen práctico de coche tradicional, ya que en esos 20 minutos es habitual que no nos encontremos toda la casuística de situaciones de tráfico. Pero también deberían de ser capaces de desobedecer las normas en caso necesario, como en la conducción durante una emergencia. Pero ojo, que también el coche falla, tal y como recogió el blog Jalopnik allá por 2011, donde denunció que el coche de Google se chocó con otros 5.
Otro problema filosófico habitual es el llamado dilema del tranvía (trolley problem), propuesto por los filósofos Philippa Foot y Judith Jarvis Thomson. Me llama la atención que no se conciba esto problema para los numerosos trenes autónomos que ya circulan por el mundo.
No se han acabado los quebraderos de cabeza que arrojan los vehículos del futuro, ya que existiría la posibilidad hasta de que el coche eligiera la opción que mata a su propio ocupante. Todo esta casuística hace necesario no solo programar la máquina teniendo en cuenta estas situaciones de extremo, sino que debe estar respaldada por leyes y políticas. Eso permitirá que las aseguradoras duerman un poco más tranquilas, ya que ahora en caso de accidente ¿quién es el responsable? ¿el conductor, el fabricante del vehículo, el programador?
No se han acabado los quebraderos de cabeza que arrojan los vehículos del futuro, ya que existiría la posibilidad hasta de que el coche eligiera la opción que mata a su propio ocupante. Todo esta casuística hace necesario no solo programar la máquina teniendo en cuenta estas situaciones de extremo, sino que debe estar respaldada por leyes y políticas. Eso permitirá que las aseguradoras duerman un poco más tranquilas, ya que ahora en caso de accidente ¿quién es el responsable? ¿el conductor, el fabricante del vehículo, el programador?
Pero vamos a darle otra vuelta de tuerca a esto: la tecnología V2V cada vez está más cerca (comunicación entre vehículos). Entonces, en todos los escenarios que he descrito en este artículo, hay que tener en cuenta que el robot ha de decidir en milisegundos, pero además, ponerse de acuerdo con los robots de alrededor, donde cada robot tiene un dueño diferente. ¿Y puede un ordenador mentir al otro para proteger a su dueño? ¿Se puede hackear su ética a nuestro favor?
No tiene desperdicio esta interesante conversación de Twitter con @carlcasan y @ramoneeza sobre el tema
Fuentes empleadas:
A history of autonomous vehicles
The ethics of autonomous cars
Data shows Google's robot cars are smoother-safer drivers than you or I
Should a robot sacrifice your life to save two
When should your driverless car from Google be allowed to kill you
Insurers worry driverless cars are ‘existential threat’
An ethical dilemma: When robot cars must kill, who should pick the victim?
0 comentarios:
Publicar un comentario