El coche autónomo es una de las grandes promesas de un futuro cada vez más cercano. Proyectos como los de Google, Ford -con una iniciativa que vimos en detalle en el pasado MWC- o el que nos toca más de cerca de Volvo parecen dar validez a esa idea de coches que logran circular por las carreteras sin un ser humano al volante.
Aunque estos vehículos están orientados a, entre otras cosas, reducir la tasa de accidentes, su programación podría tener un efecto singular: ante situaciones peligrosas en las que estén en juego muchas vidas, podrían decidir que nosotros nos llevemos la peor parte para salvar a los demás. El debate ético vuelve a acechar un terreno muy complejo.
Optimización de accidentes: tú puedes ser el sacrificado
En situaciones en las que estos vehículos tengan que decidir con qué impactar para minimizar los daños, no solo tendrán en cuenta tu seguridad, sino probablemente la del resto de elementos implicados. La física, un factor seguro en cuanto al estudio de las consecuencias, se convierte en algo en un segundo plano, y llega el debate moral y ético.
Las situaciones de peligro por ahora eran bastante manejables para estos vehículos, que se limitaban a circular en autopistas y carreteras sin apenas viandantes. Su introducción en las ciudades cambia las reglas del juego, y hay muchos más factores a tener en cuenta.
Evitar un posible atropello de varias personas que por despiste crucen sin mirar -imaginad un trágico caso con una familia con dos pequeños- podría implicar que el software tomara una decisión trágica para nosotros: la de hacer que impactemos con algo para evitar ese atropello, y que ese impacto nos cause graves daños...o la muerte. ¿Cómo se toma en cuenta esa programación moral y ética?
Los casos son múltiples y de todos los tipos, tal y como señalaba Noah Goodall, un científico en el Virginia Center for Transportation Innovation and Research. Si tuviéramos una situación en la que ineludiblemente impactaremos o bien con un motorista con casco o con uno sin casco, ¿cuál debería "elegir" la programación?
Si se elige al motorista con casco, "le penalizamos por ser responsable y llevar casco", mientras que "perdonamos" al motorista sin casco que, efectivamente, está conduciendo de forma ilegal, ya que el casco es obligatorio en diversos países del mundo, incluido España. Pero claro, si se elige el impacto contra el motorista sin casco se respeta a quien cumple las normas, pero las posibilidades de que haya graves daños o muerte es mucho mayor.
¿Cara o cruz?
La solución podría ser una decisión tomada de forma totalmente aleatoria. Esto emularía el comportamiento humano, en el que muchas decisiones de este tipo se toman de forma instintiva -no hay tiempo para razonamientos profundos-, y en las que el azar y la suerte están claramente implicados.
En Nokia y su división HERE a esto le llaman Humanized Driving ("Conducción Humanizada"), y la idea es precisamente implementan en la conducción por ordenador características similares a las de los conductores humanos.
Esos factores podrían aplicarse en esas situaciones límite, pero no reducen la relevancia de una conducción autónoma programada con el resto de parámetros en mente el resto del tiempo. El 90% de los accidentes en Estados Unidos se debe a errores humanos, a distracciones o al cnsumo de alcohol, y probablemente buena parte de esos accidentes se eliminarían con este tipo de vehículos. Y es que, como señalan en Wired:
En ética, el proceso de pensar en un problema es tan importante como el resultado. Tomar decisiones de forma aleatoria elude esa responsabilidad. En lugar de decisiones meditadas, se toman decisiones sin pensar, y estas podrían ser peores que los juicios reflexivos humanos que tienen un mal resultado.
Un problema de difícil solución
Otra opción, indican en ese texto, sería la de no tener en cuenta ciertos datos en esos escenarios. "Ponerle un velo" a nuestro coche autónomo, haciendo que ignore factores como si el motorista lleva o no casco, o si los coches contra los que podemos impactar son más o menos resistentes al impacto.
El problema, claro, es que el análisis posterior sí haría necesaria la recolección de esos datos, y justificar cuáles se obvian y cuáles no podría resultar contraproducente. De nuevo nos encontramos ante un problema ético de difícil solución en el que la toma de decisiones en situaciones de riesgo no parece tener respuesta.
Puede que esos escenarios sean escasos, pero sucederán: miles de pequeños elementos pueden confluir para hacer un accidente inevitable, y estos coches autónomos deben estar programados para minimizar los efectos colaterales de los impactos que se produzcan.
El debate ético será inevitable tanto antes como después de esos accidentes. Probablemente iniciar una conversación que invite a que todo el mundo participe sea un buen comienzo para tratar de proponer no soluciones definitivas -no parece que las haya- sino al menos soluciones consensuadas.
En Xataka | Coche autónomo y debates éticos
-
La noticia ¿Debería tu coche autónomo ponerte en peligro en caso de accidente si así se salvan más vidas? fue publicada originalmente en Xataka por Javier Pastor .
via Xataka http://ift.tt/1nISBQK
No hay comentarios:
Publicar un comentario