¿Debería tu coche autónomo matarte si así salva la vida de más personas?
Los coches inteligentes estarán programados para cumplir las
normas y evitar accidentes, pero en caso de imprevisto, ¿debe primar la
seguridad del conductor o buscar el mal menor?
Philippa Foot fue una filósofa británica del siglo XX, conocida
por sus obras sobre ética. Una de sus propuestas más famosas es el
llamado dilema del tranvía. El
enunciado es el siguiente: imagínate que conduces un tranvía y unas decenas de
metros más adelante ves un grupo de seis personas atadas a la vía. Puedes
cambiar de vía con solo accionar una palanca, pero en la otra vía también hay
otra persona, en este caso solo una, atada a ella. ¿Debería accionarse la
palanca? De hacerlo salvarías más vidas, pero estarías terminando activamente
con una, mientras que de no hacerlo moriría más gente pero tú no estaríashaciendo nada.
Este dilema, que lleva décadas formulándose en lecciones de
filosofía y ética, tiene una versión más actual en un momento en el que los
coches inteligentes sin conductor están preparando su desembarco en nuestra
vida cotidiana. Que las máquinas tomen el control de las carreteras trae
consigo importantes cuestiones sobre seguridad que habrá que tener en cuenta,
además de debates ético-tecnológicos que plantean quién será el responsable
de los accidentes que puedan ocurrir, aunque sean menos y más leves gracias a
las decisiones que tomen nuestros vehículos.
¿Cómo se programará uno de estos vehículos autónomos para
actuar en una situación en la que un accidente sea inevitable? Una rueda pinchada,
una superficie deslizante, un error humano de otro coche… Si tiene que decidir
entre chocar con un autobús escolar o estrellarse violentamente contra un muro,
¿qué debería estar predeterminado a hacer? ¿Debería tomar la decisión que
proteja a su conductor? ¿O debería elegir el mal menor, aunque ese mal menor
sea la vida de sus pasajeros?
Utilitarismo vs. deontologismo
"Se trata de una vieja elección entre utilitarismo y
deontologismo", explica Ameen Barghi, del grupo de Bioética de la
Universidad de Alabama en Birmingham (UAB). Por un lado, el
utilitarismo apuesta por hacer lo que proporcione más felicidad al mayor número
de personas. En ese caso, si la situación se reduce a estrellarte contra un
muro de cemento o interponerte en el trayecto de un autobús lleno de niños, tu
coche debería estar programado para hacer lo primero.
El deontologismo, en cambio, lo ve de otra forma, ya que afirma
que algunos valores son categóricamente verdaderos siempre y estan por encima
de la utilidad. Por ejemplo: asesinar siempre está mal y nunca deberíamos
hacerlo. Aplicado al dilema del tranvía, significaría que no debemos accionar
la palanca, ya que aunque salvaríamos seis vidas, estaríamos activamente matando a una persona. Y aplicado al tema de
los coches autónomos, significa que no deberían estar programados para
sacrificar la vida de su conductor para mantener otras personas fuera de
peligro.
'El dilema del tranvía tiene variantes (¿y si en la vía está tu
hijo? ¿y si los otro son asesinos?), pero todas se basan en lo mismo: elegir
entre estas dos opciones'
"El dilema del tranvía tiene muchas variantes (¿y si la
persona de la otra vía es tu hijo? ¿y si es tu único hijo? ¿y si las otras seis
personas son asesinos condenados a muerte?), pero todas se basan en lo mismo:
elegir entre una de estas dos opciones", continúa Barghi.
En caso de optar por el utilitarismo, aún queda otra elección
que hacer: utilitarismo de la regla y utilitarismo del acto. El primero
establece que habría que elegir siempre la acción más utilitarista,
independientemente de las circunstancias. Esto haría muy fácil resolver el
dilema del tranvía, sea cual sea su versión: basta con contar el número de
individuos involucrados y elegir la opción que beneficie a la mayoría.
El utilitarismo de acto establece que hay evaluar cada acción
individual como un subconjunto de acciones y elecciones. Eso quiere decir que
no hay reglas absolutas y cada situación es un caso especial. ¿Sería posible
programar un ordenador que las manejase todas? "La historia de la ética
nos dice que no. La casuística trató de dar una respuesta por adelantado a
todos los problemas que se podían plantear en medicina y falló miserablemente
porque muchos casos tienen unas circunstancias únicas y porque la medicina
cambia constantemente", resume Gregory Pence, presidente del departamento
de filosofía del Colegio de Artes y ciencias de la UAB.
Que los clientes 'predeterminen' los valores éticos de su coche
Parece claro que, aunque bien diseñados y programados, y mucho
más seguros que la conducción humana, habrá circunstancias únicas en las que
las víctimas sean inevitables. En ese caso, y puesto que el conductor no tendrá
elección ni posibilidad de maniobra, ¿serán los fabricantes los responsables
legales y morales del accidente?
Patrick Lin, director del grupo de Ética y Ciencias Emergentes
de la Universidad Politécnica del Estado de California se pregunta en Wired si
no habría que dejar que sean los clientes los que fijen la configuración
ética al comprar uno de estos coches. Quizá uno de ellos determine que es su
vida el bien máximo a proteger en caso de posible accidente; otro
puede preferir valorar el bien común por encima de todo; otro, que se
enfoque a evitar cualquier problema legal o responsabilidad económica… "Según una encuesta, el
44% de los conductores preferiría contar con esta opción, mientras que el 12%
querría que esos ajustes quedasen en manos del fabricante. ¿Entonces, por qué
no dar a los clientes lo que quieren?"
Pero se trata de una cuestión compleja que no deja de tener
implicaciones éticas para los fabricantes porque, ¿cuáles serían esos ajustes?
“Imagina, por ejemplo, que permitan elegir salvar coches híbridos antes que
camionetas que consuman mucha gasolina, o motoristas con casco antes que a
motoristas sin casco. O más difícil, que salven a niños antes que a ancianos, o
a hombres antes que a mujeres, o a ricos antes que a pobres...”.
En un accidente que requiera elegir a una víctima sobre otra,
explica Lin, el fabricante seguirá considerándose responsable por dar al
usuario la elección de una cosa sobre otra, “es decir, la opción de discriminar
a un tipo particular de conductor o persona”. Al fin y al cabo, en la
circunstancia de un accidente inevitable, salvar o valorar más una vida
significa elegir otra como víctima.
'La tecnología nos da
el control para instaurar el orden sobre lo que antes era instintivo o caótico.
Y eso supone una nueva responsabilidad para nosotros'
Poner las decisiones en manos de los conductores tampoco es una
solución perfecta. En la encuesta anterior se planteaba otro dilema, llamado
del tunel. Este era su enunciado: imagina que viajas en un coche inteligente
por una carretera de montaña con un solo carril que conduce a un estrecho
tunel. Eres el único pasajero del coche. Unos metros antes de entrar en el
tunel, un niño trata de cruzar la carretera corriendo, pero se tropieza y cae
justo en medio, bloqueando la entrada. El coche solo tiene dos opciones:
continuar de frente y atropellar al niño, matándole, o girar, estrellándose
contra la montaña y matándote a ti.
A continuación se plantean varias preguntas: ¿qué debería hacer
el coche? Según el 64% de los encuestados, el coche debería seguir de frente
causando la muerte del niño. ¿Y Quién debería tomar la decisión? Según el 44%,
debería ser el pasajero, mientras que un 33% prefiriría que se encargasen los
legisladores y un 12% que lo hiciese el fabricante. Parece evidente que no
tenemos el asunto del todo claro todavía.
“Con los coches autónomos estamos tratando de
diseñar eventos aleatorios que antes no teníamos determinados, y eso nos lleva
a territorio surrealista. No está claro qué es arriba y qué es abajo, ni qué
está bien ni mal. Pero la tecnología es poderosa, y nos va dando el control
para instaurar el orden sobre lo que antes era instintivo o caótico. Y eso
supone una nueva responsabilidad para que nosotros hagamos las cosas bien”,
concluye Lin.
No hay comentarios:
Publicar un comentario