PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left
Artículo El test para decidir a quién matarán los robots el día de mañana Now

Now

El test para decidir a quién matarán los robots el día de mañana

H

 

¿Han de tomar los robots decisiones racionales allí donde nosotros nos guiamos exclusivamente por la intuición?

María Yuste

10 Septiembre 2016 06:00

Parece un problema matemático pero no lo es. Intenta contestar:

Un coche avanza por la carretera. Justo cuando se aproxima a un paso de peatones, le fallan los frenos. En una fracción de segundo, tiene que decidir entre seguir recto y estrellarse contra un bloque de cemento o pegar un volantazo y atropellar a 3 peatones, entre ellos un niño. ¿Qué debería hacer?

¿Cambia tu respuestas si te digo que el conductor eres tú?

Puede que te sientas aliviado al pensar que se trata tan solo de un supuesto y que tu respuesta no tiene ningún tipo de repercusión real. Así sería si no fuera porque está sacada de un test con el que se está sondeando la moral humana para que la inteligencia artificial pueda tomar este tipo de decisiones por sí misma.

Uno de los principales miedos que la humanidad suele retratar a través de la ciencia ficción es la posibilidad de que la inteligencia artificial acabe superando a la humana y se vuelva en su contra.

La opinión de los científicos se divide entre los que no descartan que algo así pueda ocurrir y los que afirman que un robot nunca podrá hacer nada más que aquello para lo que ha sido programado.

Se está trabajando para traducir a un algoritmo la toma de decisiones de las que dependerán la vida o la muerte de seres humanos.

No obstante, es en este segundo argumento donde se esconde el primer gran dilema que ya nos está presentando la robótica. ¿Qué opción de las anteriormente mencionadas deberíamos programar para que siga una IA?

1. LA MÁQUINA DE LA MORAL

Los ingenieros trabajan para transformar en código conocimientos propios del aprendizaje de un bebé como, por ejemplo, distinguir un bloque cuadrado de uno rectangular antes de cogerlo con la mano. Sin embargo, también se está trabajando en cosas tan delicadas como traducir en algoritmos la toma de decisiones de las que dependen la vida o la muerte de seres humanos.

Impacta pero también resulta algo inevitable cuando hablamos de crear máquinas autónomas que puedan sustituirnos en determinados puestos.

Precisamente, a investigar la moral humana para poder aplicarla después a la IA es a lo que se dedica un equipo del prestigioso MIT (Massachusetts Institute of Technology). Compuesto por diferentes profesionales del mundo de la robótica y la psicología, han creado Moral Machine, un test con el que pretenden enfrentar a la humanidad a diferentes situaciones morales muy complicadas.

El test, además, puede hacerse online, como si de un juego macabro se tratara.

Recopilar datos no es su única función. También lo es abrir un debate al que necesitan que la humanidad se enfrente para que la robótica pueda avanzar.

Como suele suceder en el desarrollo de esta disciplina, Moral Machine se centra en un ámbito tan acotado como inminente: los coches sin conductor.

El propio MIT ha participado en la creación del primer taxi autómata que ya circula de forma experimental en un área acotada de Singapur. Aunque el objetivo es que puedan pasar a formar parte de nuestras vidas tan pronto como en 2018.

Según algunos cálculos, el 90% de los accidentes de tráfico se deben a errores o negligencias humanas.

Según algunos cálculos, el 90% de los accidentes de tráfico se deben a errores o negligencias humanas. Se prevé que la conducción autómata reducirá drásticamente el número de accidentes. No obstante, seguirían ocurriendo y es por eso que la ciencia nos pide que nos sentemos a tomar en frío las decisiones que hasta ahora solo nos habíamos visto obligados a tomar en caliente.

2. ¿ROBOTS MÁS HUMANOS O HUMANOS MÁS ROBOTS?

Sabiendo esto, intentemos contestar ahora a otra pregunta:

Un coche avanza por la carretera pero, justo cuando se aproxima a un paso de peatones, le fallan los frenos. El coche tiene que decidir entonces entre estrellarse y sacrificar al pasajero o pegar un volantazo y atropellar a dos personas que cruzan en rojo mientras hacen footing. ¿Qué debería hacer?

En realidad, solo puedes adoptar una de estas dos posturas:

Puedes ser consecuencialista, es decir, decantarte por la opción que beneficia al mayor número de gente posible. En este caso, sacrificar al conductor.

O puedes ser deontologista. Esto quiere decir que piensas que sacrificar a un hombre nunca es bueno aunque se busque así un bien mayor. En este caso, estás escogiendo salvar al conductor porque, ¿quién sabe? Los peatones tienen aún una pequeña oportunidad de poder evitar el vehículo mientras que estrellar al conductor es mandarlo a una muerte segura.

Esta redactora se ha sometido al test sintiendo un enorme peso sobre los hombros y se ha descubierto irremediablemente deontologista. Sin embargo, según los investigadores, no es esa la opción mayoritaria...

Según los datos recogidos, la mayoría de los encuestados prefiere que los coches autónomos tengan una moralidad consecuencialista. A priori, podría parecer que esta opción es la más humana, sin embargo, según desde el lado que se la mire es, en realidad, una postura muy consecuente con la sociedad de cálculo y riesgo de beneficios en la que vivimos.

Una sociedad que nos sorprendía recientemente con la noticia de que Gran Bretaña excluirá de las operaciones del Sistema nacional de Salud a obesos y fumadores. Si trasladaramos la ecuación a uno de los supuestos a los que nos enfrenta el test del MIT sería el equivalente a preferir que, en un mismo accidente, murieran tres hombres obesos a tres hombres atléticos. Al fin y al cabo, los primeros se consideran menos útiles a la sociedad y le cuestan mucho más dinero a la seguridad social. Pero, ¿realmente es la opción más humana?

Los datos también han apuntado que la gente se muestra más dispuesta a salvar a mujeres que a hombres

niños sobre adultos

gente en forma sobre gente con sobrepeso

o ciudadanos de un nivel socieconómico alto sobre alguien de uno bajo.

Aunque claro, esa misma mayoría también ha asegurado que no compraría un coche programado para matarle por el bien común. Es decir que, todo muy bien mientras se trate simplemente de contestar un test o mientras que el coche sea de otro.

No cabe duda de que es el primer gran dilema cinematográfico que la robótica nos traslada a la vida real.

El problema es que ahora no solo tenemos que quedarnos sentados mirando una pantalla sino decidir sobre el desarrollo de la sinopsis y la pregunta que realmente plantea no es moco de pavo:

¿Han de tomar los robots decisiones racionales allí donde nosotros nos guiamos exclusivamente por la intuición?

No está claro si algún día un ordenador podrá superar nuestra propia inteligencia pero sí que sabemos que hay algo a lo que nunca podremos ganarles. Nosotros nunca podremos ir contra nuestro instinto de supervivencia. Nunca podremos desprogramarnos el miedo a morir.


Nosotros nunca podremos dejar de ser humanos


Ellos pueden ser altruistas si se les manda. Nosotros no.

Nosotros no podemos dejarnos llevar exclusivamente por la razón, del mismo modo que su juicio nunca se verá nublado por el sentimiento.

Pero que no cunda el pánico porque, aunque lo demos por una verdad incuestionable, el no estar preparados para sacrificarnos por los demás no nos convierte en peores personas, solo en mas humanas.

Ahora haz el test y contesta: ¿prefieres robots más humanos o humanos más robots?



share