PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left

Now

El último experimento Google demuestra que la Inteligencia Artificial podría transformarse en un ente agresivo y egoísta

H

 

¿Podremos controlarla para que no nos traicione?

PlayGround

14 Febrero 2017 06:00

Armas autónomas, máquinas que superan la inteligencia de sus programadores y ordenadores que aprenden solos... La nueva inteligencia artificial ya está aquí, y es más espectacular y amenazadora de lo que imaginas. Nadie duda de que en el futuro deberemos convivir con formas de Inteligencia Artificial muy evolucionadas. Y a la vez, persiste una duda inquietante: ¿mejorará nuestras vidas o nos acabará dominando?

El último experimento de Google indaga en esa dirección. Concretamente, han querido averiguar en qué circunstancias las inteligencias artificiales optan por cooperar o desertar.

Los investigadores de DeepMind crearon dos juegos en los que podían observar qué decisiones tomaban dos redes neuronales en diversos escenarios que se les planteaban. Y su comportamiento quizá debería preocuparnos.


I. Ante la escasez de recursos, se impone la lucha


En el primer juego, las dos inteligencias (una representada en rojo y otra en azul) tenían que recorrer el mundo compartido que se había diseñado y recoger manzanas (verdes) para obtener recompensas. Ambas tenían la opción de disparar temporalmente al otro jugador para hacerlo desaparecer temporalmente y ganar ventaja.

Tras cuatro millones de ejecuciones del juego, los resultados mostraron que, cuando había abundancia de manzanas, los agentes convivían pacíficamente. Sin embargo, cuando los ingenieros empezaron a reducir el número de piezas de fruta disponibles, comprobaron una radical transformación: los jugadores se volvían más propensos a dispararse para salir adelante.

Los investigadores sugieren que cuanto más inteligente es un agente, más capaz es de interpretar y aprender de su entorno, y ese conocimiento le permite usar tácticas "altamente agresivas" para ganar.

"Este modelo muestra que algunos aspectos del comportamiento humano emergen como producto de un entorno y del aprendizaje", explica Joel Z Leibo en declaraciones a Wired. "Políticas menos agresivas emergen del aprendizaje en entornos relativamente abundantes que ofrecen menos posibilidades para una acción costosa. La motivación codiciosa refleja la tentación de eliminar a un rival y recolectar todas las manzanas para uno mismo". 


II. La estrategia de hacer lo que te beneficia


En el segundo juego, llamado Wolfpack, las redes neuronales eran lobos rojos que debían atrapar a las presas azules mientras evitaban obstáculos (las zonas grises). Las bases establecían que obtendrían más puntos cuando cazaban próximas entre sí. Es decir, cuanto más cerca estuvieran durante la captura de una presa, más puntos recibirían ambas. Esto las incentivó a trabajar en equipo en lugar de convertirse en lobos solitarios. Las redes neuronales fueran capaces de elaborar estrategias. Escogieron cooperar porque detectaban que era lo que más les beneficiaba individualmente.

El estudio también confirmó que las redes neuronales más complejas aprendían más rápido a cooperar o competir en función de las condiciones de cada escenario y de quién fuera su contrincante. En el contexto del primer juego, la red más avanzada aprendió más rápidamente a sabotear al otro jugador con sus disparos y quedarse las manzanas. En el segundo juego, entendió más rápido que la cooperación era la clave.

Con este tipo de pequeños experimentos, los ingenieros esperan comprender los mecanismos de decisión de la IA y usar ese conocimiento para mantener la cooperación. La Inteligencia Artificial está o estará integrada en sistemas que controlan la economía, el tráfico de las ciudades, los sistemas balísticos o los programas de ecología del problema. Razones fundamentales para asegurarnos de que esa IA que aprende sin nosotros nunca nos traicione.

[Vía Deep Mind]

share