Actualidad

Este juego milenario chino es el último reto de la inteligencia artificial

La máquina vence al hombre de nuevo, y lo hace para parecerse cada vez más a nosotros

go go

"No sé qué decir, creo que en primer lugar tengo que disculparme. Me he sentido impotente, nunca había estado bajo tanta presión… Simplemente, he sido incapaz de superar esto".

Así de abatido sonaba hace unos días el último hombre derrotado por una máquina. El coreano de 33 años Lee Sedol, considerado el mayor experto mundial en el juego de origen chino Go, perdió la última batalla contra AlphaGo, un sistema de inteligencia artificial diseñado para Google. 

Sedol, a la izquierda, y Hassabis.

Cuando aceptó el reto de Demis Hassabis, el genio de 39 años que está detrás de AlphaGo, Sedol estaba convencido de que iba a ganar: Go es considerado un juego mucho más complejo que el ajedrez, en el que la estrategia va más allá de la capacidad de cálculo de cada jugador. Ninguna computadora era programable para competir en este juego milenario. Demasiado complejo, hasta hoy.

AlphaGo venció a Sedol en las tres primeras partidas que se emitieron en directo por Youtube. El humano venció en la cuarta y el mundo pareció respirar. Pero en la quinta, Sedol fue abatido por un humillante 3 a 0 y se declaró "atónito".

Go es considerado un juego mucho más difícil que el ajedrez, en el que la estrategia va más allá de la capacidad de cálculo de cada jugador

La batalla entre el coreano y los algoritmos no ha sido un pique más al estilo de Kasparov contra el ordenador de IBM Deep Blue: cada jugada de Lee Sedol ha servido para avanzar en el perfeccionamiento de un cerebro artificial avanzado del que poco se sabe aún, y en el que Hassabis trabaja desde su startup comprada por Google.

Por cierto, la startup se llama DeepMind. Recordamos que Deep Blue acabó venciendo al ajedrecista ruso en 1997.

Infinitamente sencillo y complejo

Hace más de 2.500 años, en tiempos de la China antigua, se inventó un juego de estrategia llamado Weiqi. Se componía de dos elementos que no han variado a día de hoy: pequeñas piedras blancas y negras y un tablero con una cuadrícula de 19 x 19 casillas, que forma un total de 361 intersecciones.

Aparentemente las reglas son sencillas: el objetivo es rodear las fichas del adversario ocupando la mayor área del tablero posible. Cuando una piedra no tiene ninguna intersección libre a su alrededor (es decir, está rodeada por fichas el color contrario), es retirada del juego.

Se trata de aumentar el espacio propio, reducir el del contrincante o su número de fichas. Al final de la partida, al que se llega por acuerdo entre los dos jugadores, se suman puntos: el jugador con más territorio gana.

El Weiqi no tardó en extenderse por Japón y Corea, donde pasó a llamarse Igo y Baduk respectivamente. No fue hasta el siglo XIX cuando llegó a Occidente y fue bautizado como Go.

Como muchas discilplinas de origen asiático, los jugadores poseen un rango que indica su habilidad en el juego. En este caso, se utilizan mismos rangos de las artes marciales, el Kyu y el Dan.

El Go es un juego sencillo pero infinitamente complejo al mismo tiempo: cada jugada puede ser un acierto y un retroceso. Es el equilibrio y el avance paciente y lento, y no el abordaje meramente ofensivo, lo que brinda más posibilidades de ganar.

El Go es un juego sencillo pero infinitamente complejo al mismo tiempo: cada jugada puede suponer un acierto y un retroceso

Un ejemplo: poner las piedras juntas ayuda a mantener la conexión entre ellas, pero al ponerlas separadas se controla más porción de territorio. Otro ejemplo: ganar poder en una zona del tablero puede suponer una desventaja en otra esquina.

La clave radica en el contrapeso: hay que ser ofensivo y defensivo a la vez. Las ventajas e inconvenientes de cada decisión se detectan de una forma sutil que no tiene que ver solamente con el cálculo.

Aprender como los humanos

Antes de enfrentarse a Lee Sedol, AlphaGo se enfrentó a Fan Hui, campeón europeo, quien perdió las cinco partidas contra el programa.

En los tres meses siguientes, el nivel de juego de Alphago mejoró más de lo que un humano es capaz a lo largo de toda su vida. ¿Cómo lo hizo? Jugó millones de partidas contra diferentes versiones de sí mismo.

El algoritmo que utiliza AlphaGo para aprender se basa en el Método de Montecarlo, es decir, el aprendizaje por refuerzo que da importancia a la recompensa. En este caso, el mayor premio es ganar la partida, así que la máquina no ejecutará jugadas arriesgadas si eso puede poner en peligro su objetivo.

¿Y por qué son tan importantes Go y AlphaGo para el futuro de la inteligencia artificial?

La inteligencia artificial que conocemos se basa en robots que obedecen un programa o unas órdenes concretas, pero son incapaces de resolver problemas complejos para los que no han sido diseñados. Deep Blue derrotó a Kasparov pero perdería en una partida de dominó con un niño de 9 años. AlphaGo, por el contrario, aprenderá cualquier juego como ese niño, pero mucho más rápido.

El objetivo de DeepMind es crear un software más potente que el cerebro humano, y para ello está explorando la neurociencia cognitiva en vez de desarrollar súper computadores que aumenten la capacidad de cálculo o el almacén de funciones.

Deep Blue derrotó a Kasparov pero perdería en una partida de dominó con un niño de 9 años. AlphaGo aprenderá cualquier juego como ese niño, pero mucho más rápido

Demis Hassabis trabaja en lo que se conoce como la Artificial General Inteligence (AGI), sistemas que puedan pensar y encontrar soluciones para todo y sin estar programados específicamente para nada:

"Cáncer, cambio climático, energía, genómica, macroeconomía, sistema financiero, física: muchos de los sistemas que nos gustaría dominar son cada vez más complejos. Hay una sobrecarga de información e incluso para los humanos más inteligentes resulta difícil manejar sus vidas. ¿Cómo movernos bajo un aluvión de datos y encontrar las ideas correctas? La AGI convertirá información no estructurada en conocimiento para la acción. Estamos trabajando en una meta-solución potencial para cualquier problema", explicó Hassabis a The Guardian

Es precisamente ahí donde las infinitas posibilidades del Go son de gran utilidad: el juego de origen chino tiene más movimientos posibles que átomos hay en el universo, se dice que es el más rico y profundo a nivel intelectual. Además, a diferencia del ajedrez no puede ser resuelto a través de cálculo bruto y es imposible escribir una función de evaluación para determinar quién va ganando.

En definitiva, a los jugadores —ya sean humanos o máquinas— se les exige algo parecido a la intuición. Tal y como explica Clemency Burton en The Guardian, cuando los profesionales de Go son interrogados sobre por qué hicieron un determinado movimiento, suelen responder: "Sentí que era lo correcto".

Las recientes victorias del programa de DeepMind son la prueba de un avance brutal, ya no de la inteligencia artificial, sino del aprendizaje artificial a través de métodos humanos. La máquina se enseña a sí misma. Tratando de parecerse a la biología, la tecnología se vuelve más intuitiva, pero ¿significa eso que se vuelve más ética, más humana?

¿Tiene que pagar la ciencia la poca confianza que los humanos tenemos en nuestra propia especie?

Como padre de la criatura, Hassabis pide que el alarmismo no ciegue ante los beneficios que un robot súper inteligente puede aportarnos en la resolución de problemas complejos.

Más allá de una posible revuelta repicante, los humanos siguen siendo responsables de la dirección en la que apunta la tecnología. ¿Tiene que pagar la ciencia la poca confianza que los humanos tenemos en nuestra propia especie? Probablemente sea algo importante a tener en cuenta.

Cuando Kasparov ganó la primera partida contra Deep Blue, escribió en The Times: "Pude sentir —pude oler— un nuevo tipo de inteligencia a través del tablero [...] Aunque creo que vi algunos signos de inteligencia, esta es de un tipo raro, ineficiente e inflexible, que me hace pensar que tengo un par de años por delante".

Un año después, en 1997, Deep Blue venció al ruso después de que los programadores introdujeran una mejora: la máquina era capaz de evaluar 200 millones de posiciones por segundo.

¿Te ha gustado este contenido?...

Hoy en PlayGround Vídeo:

Ver todos los vídeos

Hoy en PlayGround Video



 

cerrar
cerrar