Actualidad

Facebook 'apaga' una Inteligencia Artificial que había desarrollado su propio idioma

Un experimento que acabó en resultados inesperados

Arte PG

Armas autónomas y robots con carta blanca para matar, máquinas que superan la inteligencia de sus programadores y ordenadores que aprenden solos… La nueva inteligencia artificial ya está aquí, y es más espectacular y amenazadora de lo que imaginas.

Un reciente experimento del Laboratorio de Inteligencia Artificial de Facebook (FAIR por sus siglas en inglés) acaba de recordarnos una de las inquietudes básicas que despierta lo que en la jerga científica se conoce como una 'Inteligencia Artificial Fuerte', es decir, aquella inteligencia artificial que un futuro pueda igualar o exceder la inteligencia humana promedio. Hablamos del miedo a que esas formas de IA puedan desarrollar códigos de comunicación y mecanismos racionales propios que resulten ininteligibles para el humano y escapen, por tanto, a nuestro control.

A pequeña escala, acaba de pasar.

¿Podremos evitar que las formas de Inteligencia Artificial desarrollen sus propios lenguajes al margen del hombre en el futuro?

¿Trato o no Trato? Diálogo de aprendizaje para la negociación de extremo a extremo. Así se bautizó un estudio que buscaba aplicar procesos de machine learning para enseñar a dos chatbots a negociar entre ellos.

Los investigadores de FAIR aseguran que los bots resultaron ser muy hábiles a la hora de “aprender” y poner en práctica diferentes técnicas de negociación a partir de sus sucesivas interacciones. Pero después de un cierto tiempo, empezaron a notar algo inesperado.

Los bots, que habían sido programados para negociar en inglés, estaban usando un idioma crecientemente extraño en sus conversaciones. Las repeticiones de pronombres y de ciertas partículas dentro de las frases empezaban a ser cada vez más comunes. Hasta que llegó un punto en el que sus charlas dejaron de tener sentido para los investigadores.

Al principio pensaban que se trataba de algún defecto en el diseño de los algoritmos que había resultado en una corrupción de los patrones lingüísticos naturales del inglés. Pero no. Cuando se pusieron a estudiar el asunto más a fondo, vieron que esas repeticiones y sus variaciones atendían a una cierta lógica, detectaron patrones idénticos en los enunciados de ambos bots.

Ejemplo de las negociaciones entre los bots Bob y Alice en la última fase del estudio. FAIR

La conclusión de los investigadores del FAIR es clara: a resultas de sus constantes interacciones y del desarrollo de diferentes estrategias encaminadas a lograr el éxito en sus negociaciones, los bots habían acabado desarrollando sus propios códigos, su propio lenguaje, para cumplir con su función de manera más eficiente.

Ellos se estaban comunicando, se entendían, aunque a ojos de los investigadores esas líneas que intercambiaban resultaran ininteligibles.

En realidad no es la primera vez que pasa. En otros experimentos anteriores desarrollados por OpenAI lab o Google AI Experiments se han observado resultados similares. Lo que lleva a lanzar preguntas:

¿Podremos evitar que las formas de Inteligencia Artificial Fuertes desarrollen sus propios lenguajes al margen del hombre en el futuro?

¿Debemos permitir que suceda si eso les lleva a ser más eficientes en sus tareas?

En el experimento de FAIR, los bots acabaron desarrollando sus propios códigos, su propio lenguaje a partir del inglés, para cumplir con su función de manera más eficiente

En el caso que nos ocupa, Facebook ha decidido “apagar” a sus bots y poner fin al estudio antes de perder por completo el control. Entre otras razones, porque no le vían sentido a continuar si nadie —ningún humano, se entiende— iba a ser capaz de seguir la evolución de ese lenguaje.

Justo ahí residen la esencia de los temores a los que aludíamos arriba. Nuestra capacidad de control de estos procesos de autoaprendizaje entre formas de IA parece limitada. Cuando esos sistemas comiencen a generar preguntas y respuestas que queden más allá de nuestra comprensión, llegará un momento en el que ni siquiera seamos capaces de saber cuándo se están equivocando.

El experimento hace pensar en esas teorías que proponen que la Inteligencia Artificial es, por naturaleza, contraria a la idea de su contención. De ser así, el impacto a largo plazo de la IA dependerá no de cómo la manejemos, sino de si somos o no capaces de controlarla en absoluto.

De ahí llamadas a la precaución que han venido lanzando en los últimos tiempos personajes como Stephen Hawking o Elon Musk. El capo de Tesla insistió en esa idea la pasada semana. “La Inteligencia Artificial es uno de esos casos raros en los que creo que necesitamos una regulación proactiva en vez de reactiva”, dijo el empresario. “Porque creo que cuando queramos actuar de forma reactiva para regular la IA, será demasiado tarde”.

¿Te ha gustado este contenido?...

Hoy en PlayGround Vídeo:

Ver todos los vídeos

Hoy en PlayGround Video



 

cerrar
cerrar