Entrevistas

"La IA no es una amenaza, jamás podrá sustituir a la inteligencia humana"

Hablamos con el experto Luc Steels sobre Inteligencia Artificial, robots... y el posible fin de la humanidad

luc luc

Luc Steels (Bruselas, 1952) es uno de los mayores expertos del mundo en Inteligencia Artificial. Comenzó estudiando la evolución cultural del lenguaje humano y terminó sumergido en los complejos recorridos de la tecnología inteligente, los sistemas expertos, la vida artificial y la robótica del comportamiento. Fue director del departamento de Inteligencia Artificial de la Vrije Universiteit de Bruselas, fundó el Sony Computer Science Laboratory de París y es investigador de ICREA, en el Institut de Biología Evolutiva de la Universitat Pompeu Fabra de Barcelona.

En los últimos años, ante el auge de aplicaciones de la Inteligencia Artificial (IA) en el mundo armamentístico y militar y en el mundo burocrático, Steels se ha propuesto usar la IA para cosas que nos sean realmente útiles y evitar, de paso, una rebelión de las máquinas.

Los escenarios de una catástrofe mundial provocada por la IA aún parecen de película de ciencia ficción y emplazados en un futuro muy lejano. Pero, posiblemente, el germen de esos escenarios ya lo tengamos aquí, en nuestro día a día, y de una manera poco espectacular. Aún así, no hay que temer, nos dice Steels, porque los sistemas excesivamente autónomos o demasiado inteligentes no sobrevivirán.

La IA está ahí para servirnos, y no al revés, asegura este experto. Todo dependerá del uso que le demos.

El ser humano no está en equilibrio porque hay pobreza y desigualdades. Tú dices que la IA puede ayudarnos a resolver esto. ¿Cómo?

Resolver es una palabra demasiado grande. Creo que debemos usar esa tecnología para intentar arreglar los grandes problemas que tenemos en este momento. Los humanos somos increíblemente inteligentes pero solo nos preocupamos por nuestro entorno más cercano, tenemos una perspectiva limitada. Pensamos en una red reducida de gente. Pero para los grandes problemas, como el cambio climático, tenemos que pensar a un nivel más grande y la IA puede ayudarnos en eso.

La IA no es como la física o la química; no nos dará otro motor, o baterías más eficaces, pero puede ayudarnos a mejorar nuestras capacidades

¿De qué manera podría contribuir la IA a la hora de contrarrestar los efectos del cambio climático?

Ahora disponemos millones de datos. Por ejemplo, sobre la calidad del aire. Y desde un teléfono móvil con un sensor podemos saber la cantidad de polución que hay aquí ahora mismo. Pero la cosa es tener una manera de analizar los datos, de procesarlos. Y aquí es donde la IA es buena, particularmente en navegar por millones y millones de datos y establecer conexiones y hacerlas visibles para explicar fenómenos.

La IA no es como la física o la química; no nos dará otro motor, o baterías más eficaces, pero puede ayudarnos a mejorar nuestras capacidades.

¿Debemos ver la IA como una ampliación de nuestro cerebro?

Sí. Por ejemplo, ahora mismo ya tenemos motores de búsqueda como Google. Tecleas una sola palabra y, de millones de resultados, te filtra 10. Si sabemos usar bien esto, sería increíble. Nosotros no podemos personalmente filtrar todos esos millones de páginas, y Google no es un ejército de gente que busca en todas las webs del mundo... Esto es un milagro, y es un claro ejemplo de IA.

Lo que yo sugiero es que usemos estas tecnologías y que las desarrollemos con la vista puesta en los grandes problemas de la humanidad.

Hay quien mira a la IA como la posible solución a nuestros principales problemas, el último paso evolutivo de la humanidad, el que nos llevará a superar nuestras limitaciones biológicas, pero también hay quien advierte de que una inteligencia artificial compleja fuera de control podría suponer nuestro fin como especie.

Primero de todo, creo que estamos muy lejos de alcanzar cualquier cosa parecida a la inteligencia humana. La IA es solo diferente. No tenemos que ver la IA como un sustituto de la inteligencia humana o biológica. Tenemos que ver la IA como algo útil porque extiende nuestra capacidad, como un coche extiende nuestra movilidad o unas gafas extienden nuestra capacidad visual.

La segunda cosa es que debemos desarrollar esta tecnología de una forma que sea beneficiosa para nosotros. Imagínate que tenemos un coche que se conduce solo pero que, cuando le dices que quieres ir a un sitio te dice que él cree que no deberías ir ahí, y que deberías ir a otro sitio. Si hubiera un coche así, ¿quién lo querría? Nadie.

Es una especie de co-evolución. La IA solo puede evolucionar de la mano de las necesidades del ser humano. No concibo que la IA se pueda autodesarrollar de una manera paralela contraria a nuestros intereses como especie.

Si hay sistemas excesivamente autónomos o demasiado inteligentes, entonces, no sobrevivirán

La IA es beneficiosa para nosotros si está integrada en la sociedad. Si hay sistemas excesivamente autónomos o demasiado inteligentes, entonces, no sobrevivirán.

Por tanto, no veo el peligro en eso. Pero sí que lo veo en el hecho de que nuestra sociedad se está convirtiendo en algo muy burocrático y que, para hacer cualquier trámite, tenemos que ir a través de programas informáticos. Aunque pueda no parecerlo, son sistemas con IA y, desde un punto de partida están bien pensados, pero al final se comen el factor humano...

Situaciones en las que una máquina evalúa si eres apto o no para un puesto de trabajo, por ejemplo...

Sí. Otro ejemplo, PayPal. El sistema de PayPal está evaluando el fraude usando IA. Comprueba patrones de comportamiento, aprende sobre ellos... Y aplica eso a miles de millones de transacciones en todo el mundo. Es algo que nuestro cerebro no puede hacer y está bien.

Pero el problema surge cuando este sistema de IA cree que estás cometiendo fraude y en realidad no lo estás cometiendo. Mandas un email quejándote o haces una llamada y te responde un contestador automático.

No hay ninguna manera de mostrar que cualquier decisión que se hizo sobre ti fue equivocada. No hay una respuesta de por qué la máquina te clasificó como fraude, y el juicio humano queda completamente desplazado. El juicio humano siempre tendrá en cuenta muchísimos factores que la máquina no tendrá en cuenta.

El juicio humano siempre tendrá en cuenta muchísimos factores que la máquina no tendrá en cuenta

Para mí el gran peligro es que hay demasiada confianza en esos sistemas de IA, y que en muchos sitios se piensa que, dentro de unos años, estos sistemas serán tan avanzados que podrán sustituir a los humanos. Esto sería un gran error...

El director de Ingeniería de Google, Ray Kurzweil, dice que el 2035 podremos hacer una copia de seguridad de nuestro cerebro e implantarla en otro cuerpo, de manera que seamos inmortales... Si esto fuera así, el cerebro humano sería solo un conjunto de datos y conexiones que se podrían replicar con la IA.

Tengo algunas objeciones a esa teoría. Creo que la inteligencia tiene que ver con procesos de información, sí, igual que la vida está basada en la química... No es que haya química y luego se añadan unos polvos mágicos. Pero, por otro lado, el cerebro humano, en cuanto a procesador de información tiene propiedades que no podemos entender de ninguna manera a día de hoy. ¡2035 es totalmente irreal!

¿Y en 3025?

Aunque llegásemos a tener un conocimiento brutal del cerebro, no significa que podamos construirlo.

Los biólogos no pueden construir el bosque tropical. Saben cómo funciona, pero no pueden construirlo. Para mí el cerebro humano es como el bosque tropical. Un sistema vivo que cambia constantemente, enorme, con miles de millones de conexiones, con una complejidad asombrosa...

La gente que dice que podremos hacer una copia de seguridad de nuestro cerebro en un USB para mí es muy naíf. Significa que no entiendes de qué se trata...

Aunque llegásemos a tener un conocimiento brutal del cerebro, no significa que podamos construirlo

Y bueno, a parte del cerebro, del procesador de información, está el cuerpo. Nuestro cerebro está completamente encarnado en un cuerpo y conectado a sus millones de sensores, a nuestro metabolismo... Hay una integración muy cercana entre nuestras sensaciones, nuestras emociones y nuestro entendimiento.

El cerebro también se relaciona con el comportamiento, con estar en un entorno, con interactuar con otras personas y otras inteligencias. Estas dos cosas no se tienen en cuenta y se tiene la idea de que el cerebro es como una calculadora. Pero es un punto de vista equivocado, en mi opinión.

¿Sería entonces imposible realizar una copia perfecta de un cerebro humano y ponerla en un robot? Si el cerebro fuera como lo piensa Kurzweil, un robot podría aprender y ser completamente autónomo...

Las conexiones en el cerebro están cambiando constantemente. Supongamos que pudieras escanear un cerebro por completo una vez y ponerlo en un robot. En una fracción de segundo, el cerebro real que has usado como modelo ya sería totalmente diferente al que has implantado.

Pero, ¿si consiguiéramos dotar a un robot de inteligencia emocional, que pudiera aprender y adaptarse igual que lo hace el cerebro humano?

Las emociones son mucho más que información, porque las emociones también tienen que ver con el cuerpo. Si te enfadas, tu cuerpo reacciona de una manera. Es una reacción biológica. Y obviamente, reacciona así porque hay una concepción del enfado. Es decir, la ira puede desatarse después de discutir con alguien, por lo que hay una conexión entre el proceso mental y la respuesta fisiológica. Pero esa respuesta fisiológica es parte del sistema emocional.

Por supuesto que podemos construir un ordenador que puede incluso aprender por si sólo a través de patrones de comportamiento. Puedes crear un sistema de reconocimiento con IA y el robot puede simular una emoción. Pero es una simulación. Como Siri... No es una emoción real.

Un robot está solo jugando con patrones, solo puede simular las emociones

La emoción tiene que ver con el conjunto de la persona. Como, por ejemplo, el miedo: todo el cuerpo está implicado en esa emoción y no es algo que podamos controlar. Los órganos se contraen, se acelera la respiración, el corazón late más rápido... Son las señales que el cuerpo asocia con el peligro que provoca una reacción concreta. Un robot solo podría simularlo.

El enfoque del reconocimiento de patrones de comportamiento es un error.

Pongamos otro ejemplo: el traductor de Google. A veces es sorprendentemente bueno, pero otras es estúpido, y en esos momentos más te vale conocer bien el otro idioma. ¿Y por qué es estúpido? Porque usa patrones. Google no tiene ni idea de lo que estás hablando, y ni siquiera hace un intento de análisis lingüístico profundo. Lo que aprende Google es a relacionar un patrón con otro patrón, pero nada más. El traductor no tiene ninguna pista sobre el significado, o los objetivos, o la intencionalidad. Está solo jugando con patrones.

Claro, el significado está mucho más allá de los patrones...

La IA funciona así: veo una cosa, concluyo una cosa. Pero la concluyo porque, según los datos que yo conozco, la mayoría de las veces hay una relación entre lo que he visto y lo que he concluido. Hay gente que está intentando desarrollar la IA desde el punto de vista del significado pero, de momento, solo obedece a patrones, como lo que contaba de PayPal. Y es peligroso por eso. Para diagnosticar una enfermedad se podría usar IA... y dejar de valorar muchos conocimientos.

El hecho de seguir ciegamente un patrón, sin preguntarse si lo que establece ese patrón fue o no una buena idea, es un error

El ser humano, para dar significado a las cosas no actúa solo con patrones preestablecidos, sino con la experiencia de toda una vida. Un cirujano no usa un bisturí hasta que no ha terminado una exigente formación y ha participado antes en otras intervenciones. Quizá tiene 40 años cuando comienza a abrir a un paciente. Si quisiéramos una IA que trascendiera el enfoque de los patrones, tendría que, por lo menos, aprender durante toda una vida.

¿Un robot militar que obedeciera a patrones, por ejemplo, podría no diferenciar entre enemigos y civiles?

Me imagino que no serán tan poco inteligentes de crear una máquina que no sepa diferenciar entre civiles y militares. Pero en estos proyectos en los que las decisiones implican a personas, debería haber un control humano porque no podemos fiarnos de estos sistemas.

Funciona perfectamente para un motor de búsqueda en internet, nadie morirá por un buscador... Y también para la traducción. Pero, en general, cuando se trata de la toma de decisiones real que implica a otras personas, no hay ningún sustituto de la inteligencia humana.

Y estos problemas tienen que ver con el significado. En el momento en el que necesitamos saber el significado de diferentes situaciones, no podemos fiarnos de la IA.

Cuando se trata de la toma de decisiones real que implica a otras personas no hay ningún sustituto de la inteligencia humana

Pero estamos en un momento en el que el significado y sus matices pueden ser un problema. Quiero decir, para algunas compañías, el empleado perfecto es el más productivo, el que no tiene altibajos emocionales... Cada vez más, el análisis queda reducido a los números.

Una máquina en una cadena de montaje no es un robot en el sentido de una máquina con capacidad cognitiva. Es una máquina, es como una lavadora. Puede ser muy sofisticado, pero solo es una máquina. Aunque tenga IA en su interior.

Ya, pero... Por ejemplo, podría haber un periodista robot que use los ingredientes justos para hacer la historia perfecta. Si un día estoy enfermo, yo no podré escribir bien, en cambio el robot siempre escribirá bien.

Esto ya está pasando. Hay textos escritos por ordenadores, sobre todo en contextos financieros... Pero seguro que estás de acuerdo conmigo en que eso tiene un valor muy pequeño, que no es periodismo real.

Por supuesto que no, ¿pero podríamos vernos en una situación como esa algún día?

Como digo, estos sistemas ya están en uso y se han demostrado erróneos. Si un periódico decide despedir a sus periodistas y hace el periódico con robots, todo el mundo dejaría de comprarlo. Como te decía, si la IA no está integrada en la sociedad está condenada a no sobrevivir.

Una situación así solo nos llevaría a textos escritos por ordenadores para ser leídos por ordenadores.

En tus escritos dices que la IA puede tener muy malos usos, incluidos usos militares. Pero también has desarrollado toda una línea de pensamiento para usar la IA para la paz. ¿Qué aplicaciones tendría?

La IA es una tecnología neutral. Puede usarse para cosas buenas o para cosas malas, puedes tener drones para bombardear y drones para controlar la salud del océano. Lo que vemos en este momento es que la guerra es posible porque un grupo siente que forma parte de algo y el enemigo es parte de otro algo. Esto está bien si es en el fútbol, por ejemplo. Es parte de nuestra naturaleza humana, el querer formar parte de algo. Pero se hace peligroso en el momento en el que se señala a un enemigo.

Con las toneladas de información que hay, la IA podría clasificarla y ordenarla para evitar errores

En los conflictos ocurre que un mismo hecho es interpretado de una manera distinta por los diferentes grupos. En el momento actual, la información está completamente distribuida. La gente no solo tiene un canal de información como podría ser la televisión, sino que tiene millones.

La gente tiene que establecer grupos y esos grupos, a través de la información, tienen que estar convencidos de ir a la guerra. Hay corrientes de opinión y la IA tiene que ayudar a la gente a crearse una idea de las dinámicas de opinión, de información. Con las toneladas de información que hay, la IA podría ayudar a evitar errores de información.

¿Y qué pasa con las grandes corporaciones? Al final vivimos todos bajo sus leyes, bajo las leyes del SEO o de lo que aparece en nuestro muro de Facebook...

De momento no creo que estas compañías sean maliciosas. Por ejemplo, Twitter es usado para distribuir todo tipo de propaganda, y está influenciando a gente, está llevando a grupos a enfrentarse a otros grupos. Pero en Twitter son neutrales.

Cuando hablo de IA para la paz hablo especialmente de las redes sociales, de cómo podemos encontrar herramientas para evitar el crecimiento de las dinámicas de opinión, de los rumores o de los prejuicios a una gran velocidad. Eso requiere un nivel de tecnología que no tenemos de momento.

En un futuro, ¿la IA nos salvará?

Si la usamos bien, sí. Pero te recuerdo que no puede solucionarlo todo. Con la investigación que estoy haciendo de aplicar la IA a los flujos masivos de información en la red sí que podríamos romper con conspiraciones, prejuicios e ideas preestablecidas que generan discursos únicos, que provocan que un día se lancen a la calle y comiencen a matar a gente. La islamofobia, las guerras... Parece que con tanta información, en lugar de evolucionar, estemos retrocediendo. El cerebro humano es limitado y no puede procesarlo todo, ayudémosle.

La IA es solo una extensión de nuestro cerebro, como los coches lo son de nuestra movilidad

¿Te ha gustado este contenido?...

Hoy en PlayGround Vídeo:

Ver todos los vídeos

Hoy en PlayGround Video



 

cerrar
cerrar