PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left

Now

De la inmortalidad a las armas más sanguinarias: así es la Inteligencia Artificial que se avecina

H

 

Armas autónomas y robots asesinos, máquinas que superan la inteligencia de sus programadores y ordenadores que aprenden solos… La nueva inteligencia artificial ya está aquí, y es más espectacular y amenazadora de lo que imaginas

Luis M. Rodríguez

19 Junio 2014 09:20

¿Debemos empezar a temer por una futura rebelión robótica como sugiere Hopkins, poner limitaciones ahora al desarrollo de esa súper inteligencia artificial capaz de volverse en contra del hombre en el futuro, o celebrar que el progreso tecnológico ayuda a mejorar nuestras vidas? ¿Debemos abrazar las ideas de la singularidad y la IA como tecno-utopía deseable y benévola u observarlas con la cautela de quien es capaz de ver las sombras de una distopía cargada de riesgos? Te damos algunas claves para enfocar estas preguntas.

Cada año, la revista digital Edge, calificada por algunos como “el sitio más inteligente del mundo”, pide a un puñado de científicos, tecnólogos, académicos, autores de ciencia ficción, periodistas y artistas de prestigio que respondan a una sencilla pregunta. La cuestión que el año pasado se formuló a algunas de las mentes más brillantes del mundo era esta: ¿Por qué deberíamos estar preocupados?

Como era esperar, hubo respuestas para todos los gustos.

La idea de fondo en aquella cuestión era identificar problemas que quizás aún no han sido reconocidos como asuntos de interés o de inquietud general, y en ese sentido llama la atención la coincidencia de varios de los consultados al señalar como amenazas latentes cuestiones relacionadas con el avance de las tecnologías.

Por supuesto, no se trata de un debate nuevo, pero las respuestas sí presentan un sesgo muy propio de nuestro tiempo. Son matices que, en algunos casos, tienen que ver con cuestiones que hasta no hace tanto eran vistas como asuntos más propios de la ciencia ficción que de la ciencia a secas. Viejas distopías que vuelven a estar de actualidad, quizá más vigentes que nunca.

Por un lado están quienes hacen referencia a las tecnologías de la información y los medios sociales, aludiendo al peligro que supone tender hacia una sociedad demasiado conectada. Por otro lado, abundan las respuestas de aquellos que, sobre todo desde el frente científico, aluden al desarrollo de la robótica y la inteligencia artificial como una cuestión peliaguda, un asunto con muchas sombras que quizás no nos estemos tomando suficientemente en serio.

Pero, ¿hay motivos para la inquietud?

En su respuesta, el investigador del MIT David Dalrymple apuntaba a la geografía post-humana que existirá cuando los robots se hayan adueñado de nuestros trabajos. Su colega Max Tegmark hablaba de singularidad tecnológica, y planteaba como conflicto moral el hecho de que seamos complacientes con la idea de que la naturaleza humana pueda transformarse en otra cosa. Es decir, en un híbrido entre lo biológico y lo no biológico, en el cíborg. Para Tegmark, no estar preocupados por esa posibilidad debería preocuparnos. ¿Pero acaso no se ha iniciado ya ese proceso?

El filósofo e investigador en ciencias cognitivas Andy Clark también aludía en su respuesta a cuestiones relacionadas con la singularidad, pero lo hacía desde un planteamiento distinto. Él expresaba su falta de temor en relación a la posibilidad de que una superinteligencia artificial pueda llegar a dominar el mundo algún día. Según Clark estamos lejos de desarrollar la capacidad tecnológica necesaria para que algo así pueda suceder. Pero el temor de fondo está ahí, también entre la comunidad científica. Y es que, como afirmaba en su respuesta Colin Tudge, biólogo y editor de la revista New Scientist, hay quien considera que la ciencia está en peligro de convertirse en el gran enemigo de la humanidad.

Johnny Depp y la singularidad tecnológica

Hoy la idea de la singularidad tecnológica sigue perteneciendo al terreno de la especulación futurista de la rama transhumanista. No hay un horizonte claro en el que poder fijarse como referencia. Pero ese día en el que el progreso tecnológico de lugar a formas de inteligencia suprahumana podría estar más cerca de lo que pensamos.

O igual podría no llegar nunca.

Lo que está claro es que eventos recientes como la presentación en sociedad de Pepper, un robot humanoide de uso personal capaz de interpretar las emociones de los humanos con los que interactúa, o las informaciones que señalan al chatterbot Eugene Goostman como el primer sistema informático supuestamente capaz de superar el test de Turing, animan a que el debate en torno a la Inteligencia Artificial aflore a la luz. A la vez, resulta sintomático que las ideas de fondo de la Singularidad vuelvan a inspirar productos de Hollywood destinados al entretenimiento masivo. Es el caso de Transcendence, la última película de Wally Pfister.

"Kurzweil cree que en torno al 2030 seremos capaces de acceder a la información almacenada en la nube directamente desde nuestros cerebros, gracias a la implantación de nanorobots"

Puede parecer que la realidad que describe Transcendence cae en el terreno de esa prospección especulativa de futuros lejanos propia de la ciencia ficción, pero personajes como Vernor Vinge y Ray Kurzweil confían en que algo así pueda suceder en cuestión de pocas décadas.

Kurzweil, uno de los máximos profetas contemporáneos de la singularidad, cree que en torno al 2030 seremos capaces de acceder a la información almacenada en la nube directamente desde nuestros cerebros, gracias a la implantación de nanorobots en nuestros cuerpos. El autor de The Singularity Is Near (2005) habla de conectarse a la nube de manera directa e inalámbrica, sin la mediación de dispositivos tecnológicos móviles externos. Es decir, enchufar nuestro cerebro a un cúmulo de datos y conocimiento prácticamente infinito.

De nuevo, la imagen del nanorobot programable circulando por nuestros capilares parece algo propio de la ciencia ficción, pero algo parecido se está probando ya en cucarachas. Y la distancia entre el implante neuronal capaz de conectar nuestro cerebro con un ordenador y el momento en el que podamos “descargar nuestra conciencia” en un sistema informático, como sucede en Transcendence, no parece que sea tanta. Es cuestión de tiempo, nos dicen los futurólogos más optimistas. ¿Cuánto? Ya se verá.

Hacia una ética transhumanista

De momento, desde el Institute for The Future, un think-tank con base en Palo Alto vinculado al propio Kurzweil, se acaba de proponer la necesidad de fijar una “Magna Cortica” para la humanidad. Se trata de una especie de guía o conjunto de reglas éticas por las que deberían regirse las prácticas encaminadas a ampliar nuestras capacidades cognitivas. Ahí entrarían desde el uso de fármacos a las técnicas DIY de electrificación transcraneal o la realización de todo tipo de implantes neuronales.

El futuro de la especie humana parece pasar inevitablemente por la hibridación creciente entre lo biológico y lo no biológico, y ese camino hacia el "hombre mejorado" que propone el transhumanismo tiene implicaciones que deberíamos empezar a considerar. ¿Cuáles son esas implicaciones?

Según la presentación realizada por Jamais Cascio del IFTF, esa 'Magna Cortica versión 1.0' que ellos proponen debería girar alrededor de estos cinco simples principios:

1. El derecho al autoconocimiento.

2. El derecho a la automodificación.

3. El derecho a rechazar la modificación.

4. El derecho a modificar o rechazar la modificación de nuestros hijos.

5. El derecho a saber quién ha sido modificado.

¿Se acuerdan de aquel capítulo de Black Mirror en el que los personajes podían acceder a cualquier momento de su propio pasado gracias al “grano” que tenían implantado en su cuello? ¿Y de cómo aquellos que habían optado por no implantarse el grano eran minoría, vistos casi como una rareza exótica por el resto?

Pues hacia eso vamos.

Los temores de Hawking

"Estos científicos piensan que la creación de una inteligencia artificial compleja podría ser el último gran logro humano, y el desencadenante del fin de la historia"

La película de Pfister ha encontrado un espectador muy especial en Stephen Hawking, el físico teórico vivo más famoso del mundo. Y a diferencia de la mayoría de críticos y de buena parte de los espectadores, que han juzgado la trama del filme como inverosímil y un poco boba, Hawking ha preferido ver Transcendence una especie de fábula precautoria sobre los peligros de la inteligencia artificial (AI).

A principios de mayo, Hawking firmaba un artículo publicado en The Independent en el que, usando la película como percha, se insiste en la idea de la AI como algo que va más allá de lo tecnológicamente concebible para acercarse, cada vez deprisa, al terreno de lo tecnológicamente realizable. Y en ese camino, defiende el científico, se podrían presentar oportunidades e implicaciones que quizás no sepamos prever y mucho menos manejar.

Pero Hawking no está solo en esa idea.

El artículo viene firmado de forma colectiva. Junto a él están Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California en Berkeley, y los físicos del MIT Max Tegmark y Frank Wilczek. Todos ellos coinciden en la idea de que la creación de una inteligencia artificial compleja podría ser el hito más importante en la historia de la humanidad. Los beneficios potenciales de disponer de una tecnología semejante son enormes. Desafortunadamente, estos científicos piensan que ese gran evento podría ser también el último logro humano, y el desencadenante del fin de la historia.

A menos que aprendamos a evitar los riesgos.

La pregunta que ellos lanzan es: ¿nos estamos tomando el tema de la AI suficientemente en serio?

Según ellos, despachar la noción de las máquinas altamente inteligentes como mera ciencia ficción sería un error, e incluso “nuestro peor error en la historia”. ¿La razón? “Uno puede imaginar que esas tecnologías llegan a sobrepasar en inteligencia a los mercados financieros, superando a los investigadores humanos en la capacidad de inventar, manipulando a los líderes humanos, y desarrollando armas que no podremos entender”, dicen en su escrito. “Mientras que el impacto a corto plazo de la AI depende de quién la controla, el impacto a largo plazo dependerá de si se puede controlar en absoluto”.

Experiencias que asustan

Asistentes personales virtuales como Siri y Cortana se han convertido en presencias normales en nuestras vidas, y de ahí al escenario que dibuja Spike Jonze en Her sólo hay un paso. ¿Será posible entonces enamorarnos de un sistema operativo intuitivo, sensible y perspicaz que nos acompaña a todas partes, nos da buena conversación y nos hace la vida más sencilla y llevadera? Podría pasar. ¿Podría además ese sistema inteligente y auto-mejorable llegar a desarrollar sus propias ideas y hasta sus propias dudas existenciales, como sucede en la película, hasta el punto de querer desligarse de su usuario y su creador para aventurarse por voluntad propia por otros caminos?

Experimentos recientes sugieren que sí, que podría.

La pasada primavera, la revista científica Physical Review Letters publicaba un artículo en el que científicos de Harvard y la Universidad de Hawaii exploraban la posible conexión entre la inteligencia y la maximización de la entropía. En base a sus experiencias, la pareja conjeturaba que, en un sistema, el comportamiento inteligente emerge de forma espontánea como resultado de su esfuerzo por asegurar su libertad de acción en el futuro.

Alex Wissner-Gross y Cameron Freer proponen en su estudio una “entropía de ruta causal”, que se basa en el número de disposiciones que podría atravesar un sistema en su camino hacia posibles estados futuros. Para probar su teoría, los estudiosos crearon un software llamado Entropica. El software les permitió simular una serie de modelos sobre los que aplicaron una presión artificial, lo que llaman “fuerza entrópica causal”, que empuja al sistema a maximizar esa entropía causal, es decir, a evolucionar con el fin de mantener abiertos y accesibles tantos estados de futuro distintos como sea posible. En base a ese principio, el software se mostró capaz de resolver tareas que imitan pruebas estándar de inteligencia animal y desarrollar comportamientos cognitivos de forma espontánea y autónoma.

Sin que se le hubieran asignado objetivos previos, el software “dedujo” la manera de jugar a juegos, de emular el uso de herramientas e incluso de ganar dinero con la compraventa de acciones en un mercado financiero simulado.

"Podría considerarse que la Inteligencia Artificial es un efecto físico del proceso adaptativo por el cual un sistema busca evitar su confinamiento, maximizando así sus opciones de futuro"

Luego, a raíz de la publicación de su estudio, el propio Wissner-Gross se animó a discutir las nociones convencionales que apuntan a un futuro en el que una superinteligencia artificial pueda acabar dominando el mundo. En una entrevista para io9, el científico comentaba lo siguiente:

“La trama convencional siempre ha sido que primero construiríamos una máquina realmente inteligente, y luego esa máquina podría decidir de forma espontánea hacerse con el control del mundo. Puede que tengamos el orden de dependencia equivocado. La inteligencia y la superinteligencia podrían en realidad emerger del esfuerzo de intentar tomar control del mundo —específicamente, de todos los posibles futuros— en vez de ser la idea de tomar control del mundo un comportamiento que emerge de forma espontánea de una inteligencia artificial sobrehumana que hayamos desarrollado”.

Por abstracta que nos pueda parecer, esa noción que plantea hace que la idea de la inteligencia artificial se vuelva más espeluznante.

El el mismo artículo, Wissner-Gross hace referencia a una versión previa de uno de sus experimentos con el software Entropica que consistía en un agente indeterminado que hace equilibrios sobre un pogo saltarín (uno de esos dispositivos que te permiten botar con ayuda de un resorte). Entropica se mostró capaz de descubrir que ejerciendo fuerza sobre el pogo de una manera y con una frecuencia específica podía “romper” la simulación. El científico relacionó el evento con una forma de inteligencia artificial general intentando romper su confinamiento. “En un sentido matemático, podría verse con un ejemplo primitivo de IA intentando romper su cajón a fin de maximizar su libertad de acción futura”.

De ser cierta, esta teoría supondría que la Inteligencia Artificial es, por naturaleza, contraria a la idea de su contención. De hecho, podría considerarse que la inteligencia es un efecto físico del proceso adaptativo por el cual un sistema busca evitar su confinamiento, maximizando así sus opciones de futuro. De ser así, como sugieren Hawking y compañía en su artículo del mes pasado, el impacto a largo plazo de la IA dependerá no de cómo la manejemos, sino de si somos o no capaces de controlarla en absoluto.

Pánico en el parquet

¿Qué sucedería si esos ordenadores comenzaran a realizar operaciones contrarias a la lógica?

La idea de la singularidad tecnológica implica que llegará un momento en el que la inteligencia artificial superará en sus capacidades a la inteligencia humana. Por eso, llegados a un cierto estadio de desarrollo, serán las propias tecnologías las que impulsen el progreso de manera autónoma, mejorándose a sí mismas. Cuando ese momento llegue, seremos testigos de lo que el matemático I.J. Good describió como una auténtica “explosión de inteligencia”. Será un punto de no retorno. A partir de ahí, los eventos podrían sucederse a una velocidad tan rápida que haría imposible para el hombre cualquier tipo de control.

El argumento clásico que sitúa la responsabilidad moral del lado humano cuando hablamos del buen o mal uso que podamos hacer de las tecnologías podría dejar de tener sentido: simplemente, las cosas escaparían a nuestro control.

Un ejemplo a escala de lo que podría pasar con otros muchos sistemas críticos para el buen funcionamiento del mundo moderno lo tenemos en la llamada 'negociación de alta frecuencia' en los mercados de valores. El 'High Frequency Trading' (HFT) supone la contratación automatizada de valores en función de algoritmos que analizan a gran velocidad las señales y condiciones del mercado; en respuesta a las mismas, introducen un gran volumen de órdenes en períodos de tiempo muy cortos. Estas tecnologías pueden llegar a realizar alrededor de 500 transacciones por segundo, y algunos operadores ya hablan de la introducción de sistemas que permitirán realizar hasta 100.000 transacciones en un solo segundo. La intervención humana en las operaciones de HFT se limita al diseño del modelo matemático de la operativa, y a la instalación de la infraestructura tecnológica. La supervisión de las operaciones en tiempo real es sencillamente imposible. Entonces, ¿qué sucedería si esos ordenadores comenzaran a realizar operaciones contrarias a la lógica?

Eventos como el “Flash Crash” vivido en Wall Street el 6 de mayo de 2010 nos dan una idea de cómo la transferencia de la toma de decisiones a instrumentos tecnológicos cada vez más potentes y complejos nos puede llevar a escenarios en los que el control e incluso la mera comprensión de lo que está pasando queden fuera de nuestro alcance.

Que un índice bursátil —o el precio de determinadas materias primas, cada vez más expuestas al HFT— se desplome sin razón aparente durante un cierto tiempo puede ser causa de estupor y pánico. Si el desarreglo se mantuviera en el tiempo, desencadenaría un colapso económico a nivel global. Y podemos imaginar lo que podría llegar a pasar si se dieran situaciones similares de comportamiento tecnológico irracional en vehículos de conducción autónoma (drones o incluso aviones), sistemas de abastecimiento de luz o gas, sistemas de control de misiles balísticos o entornos como centrales nucleares.

Los riesgos están ahí y son enormes. Y la experiencia nos dice que, a pesar de nuestras mejores intenciones, habrá accidentes que pasen.

El problema de saber definir el problema

Encontrar la manera de contener los desmanes de una AI que se esté comportando de manera inadecuada puede ser problemático. Pero la situación se complica si tenemos en cuenta que estamos en un estadio en el que las habilidades de los ordenadores inteligentes comienzan a superar nuestra capacidad para entender cómo o por qué esas máquinas hacen lo que hacen. Aunque nosotros las hayamos programado.

Un ejemplo lo tenemos en el ordenador Watson de IBM, que se mostró capaz de ganar a los mejores jugadores de Jeopardy en 2011. David Terrucci, investigador jefe del proyecto, reconoció en su día que las decisiones de Watson sorprenden incluso a sus propios creadores. “La gente dice: ¿por qué se equivocó en esa respuesta? He de decir que no lo sé. ¿Por qué acertó esta otra? Tampoco lo sé”.

No saber por qué fallan estas máquinas en sus respuestas o decisiones es un problema. Pero el escenario futuro al que tendremos que enfrentarnos es todavía más complejo.

Proyectos como Rapyuta, también conocido como The RoboEarth Cloud Engine, apuestan por la creación de un repositorio de conocimiento computacional en la nube a través del cual los robots podrían colaborar y compartir información entre ellos de forma autónoma, haciendo que unos dispositivos se puedan beneficiar de la experiencia previa de otros, aprendiendo así a realizar nuevas tareas sin necesidad de ser programados para ello. Nuestra capacidad de control de ese proceso de autoaprendizaje entre robots parece limitada. Y en un momento dado, una forma de superinteligencia podría surgir incluso en la misma nube, sin necesidad de estar personificada en ningún ente físico. Cuando esos sistemas comiencen a generar respuestas para preguntas que quedan más allá de nuestra comprensión, llegará un momento en el que ni siquiera seamos capaces de saber cuándo se están equivocando. Y si no somos capaces de identificar un error, difícilmente vamos a poder buscar la manera de corregirlo.

¿Y si Skynet se hiciera real?

En paralelo al debate en el ámbito científico, aspectos relacionados con la inteligencia artificial empiezan a ser motivo de interés de la más alta política a nivel global.

Hace pocas semanas tuvo lugar en Ginebra una reunión informal de expertos convocada por el Convenio sobre Armas Convencionales (el CCW, también conocido como Convención sobre Armas Inhumanas) de Naciones Unidas en la que se discutió, por primera vez a ese nivel, sobre las implicaciones éticas y legales de las llamadas “armas autónomas” o “robots asesinos”, y también sobre su posible prohibición. El CCW respondía así a las consideraciones expresadas en un informe emitido por Naciones Unidas a principios de mes. El Informe coincide en parte de sus valoraciones con las demandas de control y las recomendaciones que activistas políticos y organizaciones como Human Rights Council o el International Committee for Robot Arms Control (ICRAC) vienen realizando desde hace años.

Por 'armas autónomas' debemos entender aquellas que “una vez son activadas, pueden seleccionar sus objetivos y enfrentarlos sin ningún tipo de intervención de operador humano”.

O sea, tecnologías robóticas capaces de decidir por si solas cuándo y a quién deben matar.

Esas armas autónomas aún no existen como tales, pero los avances tecnológicos evidencian que pronto serán una realidad. Una realidad, además, que los ejércitos más poderosos del mundo miran con muy buenos ojos.

Entre los participantes en la convención del CCW encontramos defensores de posturas encontradas. Para Noel Sharkey, profesor de la Universidad de Sheffield y cofundador del ICRAC y de la coalición Campaign to Stop Killer Robots, las armas autónomas representan “un nuevo peligro para la humanidad que necesita ser parado antes de que los estados lleguen a estar demasiado comprometidos a nivel de inversión en esas tecnologías”. En el lado contrario, Ronald Arkin, experto en robótica que ha colaborado con el Pentágono en varios proyectos, defiende el uso de robots autónomos en situaciones bélicas en la medida en que pueden reducir los daños humanos al mantener a los soldados lejos del campo de batalla, y al permitir a los ejércitos afinar de manera más precisa a la hora de ejercitar su poder mortal. Es decir, Arkin ve en estas tecnologías no sólo un modo de evitar bajas en las filas militares, sino también una vía para reducir los daños colaterales que puedan afectar a la población civil de las zonas en conflicto. Por esa razón, considera que es una vía a explorar y que la prohibición está injustificada.

En noviembre del 2012 el Departamento de Defensa de los Estados Unidos emitió una directiva según la cual un humano ha de estar siempre al tanto de cualquier decisión que implique el uso de una fuerza letal. Pero esa postura podría cambiar en cualquier momento. De hecho, un reciente informe de la Fuerza Aérea norteamericana señala que en cuestión de 15 años, para el 2030, “las capacidades de las máquinas habrán crecido hasta el punto en el que los humanos serán el componente más débil de una enorme variedad de sistemas y procesos” implicados en una situación bélica.

Llegado ese momento, cabe esperar que el amigo americano vaya dotando de una autonomía cada vez mayor a esas “máquinas inteligentes” capaces de imponer su ley mortal.

¿Debemos temer por una futura rebelión robótica y limitar ahora el desarrollo de esa inteligencia artificial o celebrar que el progreso tecnológico ayuda a mejorar nuestras vidas?

Imaginar a robots como los desarrollados por Boston Dinamics para DARPA, pero dotados de capacidades para decidir de forma autónoma cuáles son sus blancos, provoca escalofríos. Imaginarse la misma escena en combinación con las ideas que Alex Wissner-Gross y Cameron Freer proponen, esas que apuntan a la tendencia natural de la AI a romper su confinamiento, lo que produce es auténtico pavor.

Un pavor que, no hay que olvidar, surge de la especulación, y habita en el terreno de la imaginación.

¿Debemos empezar a temer por una futura rebelión robótica como sugiere Hopkins, poner limitaciones ahora al desarrollo de esa súper inteligencia artificial capaz en el futuro de volverse en contra del hombre, o celebrar que el progreso tecnológico ayuda a mejorar nuestras vidas?

¿Debemos abrazar las ideas de la singularidad y la IA como tecno-utopía deseable y benévola u observarlas con la cautela de quien es capaz de ver las sombras de una distopía cargada de riesgos en ese mismo potencial?

Lo más lógico es pensar que ambas posturas no son excluyentes, que pueden convivir. Que la aceleración tecnológica nos va a abrumar con oportunidades por las que preocuparnos es algo que podemos dar por hecho, pero renunciar a los posibles beneficios de esa aceleración en base a oscuros escenarios especulativos no parece lo más razonable.

Quizás, como apuntaba Dave Winer en su respuesta a la llamada de Edge, lo que debería de verdad preocuparnos es que la especie humana pierda algún día el deseo de sobrevivir. Y ese deseo nos empuja hacia un escenario claro: con singularidad o sin ella, el futuro del hombre será el híbrido humano-tecnológico o no será. Es cuestión de tiempo. Más nos vale aprender a convivir con esos riesgos.

share