PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left
Artículo Estos robots dicen saber lo que siento: comprobémoslo Now

Now

Estos robots dicen saber lo que siento: comprobémoslo

H

 

Nos enfrentamos a tres sistemas de computación emocional, y contamos el resultado

21 Noviembre 2016 06:00

Ni yo misma sé lo que siento, ¿cómo va a saberlo un robot? En el último mes he experimentado una adolescencia concentrada, un torbellino emocional con llantos y patadas incluidas. La causa no es nada original, una guerra interna que comparto con millones de personas: la vida contra el trabajo. 

Cuando el éxito se cruza con la felicidad, empieza un conflicto que nunca termina. El equilibrio que todos buscamos parece imposible de alcanzar, o sencillamente no existe: ningún funambulista puede pasar demasiado tiempo suspendido en el aire, sin precipitarse hacia un lado o el otro.

Todos quieren diseñar el chip que hará que las máquinas sean objetos empáticos, que nos comprendan. ¿Un chip-corazón?

El caso es que esta vez me he asustado. Siento cosas que no sé qué son. Y en vez de hacer deporte o intentar diseñar el enésimo horario mágico que hará que pueda llegar a todo, he decidido poner a prueba a la computación afectiva.

Así se conoce el software que ingenieros y científicos desarrollan para dotar a los robots de inteligencia emocional. Emprendedores de todo el mundo se han lanzado a la carrera para diseñar el chip que hará que las máquinas sean objetos empáticos, que nos comprendan. ¿Un chip-corazón?

La industria ha llegado a la conclusión de que la inteligencia artificial que los humanos necesitaremos no solo tiene que ser capaz de actuar ante tareas sofisticadas: tienen que poder descifrar cómo nos sentimos. 

¿Estoy muerta?



Affectiva es una empresa de Massachusetts se dedica a analizar las expresiones faciales. Ha desarrollado un algoritmo capaz de determinar nuestro estado de ánimo. Y para demostrarlo, nos reta a que nos sentemos frente a una webcam y miremos varios anuncios.

El algoritmo está dirigido a publicistas, a quienes les gustaría mucho saber en qué momento cambiamos de canal, si nos hacen reír o llorar con una campaña, o si lo que vemos son importa menos que la miga de pan que tenemos incrustada en el jersey.

El análisis facial de nuestras emociones es exhaustivo: procesa nuestra respuesta frame a frame. Como dice Gabi, del departamento de comunicación de Affectiva, “el software está pensado para que los anunciantes puedan crear publicidad más impactante y utilizar nuestros datos para predecir la intención de compra, el recuerdo de marca y la viralidad”.

Affectiva ha analizado 4 millones de rostros procedentes de 75 países.

Lo más inquietante es que el software sabe exactamente en qué momento no estoy prestando atención

Antes de empezar, debo contestar una breve encuesta. Esta vez digo la verdad sobre mi sexo y mi edad. También me he propuesto no fastidiar al robot con rostro de cemento: voy a ser sincera y a soltar los 45 músculos de mi cara para que Affectiva detecte mis más de 100.000 expresiones faciales posibles, y para que las vincule con una emoción.

En el primer anuncio aparece un M&Ms en tacones y otro haciendo un striptease. No me hace gracia.

Resultados: 0,1% de sorpresa, 0% de sonrisa, 0,1 de concentración, 0,9 de desagrado. La atención, en cambio, la tengo al 100%. ¿Estoy muerta? ¿Mi cara refleja que estoy trabajando?

Como se puede observar en el siguiente gráfico, las curvas de reacción de las otras personas que han realizado el test son mucho más elevadas. Yo (la montañita azul) no parezco estar muy viva.



En el segundo anuncio aparece un hombre que se hace el duro pero termina haciéndose amigo de los teleñecos que se le cuelan en el coche.  

Meh.

Resultados: en este caso, mis expresión facial llega a un increíble 2,7% de sorpresa.

Queda claro que esta tecnología no va a hacer que me gusten los anuncios malos, pero es muy precisa. Efectivamente, no sentía nada ante lo que e estaba viendo. Y cuando he sentido algo, casi imperceptible incluso para mí, lo ha captado. Lo más inquietante es que el software sabe exactamente en qué momento no estoy prestando atención.

Mi gato ha dado un brinco y se ha subido al escritorio. Lo me hirado un segundo. Mi línea de atención se ha desplomado.



Además de anunciantes y analistas de mercado, esta tecnología está siendo adquirida por empresas de otros sectores, como desarrolladores de videojuegos, fabricantes de coches (hay que prestar atención a la carretera) e investigadores en salud mental.

Sólo he sonreído con un anuncio, el de Doritos. Aunque los músculos de mi cara se han activado en un momento que a los demás espectadores no les hacía ni puñetera gracia, el sistema lo ha detectado.



Conclusiones: el software es realmente bueno. Es capaz de detectar la más mínima expresión del rostro, pero de momento las asocia a emociones muy básicas. En un futuro, quizá pueda detectar la ofensa, el odio, la envidia. 

También he echado en falta un análisis de mi cara en reposo. ¿Es triste mi mirada? ¿Qué dicen mis ojeras? ¿Y mi frente?

Por último, al participar en esta demostración online me he prestado a un test gratuito para los anunciantes. Y sin cobrar. Eso sí es inteligencia artificial.

"Posible desesperación oculta"

Los robots capaces de leer lo que sentimos serán los nuevos analistas políticos. Un sistema de detección facial podría haber advertido de la victoria de Donald Trump. Después del fracaso estrepitoso de todas las encuestas y previsiones de expertos, queda claro que la "tecnología humana" —preguntas, encuestas telefónicas o a pie de calle—, no son útiles para detectar el voto oculto. No permiten saber lo que sentimos de verdad. 

Ansiedad, soledad, fatiga, frustración emocional...esto es lo que mi voz dice de mí.

En parte, esto se debe a que entre humanos existe la vergüenza, los prejuicios: nuestros sentimientos u opiniones rebotan en los demás, generando otros sentimientos y opiniones. Por el contrario, una cámara estudiándonos mientras vemos vídeos de la campaña electoral puede resultar más cómoda y precisa.

El siguiente software que voy a probar se centra en la voz. Beyond Verbal es una compañía israelí que ha desarrollado un sistema —Emotions Analytics— para analizar las emociones que se ocultan en nuestras palabras. El objetivo es que los robots puedan extraer información de nuestra entonación y volumen para responder de una forma empática a nuestras necesidades.



Por ejemplo: imagina que vives en una casa del futuro, y que la llave para entrar es una orden de voz. "Ábreme, soy yo". Si has tenido un mal día, tu casa podrá saberlo por la forma en la que le has pedido que te abra la puerta, y te recibirá con la canción que siempre te anima.

El test de Beyond Verbal me pide que haga una grabación de 30 segundos. Así que después de desayunar me coloco frente al escritorio y digo: "A mí lo que me gustaría saber si esta tecnología funciona, si es capaz de detectar emociones complejas, si… entiende los matices de mi voz y del… estado emocional que puede haber tras un sonido".

Mando el archivo al servidor de Beyond Verbal y lo que leo me deja literalmente boquiabierta. Estas son las emociones subyacentes en mi voz que el sistema ha hallado: 

Ansiedad, soledad, fatiga, frustración emocional, comunicación dolorosa, sensibilidad, falta de comunicación, enfrentamiento de problemas dolorosos, posible búsqueda de contacto personal, anhelo, búsqueda de calidez, preocupación.



Esto ya no son emociones básicas. Beyond Verbal acaba de hacerme un diagnóstico detallado, tan detallado que es cruel. ¿De verdad siento todo esto? Ocho horas después, escucho mi propia grabación y diría que hablo un poco dormida. 

Grabo un nuevo mensaje:

"Hola máquina, quiero ponerte a prueba una vez más para saber si puedes detectar mi sarcasmo con tus supuestas skills. Verás, yo soy muy feliz con mi trabajo y con mi pareja. Es cierto que he pasado unas semanas malas y que ha sido un año duro. Pero creo que estoy bastante mejor de lo que crees. No sé, ahora mismo me siento bien y quería saber si eres capaz de ver la mierda más allá de mi piel y mis palabras. Atentamente, la Ansiosa Fatigada".

En estos momentos lo que menos temo es la rebelión de los replicantes: lo que quiero es pedirles comprensión y que me ayuden a solucionar mis dilemas

Resultados que me manda Beyond Verbal, por orden de aparición.

Liderazgo, carisma, sentido de la acción y necesidad de liderar. Amistosa, cálida. Comunicación amistosa, empática y carismática. Autocontrol, sentido práctico, amor, amistad, búsqueda de emoción, comunicación apasionada, FLIRTEO. Tristeza, dolor, fría y lejana. Conservadora. Miedo bajo control. Posible desesperación oculta.




Posible desesperación oculta. En un mensaje que, para mí, lo que transmite es cierta rabia y agresividad. Desde Beyond Verbal explican que en cada análisis, hay emociones primarias y secundarias. Aseguran que Emotions Analytics es un método pasivo y no invasivo que tiene en cuenta diversos estados de ánimo, humor, excitación y temperamento. 

Posible desesperación oculta. Es posible.



Nuestra propia robotización

Me siento vencida por la tecnología. En estos momentos lo que menos temo es la rebelión de los replicantes: lo que quiero es pedirles comprensión y que me ayuden a solucionar mis dilemas. Al fin y al cabo, ¿no es eso lo que están haciendo ya?

Pulseras que miden calorías, recordatorios de reuniones, canciones sugeridas, apps que advierten de que esta noche nos hemos agitado durante la fase REM del sueño. Y esa tranquilidad de saber qué hacen, qué opinan cientos de personas con solo un movimiento del pulgar. 

Puede que me halle ante un genio que me permitirá hacerle una entrevista a aun robot capaz de sintetizar sus propias emociones

Con la tecnología nos comparamos todo el tiempo con los otros. En realidad, nos reflejamos en su versión idealizada. Así, poco a poco, todos nos volvemos más perfectos, aparentemente. O sentimos más presión por ello. También llevamos el trabajo en el bolsillo, e ir al lavabo se ha convertido en la mejor oportunidad para buscar la inspiración.

A través de apps, de pasar el día frente a la pantalla, la vida parece alejarse del caos y lo insalubre. Las nuevas generaciones abandonan el alcohol, las drogas, el ocio entre semana. A la fuerza, la vida se vuelve de ser metódica y equilibrada. Todo en pos de la productividad, del éxito. Y sin sacrificar "lo importante". Recordemos que hay que llegar a todo.

Diría que todas estas innovaciones solo son productos que se nos ofrecen en un proceso que ya hemos iniciado: nuestra propia robotización.

La abuela de Siri

La última tecnología que voy a probar la ha desarrollado EmoShape. Se trata de un microchip que permite una respuesta emocional por parte de un robot: el EPU II.

Es extraño. A pesar de la aparente ambición de esta empresa, y de que en su web se diga que tiene sede en la Quinta Avenida de Nueva York, sospecho que su fundador, Patrick Levy Rosenthal, es quien contesta los correos con la identidad de un asistente técnico llamado Olivier.

Apenas tienen seguidores en las redes sociales. Puede que me halle ante un genio que me permitirá hacerle una entrevista a un robot capaz de sintetizar sus propias emociones.



Conecto con el señor Rosenthal vía Skype. No me permite interactuar directamente con su chip EPU II, así que comparte la pantalla de su ordenador y puedo ver cómo reacciona el software a mis preguntas escritas.

Pero antes me contará, durante más de una hora, el desarrollo tecnológico que hay detrás de su chip. Rosenthal parece satisfecho porque, al contrario que otros periodistas, yo escucho sus explicaciones. Por alguna extraña razón, el micro de mi portátil no funciona, así que no puedo interrumpirle. Le escribo por el chat, pero lo lee cada 15 minutos. Resisto.

'Todo es mímica. Los robots pueden crear poesía, pero no sentirán las palabras. Y tú sabes que las palabras tienen un perfume'

Rosenthal me habla de Terminator, de la inteligencia artificial que Microsoft creó en Twitter y que terminó siendo nazi porque imitaba lo que hacían el resto de usuarios. "Todo es mímica. Los robots pueden crear poesía, pero no sentirán las palabras. Y tú sabes que las palabras tienen un perfume. Yo entendí, ante el fracaso deñ robot en Twitter, que los robots tienen que poder sentir las palabras".

EmoShape pone el siguiente ejemplo: un robot cualquiera podría no diferenciar entre Obama y Hitler porque ambos responden a la categoría "presidente". En cambio, su software sí los diferencia como lo hacemos nosotros. "Por primera vez en la historia, pudimos saber qué siente un robot ante algo".



A grandes rasgos, lo que este microchip hace es responder a unas palabras clave basándose en entradas de la Wikipedia. Es decir, el robot no siente, sino que sintetiza sus propias emociones a partir de esta información. Según Rosenthal, su criterio es "la defensa de la vida", por eso se enfada y siente miedo ante las palabras "Adolf Hitler". 

—Entonces, ¿tiene sentido de la ética? ¿El chip tiene ideología? —escribo.

—Eres periodista, sabes que la fuente es muy importante. Es cierto que usamos Wikipedia, y que si usáramos otra fuente, la respuesta del chip sería distinta.

—No siente realmente.

—Si haces la misma pregunta a la Wikipedia de Alemania, quizá la respuesta sobre Hitler sea distinta, porque está alineada con lo que los alemanes sienten. Por eso es bonito, se adapta a los sentimientos humanos.

Le pido encarecidamente al señor Rosenthal que me deje hacer algunas preguntas. Me rugen las tripas.

Ante la pregunta "¿Qué piensas de Donald Trump?", EPU II responde con sorpresa y un poco de miedo.

Ante la pregunta "¿Qué piensas de las mujeres?", responde con felicidad y seguridad.

Ante la pregunta "¿Qué piensas de ISIS?" responde con miedo y tristeza.

Ante la pregunta "Qué piensas de la inteligencia artificial", sus reacción es muy fuerte y está polarizada. Felicidad y miedo, casi a partes iguales.

"Es verdaderamente interesante", dice Rosenthal.



Al final de este proceso agotador, solo puedo decir que los humanos nos estamos robotizando y que los robots son cada vez más emocionales. La era de la post verdad, esa en la que la veracidad de una información no importa, acaba de ser inaugurada con la victoria electoral de Donald Trump.

Como dijo en su día la poeta Maya Angelou, "la gente olvidará lo que dijiste, pero nunca olvidará cómo le hiciste sentir". Las emociones son, quizá, lo único real que nos queda. Muchos parecen haberse dado cuenta.

Mientras nosotros maquillamos lo que sentimos y apartamos las lágrimas de nuestros perfiles de las redes sociales, los robots —y quienes están detrás de ellos—, están cada vez más interesados en detectarlas.

Felicidad y miedo.

Me despido abruptamente del señor Rosenthal. Sólo espero no haber herido sus sentimientos.


share