PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left

Now

Así es como Facebook manipuló a 700.000 usuarios para un experimento psicológico

H

 

La publicación de un estudio para controlar emociones indigna a los usuarios de la red social

Franc Sayol

30 Junio 2014 18:24

Damos por supuesto que Facebook lo sabe todo de nosotros. Sabe si estamos solteros o tenemos pareja, en qué Universidad estudiamos, las películas que nos gustan y cuál es nuestra marca de patatas frita favorita. Pero lo que probablemente no teníamos en cuenta es que la mayor red social del planeta también puede manipularnos a su antojo.

Gracias un estudio recientemente publicado en Proceedings of the National Academy of Sciences hemos sabido que, hace dos años, Facebook llevó a cabo un experimento para investigar los efectos de la transferencia de emociones online. Durante una semana de enero de 2012, científicos de datos identificaron a cerca de 700.000 usuarios de habla inglesa y manipularon lo que veían en su muro de noticias. Los investigadores utilizaron un programa de análisis de textos para identificar palabras positivas o negativas en los mensajes. A partir de esta información, retocaron el algoritmo mediante el cual Facebook organiza los posts que reciben los usuarios para que estos fueran emocionalmente sesgados. Una parte de las personas fueron expuestas a una mayoría de mensajes considerados positivos y alegres, mientras que el resto recibió un número más elevado de lo habitual de mensajes analizados como negativos o tristes. Al cabo de una semana, se analizaron los posts de los usuarios manipulados para observar si existía correlación entre aquello que habían recibido y aquello que compartían.

Contagio emocional a escala masiva

El estudio descubrió que, efectivamente, la manipulación del muro de noticias de esos 700.000 usuarios podía afectar a lo que luego posteaban en su perfil. Así pues, aquellos que fueron expuestos a una mayoría de mensajes negativos luego compartieron actualizaciones de estado más negativas, mientras que los estados de aquellos que recibieron mensajes más positivos tendían a ser más positivos. Según los investigadores, estos resultados sugieren que “los estados emocionales pueden ser transferidos a los demás a través del contagio emocional, llevando a la gente a experimentar las mismas emociones que sus amigos sin que sean conscientes de ello”. El estudio representa, según ellos, “la primera evidencia experimental de un contagio emocional a escala masiva a través de las redes sociales”.

Mientras que este contagio de emociones es evidente en la vida real —ver a un ser querido triste nos pone tristes—, para los científicos, lo relevante del estudio es que demuestra que no es necesaria la interacción directa entre personas para que se produzca este trasvase, ya que los sujetos estudiados simplemente observaban los mensajes que aparecían en su muro de noticias. Para los investigadores, esto demostraría que el “texto por sí solo puede ser un conducto suficiente para lograr el mismo efecto”.

Más allá del interés científico de sus resultados, la publicación del estudio ha provocado un gran revuelo en la red. Abogados, activistas de internet y políticos lo han calificado de “escandaloso”, “escalofriante” y “preocupante”. Pero los más indignados han sido los propios usuarios de Facebook, que acusan a la red social de haberlos utilizado como conejillos de indias sin su permiso. Y es que mientras que los experimentos psicológicos de este tipo son habituales, los psicólogos que los realizan siempre deben informar a los participantes y obtener su consentimiento antes de llevarlos a cabo.

Dudas éticas

facebook

Tal y como apuntan los autores del estudio, esta clase de manipulación de datos está estipulada en las Condiciones de Uso derick-owens. Cuando los usuarios se dan de alta, aceptan que su información pueda ser usada para “operaciones internas, incluyendo solución de problemas, análisis de datos, pruebas, investigación y mejoras del servicio”. Aunque en las condiciones no hay nada que se refiera específicamente a la manipulación del muro de noticias, es poco probable que Facebook se haya arriesgado a extralimitarse desde el punto de vista legal. Aún así, su actuación genera numerosas dudas desde el punto de vista ético.

Por mucho que se haya mantenido dentro de los márgenes legales, es evidente que la red social ha ido un paso más allá en otro sentido. Los usuarios tienen asumido que lo que ven en su muro de noticias se organiza en función de aquello en lo que clickan —de hecho, así es como funciona toda la publicidad segmentada—, pero el experimento es un aviso de que puede haber algo más que un algoritmo decidiendo lo que vemos o no. La idea de que Facebook pueda manipular su muro de noticias a su antojo es inquietante, y más aún si lo hace para provocarnos un determinado tipo de emociones.

La respuesta de Facebook ha llegado mediante un post de Adam D.I. Kramer, trabajador de la compañía y uno de los responsables del estudio. En su comunicado, Kramer ha explicado que “el objetivo de la investigación era aprender a ofrecer un servicio mejor”. El científico de datos lamenta haber molestado a los usuarios de la red social. “Entiendo por qué algunas personas han mostrado su preocupación sobre el estudio, y mis compañeros y yo sentimos la forma en la que la pieza describía la investigación y la ansiedad que ha provocado. En retrospectiva, los beneficios de la investigación pueden no haber justificado toda esta ansiedad”.

Argumentos poco convincentes

En declaraciones a Forbes, un portavoz de Facebook ha puntualizado que “ninguno de los datos utilizados se asoció a la cuenta de un usuario específico”. El portavoz ha explicado que la principal motivación del estudio era mejorar el servicio de la página y hacer que el contenido que la gente ve en Facebook sea lo más relevante y atractivo posible. “Una gran parte de esto pasa por entender cómo la gente responde a distintos tipos de contenidos, ya sean en tono positivo o negativo, noticias de amigos o información de las páginas que siguen. Consideramos cuidadosamente qué tipos de investigaciones hacemos, y pasan por un exigente proceso de revisión interna”.

Pero no todas las personas involucradas en el estudio se han mostrado tan despreocupadas. Susan Fiske, una profesora de Psicología de la Universidad de Princeton que editó el estudio, ha dicho a The Atlantic que a ella “también le resulta inquietante”. Fiske explica que tenía dudas y que, al preguntar a los autores, le dijeron que la junta de revisión institucional local lo había aprobado. “Aparentemente, su argumento era que, al parecer, Facebook manipula el muro de Noticias de la gente todo el tiempo”, concluye.

Esta revelación abre a la puerta a que Facebook se haya tomado otras libertades con los datos de sus usuarios. Con el estudio, la red social buscaba que algunos de sus usuarios estuvieran más felices o tristes de lo que deberían. Pero lo que definitivamente ha conseguido es que todos seamos un poco más desconfiados.

Así es como Facebook manipuló a 700.000 usuarios para un experimento psicológico

share