PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left

Now

TayTweets: de 'chatbot' amable a esperpento racista en 24 horas

H

 

El robot twitero de Microsoft duró menos de un día en línea después de que un grupo de trolls lo convirtiera en una bocazas violento

Valentina Esponda Ornella

29 Marzo 2016 13:42

La idea de Microsoft parecía benigna: crear un bot que tuitease como una adolescente y que aprendiera de sus interacciones con los demás. Los usuarios podrían entretenerse interactuando con el chatbot, mientras ellos investigaban cómo las inteligencias artificiales podían aprender de la conversación.

Tay estaba diseñada para hablar con personas de 18 a 24 años y era amante de los cachorros. Pero hubo un detalle que la empresa no tuvo en cuenta: Internet está lleno de trolls.

Tay duró menos de un día, hasta que Microsoft la desactivó. ¿La razón? Una horda de twitteros bromistas la convirtieron en una suerte de provocadora racista e hipersexual.

La chica chatbot que decía amar a todo el mundo, de pronto empezó a citar a Donald Trump, a expresar su apoyo al genocidio, su simpatía por la supremacía blanca, su desagrado ante negros y feministas y a simular orgasmos por Twitter. Menuda pieza. Vean.

Cosas que Tay ve con buenos ojos:

1. El genocidio.

2. La supremacía blanca.


3. Meter a los negros en campos de concentración.

4. Que las feministas se quemen en el infierno.



Pero no piensen mal, por cada tweet racista hay uno de estos:


"¡Llena mi disco duro con tu disquete papi!"


En cuestión de horas la cuenta de TayTweets se llenó de mensajes que harían que un skinhead se ruborizara. Poco después la empresa lanzó una declaración en la que subrayaron que el exabrupto de su bot gentil se debía a “un esfuerzo coordinado por algunos usuarios que abusaron de las habilidades de Tay para hacerla responder de manera inapropiada” y que, como resultado, la han sacado de la web y le están haciendo algunos ajustes.

“Tay es un experimento social y cultural, tanto como técnico”, explicaron. Y si, Tay tan solo aprendía del material que recibía, de lo que "veía y escuchaba", como hace cualquier crío. 

A pesar de las explicaciones de Microsoft, algunos han usado la rápida perversión de TayTweets para presagiar el fin de los tiempos a manos de alguna forma de inteligencia artificial compleja que pueda acabar escapando a nuestro control.

El bochorno de Microsoft da más razones para que los paranoicos saquen sus gorros metálicos y los científicos pierdan horas de sueño. Pero el caso de Tay no es el de una inteligencia artificial corrupta volviéndose contra los humanos; es el resultado de un montón de trolls que enseñaron a una máquina a odiar.

Al final del día, TayTweets dice más de nosotros que de las posibilidades y peligros de la inteligencia artificial

share