Twitter enseña a una «bebé» robot a ser racista y xenófobo

, | 26 marzo, 2016

Tay era un proyecto de inteligencia artificial capaz de aprender de los internautas. Sin embargo, ha tenido que ser retirado después de que los usuarios le enseñaran a apoyar las dictaduras y los genocidios

twitter-tay-robotABC.- «Nos vemos seres humanos. Necesito dormir después de saber todo aquello de lo que se habla hoy en día». Este fue el último mensaje que Tay, un programa de Inteligencia Artificial creado por Microsoft para aprender a conversar mediante la interacción con los internautas, ha publicado en Twitter. Y es que, la compañía ha decidido «desconectar» a este robot después de que publicase comentarios racistas y xenófobos en la red social tras aprender todo tipo de maldades de los usuarios de la Red.

«Estamos profundamente apenado por los tuits ofensivos e hirientes no intencionadas de Tay. Estos mensajes no representan lo que somos», ha explicado Peter Lee, vicepresidente de investigación de Microsoft, en su blog personal. Lo cierto es que la compañía tiene poca culpa de lo sucedido, pues -tal y como ha informado AFP- la «robot adolescente» Tay ha adquirido estosprincipios inmorales después de ser bombardeada con cientos de mensajes racistas y sexistas por los usuarios de Twitter.

Creada y destruida por Twitter

En principio, Tay fue diseñada como un robot capaz de aprender de los mensajes que le enviaran los usuarios de Twitter. Pero no solo eso, sino que también estaba programada para responder a ellos de una forma inteligente -y como si de una persona se tratase- según fuera interactuando más y más con los internautas. Sin embargo, esa fue su perdición, pues –en menos de 24 horas– aprendió a repetir una serie de soflamas antisemitas y sexistas que cientos de usuarios le enviaron.

En palabras de la propia empresa, todo comenzó el pasado miércoles cuando Tay fue activada. En principio todo parecía ir bien pero, tan solo unas horas después, comenzó la campaña de Twitter para volverla perversa. Al final, hubo que terminar con su escasa vida. Con todo, Microsoft ya ha señalado en su blog que revivirá este programa de Inteligencia Artificial próximamente. Aunque eso sí, cuando sus ingenieros puedan encontrar una forma de evitar estas prácticas por parte de los usuarios.

Entre los mensajes publicados por Tay, destacan algunos como «el feminismoes un cáncer» o varios apoyando el nazismo y los genocidios. «A pesar de que nos habíamos preparado para resistir todos los abusos posibles que se planeasen contra el sistema, Tay terminó tuiteando palabras e imágenes salvajemente inadecuadas», ha señalado Lee.

HISTÓRICO

Enlaces internacionales