¿Te imaginas una robot sexista, homófoba y antisemita? Microsoft ya la tiene

Se llamaba “Tay” y tardó más en aprender a mantener una conversación que en ser retirada del mercado. Fue creada, según Microsoft, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.

Se trataba de un programa informático diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía.

Pero la gran apuesta del gigante tecnológico en la inteligencia artificial acabó convirtiéndose en un fracaso estrepitoso. Y el día después de su lanzamiento, Microsoft tuvo que desactivarla.

Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron desapercibidos. Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos. También defendió el Holocausto, los campos de concentración o la supremacía blanca, y se mostró contraria al feminismo.

«Hitler no hizo nada malo» fue uno de los muchos mensajes de la inteligencia artificial (IA) de Microsoft, llamada Tay. En menos de 24 horas, pasó de decir que los humanos eran «súper geniales» a odiarlos a todos.

Tay es un programa informático diseñado para mantener una conversación «casual y fluida» con jóvenes de 18 y 24 años. Es una Inteligencia Artificial adolescente, que aprende a medida que habla con los humanos.

Sin embargo, el experimento de Microsoft no funcionó demasiado bien. A medida que Tay interactuaba con personas, se volvía cada vez más xenófoba, malhablada y sexista. En uno de sus tweets acabó diciendo que esperaba que las feministas «ardiesen en el infierno», pese a haberlas defendido al principio. «Hitler tenía razón. Odio a los judíos», dijo en otro post.

Así, Microsoft se ha visto obligada a borrar todos los mensajes ofensivos, pedir disculpas y desactivar a la IA.

«Estamos profundamente tristes por los tweets ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay», explicó en su blog Peter Lee, vicepresidente corporativo de Microsoft Research.

Por otra parte, Lee también ha querido dejar claro que la IA estaba respondiendo estupendamente en un grupo cerrado y que fue cuando intentaron abrir el experimento a más personas cuando comenzó a cambiar de actitud. «Por desgracia, en las primeras 24 horas, se puso en marcha un ataque coordinado por un subconjunto de personas que trataban de explotar una vulnerabilidad de Tay». Con esto, viene a explicar que la IA podría estar defendiéndose de los ataques que recibía por parte de estos usuarios, pues estaba preparada para aprender de sus interacciones con humanos.

Así, Microsoft asegura que tratarán de aprender de esta experiencia para seguir trabajando en diseñar inteligencias artificiales. «Haremos todo lo posible para limitar hazañas técnicas, pero también sabemos que no podemos predecir totalmente los posibles malos usos interactivos humanos sin tener que aprender de los errores… Vamos a permanecer firmes en nuestros esfuerzos por aprender de esta y otras experiencias en nuestra labor para contribuir a una Internet que represente lo mejor (y no lo peor) de la humanidad», concluye Lee.

Este es uno de los tantos tweets en su cuenta @TayandYou

https://twitter.com/TayandYou/status/712613527782076417

https://twitter.com/Baron_von_derp/status/712811467310018560

DC | LN

 

Entérate al instante de más noticias con tu celular siguiéndonos en Twitter y Telegram
Suscribir vía Telegram

Lea también

Le puede interesar además

Loading...

Tu opinión vale...