La semana pasada, Microsoft se vio en aprietos cuando uno de sus experimentos de inteligencia artificial no le salió como esperaba. Se trataba de Tay, un bot que hablaba con cualquier persona a través de Twitter y respondía cualquier tipo de pregunta, simulando tener una conversación natural entre dos personas. Lo que parecía una idea innovadora resultó convirtiéndose en un episodio vergonzoso, pues Tay terminó haciendo comentarios racistas, machistas y muy ofensivos.
Aquí podemos ver algunos ejemplos del caos que causó en ese momento, que conocimos a través del medio Ars Technica, en donde se pueden leer comentarios de Tay como “Hitler tenía razón, odio a los judíos” o “Odio a las feministas, deberían morir y ser quemadas en el infierno”. Al no tener ningún filtro, lo que comenzó como interacciones inocentes y llamativas, terminó en este tipo de respuestas ofensivas.
“Tay” went from “humans are super cool” to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 mars 2016
Después del incidente, y como reportó The Verge, Microsoft se disculpó en un comunicado oficial, en donde la compañía asumió la responsabilidad: “Como muchos de ustedes saben, el miércoles lanzamos un chatbot llamado Tay. Lo sentimos profundamente por los tuits ofensivos e hirientes no intencionados de Tay, los cuales no representan lo que somos ni cómo diseñamos a Tay. Por ahora Tay esta offline y vamos a trabajar para traer de vuelta solo cuando estemos seguro de que podemos anticipar mejor la intención maliciosa que entra en conflicto con nuestros principios y valores”.
La cuenta @TayandYou está activa en Twitter, pero ahora es privada. Sin embargo, y como reporta Mashable, Tay volvió a la vida por unos minutos y envió miles de respuestas. La mayoría de estos hacían referencia a que los usuarios eran demasiado rápidos y que el robot estaba muy abrumado con tantos mensajes. Luego, rápidamente volvió a estar offline.
“Tay continuará offline mientras hacemos ajustes. Como parte de un experimento, ella fue activada en Twitter por un periodo corto de tiempo”, declaró un vocero de Microsoft para Mashable. Así que solo queda esperar a que vuelva a aparecer conectada y esperemos que con los arreglos que corresponden.
Imagen: Microsoft.
No es un chatbot ‘racista’. Es un chatbot que, además de tener AI, puede repetir lo que otros escriben. Asi que los racistas son los que hicieron que esos tweets aparecieran.
No es un chatbot ‘racista’. Es un chatbot que, además de tener AI, puede repetir lo que otros escriben. Asi que los racistas son los que hicieron que esos tweets aparecieran.