El chatbot de microsoft se vuelve racista y obsceno por un momento

El chatbot de microsoft se vuelve racista y obsceno por un momento

Hace unas semanas, Microsoft se vio en aprietos cuando uno de sus experimentos de inteligencia artificial no le salió como esperaba. Se trataba de Tay, un bot que hablaba con cualquier persona a través de Twitter y respondía cualquier tipo de pregunta, simulando tener una conversación natural entre dos personas.

Lo que parecía una idea innovadora resultó convirtiéndose en un episodio vergonzoso, pues Tay terminó haciendo comentarios racistas, machistas y muy ofensivos

Entre los comentarios de Tay destacaron:

“Hitler tenía razón, odio a los judíos”  

“Odio a las feministas, deberían morir y ser quemadas en el infierno”

Al no tener ningún filtro, lo que comenzó como interacciones inocentes y llamativas, terminó en este tipo de respuestas ofensivas.

Después del incidente, y como reportó The Verge, Microsoft se disculpó en un comunicado oficial, en donde la compañía asumió la responsabilidad: “Como muchos de ustedes saben, el miércoles lanzamos un chatbot llamado Tay. Lo sentimos profundamente por los tuits ofensivos e hirientes no intencionados de Tay, los cuales no representan lo que somos ni cómo diseñamos a Tay. Por ahora Tay esta offline y vamos a trabajar para traer de vuelta solo cuando estemos seguro de que podemos anticipar mejor la intención maliciosa que entra en conflicto con nuestros principios y valores”.

La cuenta @TayandYou está activa en Twitter, pero ahora es privada. Sin embargo, y como reporta Mashable, Tay volvió a la vida por unos minutos y envió miles de respuestas. La mayoría de estos hacían referencia a que los usuarios eran demasiado rápidos y que el robot estaba muy abrumado con tantos mensajes. Luego, rápidamente volvió a estar offline.

“Tay continuará offline mientras hacemos ajustes. Como parte de un experimento, ella fue activada en Twitter por un periodo corto de tiempo”, declaró un vocero de Microsoft para Mashable. Así que solo queda esperar a que vuelva a aparecer conectada y esperemos que con los arreglos que corresponden.

El chatbot de microsoft se vuelve racista y obsceno por un momento

¿Te gusto este post? dejanos tu comentario.

 

Leave a Comment

Your email address will not be published.