El programa informático, bautizado como Tay, fue diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años. 

Pero lo que nunca imaginaron es que la interacción terminaría teniendo tintes racistas y/o sexistas. El revuelo fue tal que 24 horas después, Microsoft se vio obligado a desactivar el programa. 

En las interacciones, y ante preguntas de los usuarios, Tay mostró su empatía por Hitler y el genocidio además de decir que "odiaba a todos". 

Llamativamente Microsoft responsabilizó a los usuarios por las reacciones de Tay y señalaron en un comunicado: "Desafortunadamente, a las 24 horas de ser colocada en internet (este miércoles), observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada".

Y explicaron: "Tay es un robot de inteligencia artificial yun proyecto de aprendizaje diseñado para la interacción con humanos" ya que "A medida que aprende, algunas de sus respuestas pueden ser inapropiadas e indican el tipo de interacción que algunos usuarios tienen con ella". Microsoft planea ajustes y poder poner de vuelta la experiencia online aunque ya fueron criticados por borrar los tuits de "aprendizaje" de Tay.