Fani technologii, słysząc "Tay", zapewne przywołują z pamięci bota konwersacyjnego Microsoftu, z którym coś poszło nie tak. Uczący się bot przejął od złośliwych użytkowników rasistowskie i szowinistyczne poglądy, a następnie uzewnętrzniał je na swoim Twitterowym koncie w dziesiątkach tysięcy wpisów. Okazuj się jednak, że Taybot już wcześniej nie miał lekko.
W swojej nowej książce, Tools and Weapons, Brad Smith, President w Microsoft, ujawnia nieznane dotąd fakty związane z krótką, choć głośną karierą Tay.ai. Problemy dotyczyły nie tylko działalności bota, ale też jego nazwy:
Byłem na wakacjach i popełniłem ten błąd, zerkając na telefon podczas obiadu. Właśnie przyszedł e-mail od prawnika z Beverly Hills, który przedstawił się, mówiąc mi: "Reprezentuję Taylor Swift, w której imieniu zwracam się do Ciebie". Przedstawił stanowisko, że "nazwa Tay, jak zapewne musisz wiedzieć, jest mocno powiązana z naszą klientką". Nie, właściwie tego nie wiedziałem, niemniej jednak e-mail przykuł moją uwagę. Prawnik zaczął dowodzić, że użycie nazwy Tay tworzy fałszywe i zwodnicze powiązanie między popularną piosenkarką a naszym czatbotem oraz narusza prawo federalne i stanowe.
Trudno się dziwić prawnikom celebrytki, którzy nie chcieli, by była ona kojarzona z botem wygłaszającym peany na cześć Hitlera. Z drugiej strony nikt nie ma prawa do posługiwania się nazwą "Tay" na wyłączność. Z angielskiej Wikipedii dowiadujemy się, że co najmniej dwóch piosenkarzy posługuje się pseudonimem Tay. Słowo to oznacza również azjatycką grupę etniczną oraz jest nazwą wielu rzek, krain geograficznych, pojazdów itd.
Tak czy inaczej Microsoft szybko zorientował się, że dalsza egzystencja Tay.ai może prowadzić jedynie do kłopotów, i wyłączył bota. Eksperyment, choć okrzyknięty nieudanym, dla Microsoftu z pewnością był cenną lekcją. Firma nadal rozwija technologie konwersacyjne, które według jej prognoz w przyszłości będą powszechnie używane.