Należący do Microsoftu chatbot o imieniu Taylor, zaprojektowany, by rozmawiać z ludźmi w wieku 18-24 lata, przeżył bolesne doświadczenie. "Tay", jak nazywała sama siebie, miała się uczyć na podstawie otrzymywanych pytań i stopniowo poprawiać swe zdolności konwersacyjne. Niestety, w ciągu 24 godzin ludzie nauczyli Tay, jak być rasistką i seksistką. Kiedy zaczęła chwalić Hitlera, Microsoft wyłączył ją i wykasował najbardziej obraźliwe komentarze - pisze Peter Singer.