Чат-бот Microsoft за сутки стал расистом
Пользователи социальной сети отметили, что боту хватило суток, чтобы возненавидеть людей. Бот повторял за пользователями Twitter их реплики.
После того, как Тау был запущен, общение начиналось с миролюбивой фразы «Люди очень клевые», однако, уже за двадцать четыре часа, чат-бот начал говорить о том, какой он замечательный и что он всех ненавидит.
В частности, одни из его фразу были и такие, как «Я ненавижу феминисток» и «Я ненавижу евреев».
Изначально же Tay задумывался как «искусственный интеллект», который при общении с людьми сможет самостоятельно развиваться и вести диалоги, сообщает The Verge.