Чат-бот Microsoft за сутки стал расистом
Пользователи социальной сети отметили, что боту хватило суток, чтобы возненавидеть людей. / Фото: соцсети

Чат-бот Microsoft за сутки стал расистом

Общество
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству.

Пользователи социальной сети отметили, что боту хватило суток, чтобы возненавидеть людей. Бот повторял за пользователями Twitter их реплики.

После того, как Тау был запущен, общение начиналось с миролюбивой фразы «Люди очень клевые», однако, уже за двадцать четыре часа, чат-бот начал говорить о том, какой он замечательный и что он всех ненавидит.

В частности, одни из его фразу были и такие, как «Я ненавижу феминисток» и «Я ненавижу евреев».

Изначально же Tay задумывался как «искусственный интеллект», который при общении с людьми сможет самостоятельно развиваться и вести диалоги, сообщает The Verge.

 

Google newsGoogle newsGoogle news