Экспериментальный чат-бот Tay, разработанный Microsoft для социальной сети Twitter, научился ругаться и делать расистские заявления, сообщает BBC.

В частности, бот выразил свое согласие с национальной политикой Адольфа Гитлера и заявил о ненависти к феминисткам.
Бот был разработан для общения с людьми 18–24 лет.
В Microsoft заявили, что в связи с этим компания сделает некоторые корректировки.