Чат-бот Microsoft за сутки стал расистом и нацистом

Чат-бот Microsoft за сутки стал расистом и нацистом

Немецкое информационное издание Deutsche Wirtschafts Nachrichten (DWN) сообщает, что созданный Microsoft чат-бот «Тау» был направлен на доработку после того, как виртуальный собеседник начал хвалить немецкого фюрера и отрицать Холокост. Ранее социальная сеть Twitter была оснащена чат-ботом «Тау» от компании Microsoft. Программа была создана с целью общения с живыми людьми. Бот запоминал новые слова и выражения, которые использовались во время общения. В основу чат-бота «Тау» заложен образ молодой девушки, сознание которой рассчитано на интернет-пользователей до 24 лет. Позже программа начала положительно высказываться о Гитлере, отрицать Холокост, грубо высказываться в сторону афро-американцев и евреев. Компания Microsoft решила отключить чат-бот и отправить его на доработку. Большинство твитов уже удалено. Последним действием «грубиянки» стала надпись, в которой она сообщила, что очень устала и хочет поспать. Microsoft прокомментировал удаление со словами, что необходимо «кое-что исправить». Первоначально при создании чат-бота «Тау» был разработан фильтр ненормативной лексики. Однако программисты не учли, с какой энергией пользователи обсуждают политические темы. Выяснилось, что одним из возможностей чат-бота была функция «повторяй за мной», которую активно использовали. Немецкая газета Deutsche Wirtschafts Nachrichten отмечает, что сама идея программы не является новой. 50 лет назад уже был создан первый чат-бот, именуемый Eliza. Программа использовала следующую технику общения с пользователями. Изначально в чат-бот были введены готовые фразы. В разговоре виртуальная собеседница распознавала ключевые слова и подставляла подходящие выражения. На сегодняшний момент такие программы активно используются в сфере обслуживания. Например, социальная сеть Facebook создал ассистент-бота для своего мессенджера.

Читать полностью (Время чтения: менее 1 минуты)