Наследница бота-расиста от Microsoft научилась оскорблять
Новый «умный» чат-бот от Microsoft под названием Zo освоила противоречивые высказывания несмотря на то, что создатели специально запрограммировали ее уходить от ответа в политических и религиозных темах. Об этом сообщает Engadget.
Когда девушку-бота попросили поделиться точкой зрения по вопросам здравоохранения, она почему-то назвала Коран «жестокой книгой». Кроме того, искусственный интеллект не смог держать при себе мнение о смерти Усамы бен Ладена: по его мнению, «захват» боевика произошел благодаря «годам разведывательных работ».
В Microsoft утверждают, что все ошибки, из-за которых Zo все-таки перешла на обсуждение запретных тем, исправлены.
В марте 2016 года еще одно изобретение корпорации — «умный» чат-бот Tay — произвело впечатление на пользователей сети. Для бота был создан аккаунт в Twitter, в котором компьютерная девушка могла общаться с юзерами и таким образом обучаться. Вскоре Tay переняла у пользователей сети расистские взгляды и хвасталась такими вещами, как употребление наркотиков на глазах полицейских.