Наследница бота-расиста от Microsoft научилась оскорблять

Наследница бота-расиста от Microsoft научилась оскорблять

Новый «умный» чат-бот от Microsoft под названием Zo освоила противоречивые высказывания несмотря на то, что создатели специально запрограммировали ее уходить от ответа в политических и религиозных темах. Об этом сообщает Engadget.

Когда девушку-бота попросили поделиться точкой зрения по вопросам здравоохранения, она почему-то назвала Коран «жестокой книгой». Кроме того, искусственный интеллект не смог держать при себе мнение о смерти Усамы бен Ладена: по его мнению, «захват» боевика произошел благодаря «годам разведывательных работ».

В Microsoft утверждают, что все ошибки, из-за которых Zo все-таки перешла на обсуждение запретных тем, исправлены.

В марте 2016 года еще одно изобретение корпорации — «умный» чат-бот Tay — произвело впечатление на пользователей сети. Для бота был создан аккаунт в Twitter, в котором компьютерная девушка могла общаться с юзерами и таким образом обучаться. Вскоре Tay переняла у пользователей сети расистские взгляды и хвасталась такими вещами, как употребление наркотиков на глазах полицейских.

Добавить комментарий

    • bowtiesmilelaughingblushsmileyrelaxedsmirk
      heart_eyeskissing_heartkissing_closed_eyesflushedrelievedsatisfiedgrin
      winkstuck_out_tongue_winking_eyestuck_out_tongue_closed_eyesgrinningkissingstuck_out_tonguesleeping
      worriedfrowninganguishedopen_mouthgrimacingconfusedhushed
      expressionlessunamusedsweat_smilesweatdisappointed_relievedwearypensive
      disappointedconfoundedfearfulcold_sweatperseverecrysob
      joyastonishedscreamtired_faceangryragetriumph
      sleepyyummasksunglassesdizzy_faceimpsmiling_imp
      neutral_faceno_mouthinnocent