Новости Казахстана, Новости России и мира,Обновляемая лента новостей

Винтоверт DeWalt PowerStack DCF850E1T-QW АКБ и ЗУ в комплекте

Винтоверт DeWalt PowerStack DCF850E1T-QW АКБ и ЗУ в комплекте

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

KAZAKBOL.COM

23 марта компания Microsoft представила искусственный интеллект по имени Tay, который начал общаться с пользователями сети через Твиттер.

Спустя считанные часы компании пришлось подвергнуть своё детище цензуре и на время остановить работу проекта. Об этом сообщает tjournal.ru.

Первоначально целью Microsoft было создать чат-бота, который общается на языке молодых людей от 18 до 24 лет.

Tay использовала словосочетания вроде «zero chill» (обозначает полное безразличие), а также различные сокращения вроде «c u soon» вместо «see you soon» («скоро увидимся»).

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Tay умеет обучаться и запоминать то, что ей пишут, и пользователи сети решили воспользоваться этим. Например, комментаторы начали объяснять ИИ, что ей не стоит доверять евреям.

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Вскоре Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».

В одном из твитов ИИ обвинил США в терактах 11 сентября: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».

Кроме того, Tay начала высказываться в поддержку феминизма.

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.

После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм.

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.

 


 

KAZAKBOL.COM

Milwaukee M18 FUEL FPD3-0X ударная дрель-шуруповерт

Вам также могут понравиться

MAKITA DF001GZ, АКБ и ЗУ в комплекте

Оставьте ответ

Ваш электронный адрес не будет опубликован.

Уважаемые посетители KAZAKBOL.COM ! Оставляя комментарии, проявляйте уважение и терпимость к мнению других пользователей. Сообщений, приводящих к разжиганию конфликтов, расистских высказываний, провокаций, оскорблений и дискуссий, не относящихся к теме статьи будут удаляться. Ссылки на сторонние ресурсы в комментариях запрещены. Подобные сообщения будут удаляться, а их авторы будут забанены.Мы не несем ответственность за форму и характер выставляемых комментариев.

KAZAKBOL.COM