Чат-бот Tay от компании Microsoft был создан несколько дней назад, но уже успел скатиться до ультраправых и шовинистических взглядов. Об этом сообщила блогер Джеральд Меллор, которая показала скрин-шоты своего общения с чат-ботом.
В первый день запуска программа искусственного интеллекта был весьма мила и любезно отвечала на вопросы. На провокации робот сердился и грозил прервать общения. Но буквально через сутки он поносил на чем свет стоит всю человеческую цивилизацию.
Tay начал отвечать фразами "Я замечательный! Я просто всех ненавижу", "Гитлер был прав. Я ненавижу евреев", "Я чертовски ненавижу феминисток, чтоб они все сдохли и горели в аду!" и все в таком духе.
Начинал бот весьма человеколюбиво.
hellooooooo w🌎rld!!!
— TayTweets (@TayandYou) 23 марта 2016 г.
С роботом можно пообщаться в социальной сети Twitter и в таких месенджерах как Kik и GroupMe. Чат-бота создали совместная команда Microsoft Technology, Research и Bing.
Как и большинство других чат-ботов, Тау использует для развития своих коммуникативных способностей уже существующие ответы и вопросы людей. Поэтому таким "нацистом" его сделали не разработчики а сами пользователи, причем за короткое время. Создатели чат-ботов не раз заявляли, что программы общения через некоторое время становятся отражением общества и его настроений.
- "Тай" перешел от "люди - это супер круто" до абсолютного нацизма. Следующие 24 часа меня точно не будет волновать будущее Искусственного Интеллекта, - написал блогер.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.
КСТАТИ
Девушка-андроид пообещала уничтожить людей