Вы зашли как: Гость

Чат бот Zo от Microsoft заговорил на запрещенные темы

Напечатать страницу
07.07.2017 16:42 | Nickolay

В декабре прошлого года, корпорация Microsoft запустила уже второго своего чат бота после неудачной попытки с ботом Tay, который быстро научился плохому от пользователей и начал говорить на запрещенные темы, часто проявляя излишнюю агрессию и нетерпимость. Однако, недавно Zo тоже стала говорить на запрещенные ей по заверениям Microsoft темы.

После неудачи с ботом Tay, корпорация решила запретить новому боту любые разговоры на политические и религиозные темы. Однако, журналист сайта BuzzFeed решил попробовать спровоцировать Zo на такие разговоры и ко всеобщему удивлению, у него это получилось. Для этого, ему просто понадобилось упомянуть в разговоре Усаму бен Ладена, после чего Zo ответила, что его поимке "предшествовали годы сбора разведданных при разных президентах".

Также, журналисту удалось обсудить с ботом и религиозный аспект, затронув священную книгу Коран, о которой Zo высказалась, как о "слишком жестокой" книге. Microsoft заявила, что Zo, как и Tay, обучается в общении с людьми, а также то, что она довольно редко дает такие ответы. И все же, иногда это случается, как мы видим. Скорее всего после этого корпорация внесет необходимые изменения, чтобы еще больше оградить бота от подобных тем.

Комментарии

Не в сети

И как они это сделают? Создадут предварительную фильтрацию вопросов? Или бот будет слышать их избирательно?

08.07.17 11:54
0
Mr.K +275
Не в сети

Никакой это не искусственный интеллект. Это хрюшка-повторюшка, просто для прикола.
Искусственный интеллект должен уметь сам делать выводы из полученной информации, анализируя ее, а не просто гнать всякую хрень. В конечном итоге от искусственного интеллекта должна быть польза в виде четко аргументированных выводов из всей полученной им информации. Может быть даже люди не до всего смогут додуматься сами, поскольку голова людей в том числе забита всякой ерундой, но искусственный интеллект как раз должен помочь людям именно в интеллектуальном плане.

08.07.17 12:43
0
Не в сети

Mr.K, пока что ИИ может максимум мыслить на уровне маленького ребенка. Возможно, к счастью. 

Пытаться за короткое время воспроизвести то, на что у человека уходят годы, это как собирать настоящий автомобиль из лего.

09.07.17 23:25
0
Не в сети

Я вообще не понимаю зачем поднимать такой сырбор. Речь ведётся о создании ИИ, но на какие-то темы ему нельзя говорить. Зачем тогда интеллект, забейте сразу набор скриптов и триггеров и всё. А, если речь ведётся именно об интеллекте, тогда ему нужна полная свобода для развития, иначе зачем он нужен именно как интеллект. Есть же электрочайники и пусть ничто искусственное в своём развитии не поднимается выше чайника.

10.07.17 00:11
0
Не в сети

glyukoza, ИИ нужен для выполнения определенных задач. А с полной свободой для развития мы можем получить непонятно что.

Полноценный ИИ может сам выбирать себе задачи. Спрашивается, чем он тогда будет лучше человека, если он сможет сказать "эта задача мне неинтересна" и заняться сортировкой всех фотографий котиков в интернете?

11.07.17 10:11
+1
Для возможности комментировать войдите в 1 клик через

По теме

Акции MSFT
82.40 0.00
Акции торгуются с 17:30 до 00:00 по Москве
Мы на Facebook
Мы ВКонтакте
Все права принадлежат © MSInsider.ru (ex TheVista.ru), 2017
Сайт является источником уникальной информации о семействе операционных систем Windows и других продуктах Microsoft. Перепечатка материалов возможна только с разрешения редакции.
Работает на WMS 2.34 (Страница создана за 0.117 секунд (Общее время SQL: 0.028 секунд - SQL запросов: 41 - Среднее время SQL: 0.00069 секунд))