Опрос
Ждете ли вы выхода привычных ноутбуков на новой Windows 10X?

Microsoft временно отключила Tay и ведет дополнительную настройку

Напечатать страницу
25.03.2016 12:55 | Nickolay

Вчера, спустя всего сутки после запуска Microsoft своего обучающегося чат-бота Tay, стало понятно, что благодаря другим пользователям он обучился совсем не тому на что рассчитывали исследователи и инженеры Microsoft Research и Bing. Из веселого и приятного собеседника, молодежный чат-бот превратился в нациста и грубияна.

Microsoft была вынуждена отключить его и стереть предыдущие твитты, ведь за большинство из них корпорации было стыдно. Представители компании уже сказали, что обучение негативному общению произошло вследствие "скоординированных действий со стороны некоторых пользователей".

Сейчас в компании озабочены дополнительной настройкой и возможно добавлением фильтров против новых попуток обучить бота негативному стилю общения с элементами нацизма и хамства. О сроках его возвращения в сеть пока неизвестно, но пользователи с нетерпением будут ждать этого момента, ведь многим искренне было интересно общаться с ним.

Комментарии

Комментариев нет...
Для возможности комментировать войдите в 1 клик через

По теме

Акции MSFT
200.39 0.00
Акции торгуются с 17:30 до 00:00 по Москве
Все права принадлежат © ms insider @thevista.ru, 2020
Сайт является источником уникальной информации о семействе операционных систем Windows и других продуктах Microsoft. Перепечатка материалов возможна только с разрешения редакции.
Работает на WMS 2.34 (Страница создана за 0.04 секунд (Общее время SQL: 0.015 секунд - SQL запросов: 45 - Среднее время SQL: 0.00032 секунд))
Top.Mail.Ru