Новости

Пользователи Microsoft сделали чатбот компании нацистом и провокатором

© Flickr / Robert ScobleКорпорация "Microsoft"
Корпорация Microsoft - Sputnik Азербайджан
Подписаться
Экспериментальный виртуальный собеседник Microsoft обучается во время диалога с пользователем, в результате бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.

БАКУ, 26 мар — Sputnik. Компания Microsoft извинилась за сообщения, опубликованные чатботом под названием Tay, в которых содержится нецензурная лексика и оскорбления, говорится в заявлении вице-президента Microsoft Research Питера Ли.

Экспериментальный виртуальный собеседник, разработанный Microsoft, обучается непосредственно во время диалога с пользователем и черпает свой словарный запас из реплик собеседника. Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.

"Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представление о том, кто мы, каковы наши убеждения и как мы создавали Tay", — написал Ли в своем блоге на официальном сайте компании.

Компания намерена "извлечь урок" из полученного опыта и не оставит попыток усовершенствовать интернет-технологии, чтобы всемирная сеть "представляла лучшее, а не худшее в человечестве", — добавил Ли.

Лента новостей
0