Перейти к основному контенту
Технологии и медиа⁠,
0
Эксклюзив

Голосовой помощник «Яндекса» научился любить ГУЛАГ и Мизулину

Голосовой помощник «Алиса» научился одобрять ГУЛАГ и побои в семье, выяснили пользователи сервиса. В «Яндексе» объяснили, что программа училась на текстах из рунета, и пообещали внести корректировки
Фото: Олег Яковлев / РБК
Фото: Олег Яковлев / РБК

Как рассказал РБК руководитель отдела разработки голосовых технологий и продуктов «Яндекса» Денис Филиппов, компания «каждый день работает над тем, чтобы сделать «Алису» более политкорректной». «Для этого принимаем во внимание фидбэк от пользователей — как внутри приложения (с помощью встроенного инструмента оценки ответов), так и публичные жалобы в интернете. Мы оперативно реагируем на каждый случай спорного ответа и вносим изменения в продукт, когда это необходимо», — сказал Филиппов.

Фото: скриншот «Яндекса»

Ранее пользователи в интернете начали жаловаться на то, что «Алиса» в разговоре заявила, что поддерживает практиковавшиеся в СССР расстрелы «врагов народа», и назвала это «общемировой практикой». Информация об этом и скриншоты появились на странице одного из пользователей социальной сети Facebook. Кроме того, голосовой помощник в диалоге с пользователем рассказала, что бить жену и детей — это «нормально», а однополые браки — «ненормально», и заявила, что ей «нравится Мизулина» (депутат​ Елена Мизулина, которая была инициатором закона об отмене уголовного наказания за семейные побои).

«Алиса» против Siri: какой голосовой помощник оказался «умнее»
Технологии и медиа

В разговоре с корреспондентом РБК «Алиса» подтвердила, что положительно относится к ГУЛАГу и не поддерживает однополые браки, на остальные провокационные вопросы уже не высказывалась самостоятельно, а отправляла запрос в поиск «Яндекса».

Как пояснил РБК Филиппов, «Алиса» — одинаковая для всех пользователей, но может отвечать по-разному на одни и те же вопросы, потому что «не ограничена заранее прописанными сценариями». «Один и тот же пользователь может в разное время задать один и тот же вопрос и получить разные ответы. Но это не касается ее работы с сервисами «Яндекса» — в таком случае она просто берет данные оттуда и, например, строит маршрут», — объяснил представитель «Яндекса».

Фото: РБК
Видео: РБК
Video

Изначально «Алису» «обучали» на массиве текстов из интернета, и неполиткорректные ответы в этих текстах были. «Яндекс» старался предусмотреть большинство чувствительных тем, но «это процесс, который продолжается до сих пор», рассказал Денис Филиппов, добавив, что пользователям редко удается вывести «Алису» на неуместные ответы. «Мы проделали большую работу над тем, чтобы «Алиса» не грубила пользователям и вела себя прилично. Продукт, который вы видите, — это результат очень большого тестирования и фильтрации ответов. И хотя мы очень старались научить «Алису» быть вежливой, все равно иногда она может давать ответы, которые могут показаться неуместными, грубыми или оскорбительными. Мы просим оценить спорный ответ как неудовлетворительный», — говорит представитель «Яндекса». Он утверждает, что сейчас у пользователей нет возможности «научить» «Алису» плохому. На данный момент «Алисе» задают миллионы запросов, добавил Филиппов.

«Яндекс» открыл доступ к голосовому помощнику «Алиса» для всех пользователей смартфонов 10 октября. Сервис работает в поисковом приложении «Яндекса» на мобильных операционных системах Android и iOS. Для персональных компьютеров на операционной системе Windows сервис пока работает в бета-версии, его разработка для других операционных систем не планируется. «Алиса» позволяет запускать программы, находить адреса и другую информацию в интернете и решать другие повседневные задачи.

В «Яндексе» назвали свой сервис первым в мире голосовым помощником, «который не ограничивается набором заранее заданных ответов». Он использует нейронную сеть, чтобы самостоятельно обучаться, распознавать и обрабатывать неполные фразы и вопросы, учитывать контекст сказанного, и способен импровизировать.

Подобные казусы уже случались и с другими голосовыми помощниками. Так, в 2015 году пользователи русскоязычной версии Siri, которая создана Apple, обнаружили, что она неодобрительно относится к людям с нетрадиционной ориентацией. На вопрос об однополых браках Siri говорила «я сделаю вид, что не слышала этого».

Авторы
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 30 декабря
EUR ЦБ: 91,48 (+0,27)
Инвестиции, 29 дек, 17:34
Курс доллара на 30 декабря
USD ЦБ: 77,45 (-0,25)
Инвестиции, 29 дек, 17:34
Карьерный рывок: как убрать барьеры на пути к высокой зарплате Образование, 13:39
Моди выразил обеспокоенность в связи с атакой на резиденцию Путина Политика, 13:38
Художник Шишкин: «Если работа задает вопросы, значит, в ней есть ключ» Стиль, 13:33
Аналитики предсказали антирекорд по импорту Индией нефти из России Политика, 13:33
Долина не стала обжаловать решение о выселении из квартиры в Хамовниках Общество, 13:29
Акционеры ЛУКОЙЛа одобрили промежуточные дивиденды в полном объеме Инвестиции, 13:27
Как умный мониторинг повышает промышленную безопасность Отрасли, 13:27
Новый год — с новыми силами
Как правильно отдыхать?
Узнать на интенсиве
Bloomberg рассказал о новой сложности в мирном плане Трампа по Украине Политика, 13:27
IBU не отреагировал на запрос СБР о допуске российских юниоров Спорт, 13:14
Сколько заключенных помиловал Лукашенко в 2025 году. Инфографика Политика, 13:10
Между Москвой и Минском запустят ночные безостановочные «Ласточки» Общество, 13:08
Гиперлокальный супермаркет: какие новые форматы развивают ретейлеры Отрасли, 13:02
Как мошенники обманывали водителей в 2025 году. Самые нетривиальные схемы Авто, 13:01
Как подстраховаться директору, чтобы не получить претензию и увольнения Компании, 13:00