Перейти к основному контенту
Технологии и медиа ,  
76 
Эксклюзив

Голосовой помощник «Яндекса» научился любить ГУЛАГ и Мизулину

Голосовой помощник «Алиса» научился одобрять ГУЛАГ и побои в семье, выяснили пользователи сервиса. В «Яндексе» объяснили, что программа училась на текстах из рунета, и пообещали внести корректировки
Фото: Олег Яковлев / РБК
Фото: Олег Яковлев / РБК

Как рассказал РБК руководитель отдела разработки голосовых технологий и продуктов «Яндекса» Денис Филиппов, компания «каждый день работает над тем, чтобы сделать «Алису» более политкорректной». «Для этого принимаем во внимание фидбэк от пользователей — как внутри приложения (с помощью встроенного инструмента оценки ответов), так и публичные жалобы в интернете. Мы оперативно реагируем на каждый случай спорного ответа и вносим изменения в продукт, когда это необходимо», — сказал Филиппов.

Фото: скриншот «Яндекса»

Ранее пользователи в интернете начали жаловаться на то, что «Алиса» в разговоре заявила, что поддерживает практиковавшиеся в СССР расстрелы «врагов народа», и назвала это «общемировой практикой». Информация об этом и скриншоты появились на странице одного из пользователей социальной сети Facebook. Кроме того, голосовой помощник в диалоге с пользователем рассказала, что бить жену и детей — это «нормально», а однополые браки — «ненормально», и заявила, что ей «нравится Мизулина» (депутат​ Елена Мизулина, которая была инициатором закона об отмене уголовного наказания за семейные побои).

«Алиса» против Siri: какой голосовой помощник оказался «умнее»
Технологии и медиа

В разговоре с корреспондентом РБК «Алиса» подтвердила, что положительно относится к ГУЛАГу и не поддерживает однополые браки, на остальные провокационные вопросы уже не высказывалась самостоятельно, а отправляла запрос в поиск «Яндекса».

Как пояснил РБК Филиппов, «Алиса» — одинаковая для всех пользователей, но может отвечать по-разному на одни и те же вопросы, потому что «не ограничена заранее прописанными сценариями». «Один и тот же пользователь может в разное время задать один и тот же вопрос и получить разные ответы. Но это не касается ее работы с сервисами «Яндекса» — в таком случае она просто берет данные оттуда и, например, строит маршрут», — объяснил представитель «Яндекса».

Фото: РБК
Видео: РБК
Video

Изначально «Алису» «обучали» на массиве текстов из интернета, и неполиткорректные ответы в этих текстах были. «Яндекс» старался предусмотреть большинство чувствительных тем, но «это процесс, который продолжается до сих пор», рассказал Денис Филиппов, добавив, что пользователям редко удается вывести «Алису» на неуместные ответы. «Мы проделали большую работу над тем, чтобы «Алиса» не грубила пользователям и вела себя прилично. Продукт, который вы видите, — это результат очень большого тестирования и фильтрации ответов. И хотя мы очень старались научить «Алису» быть вежливой, все равно иногда она может давать ответы, которые могут показаться неуместными, грубыми или оскорбительными. Мы просим оценить спорный ответ как неудовлетворительный», — говорит представитель «Яндекса». Он утверждает, что сейчас у пользователей нет возможности «научить» «Алису» плохому. На данный момент «Алисе» задают миллионы запросов, добавил Филиппов.

«Яндекс» открыл доступ к голосовому помощнику «Алиса» для всех пользователей смартфонов 10 октября. Сервис работает в поисковом приложении «Яндекса» на мобильных операционных системах Android и iOS. Для персональных компьютеров на операционной системе Windows сервис пока работает в бета-версии, его разработка для других операционных систем не планируется. «Алиса» позволяет запускать программы, находить адреса и другую информацию в интернете и решать другие повседневные задачи.

В «Яндексе» назвали свой сервис первым в мире голосовым помощником, «который не ограничивается набором заранее заданных ответов». Он использует нейронную сеть, чтобы самостоятельно обучаться, распознавать и обрабатывать неполные фразы и вопросы, учитывать контекст сказанного, и способен импровизировать.

Подобные казусы уже случались и с другими голосовыми помощниками. Так, в 2015 году пользователи русскоязычной версии Siri, которая создана Apple, обнаружили, что она неодобрительно относится к людям с нетрадиционной ориентацией. На вопрос об однополых браках Siri говорила «я сделаю вид, что не слышала этого».

Авторы
Теги
Лента новостей
4 примера манипуляций с KPI и 5 советов, как их избежатьПодписка на РБК, 09:53
«Нефть по $90, доллар по ₽76»: cценарии конфликта между Ираном и ИзраилемПодписка на РБК, 09:51
Названы регионы — лидеры по росту стоимости частных домов Недвижимость, 09:48
Press TV опубликовал фото горящих танкеров вблизи Ормузского пролива Политика, 09:47
ЦАХАЛ заявила о ликвидации нового главы Генштаба Ирана Политика, 09:33
Море, солнце и еда: чем удивляет кухня Италии и в чем ее главные секреты РБК и Перекрёсток, 09:30
В Донецке прогремела серия взрывов Политика, 09:29
Как располагать к себе людей
Интенсив о харизме
Узнать больше
На Украине заявили об атаках на объекты инфраструктуры в Киеве и Одессе Политика, 09:21
Иран нанес удар по Тель-Авиву Политика, 09:20
Власти Тюменской области объяснили ограничение мобильного интернета Общество, 09:17
Капкан наставничества: как прогрессивные руководители тонут в операционкеПодписка на РБК, 09:02
Какие риски увидело правительство в новом подходе к борьбе с инсайдамиПодписка на РБК, 09:01
Глава Тульской области рассказал о последствиях атаки беспилотников Политика, 08:52
Axios узнал о «рычаге» Трампа в сделке с Ираном в виде особенных бомб Политика, 08:49