Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
В Казахстане установили памятник Назарбаеву Политика, 16:07 Кремль заявил об отсутствии обсуждений переноса единого дня голосования Политика, 16:04 Путин заявил о начале «масштабной законотворческой работы» после поправок Политика, 16:03 «Спартак» выразил соболезнования в связи со смертью отца Нурмагомедова Спорт, 15:58 Адвокат семьи Захарова отреагировал на непризнание Ефремовым вины в ДТП Общество, 15:54 Рособрнадзор заявил об отсутствии нарушений в первый день сдачи ЕГЭ Общество, 15:53 «Цены на нефть не достигнут пика еще 10 лет». Что делать с биткоином Крипто, 15:51 Сотрудник заразил COVID-19 постояльцев интерната для инвалидов в Магадане Общество, 15:48 Проницательный сервис: как онлайн-бизнесы предугадывают спрос Pro, 15:40 Американские горки на ремонте. Дневник трейдера #26 Крипто, 15:35 Стала известна дата вступления в силу поправок в Конституцию Общество, 15:34 Путин подписал указ о поправках в Конституцию Политика, 15:32 Поощрение и вдохновление: как удержать инноваторов в своей компании Экономика инноваций, 15:30  Епархия пообещала вернуть захваченный монастырь под свое управление Общество, 15:26
Общество ,  
0 

Юваль Харари предупредил о появлении алгоритмов-расистов

Известный историк считает, что программы, которые используются для аналитики поведения потребителей, превращаются в новый источник дискриминации
Юваль Харари
Юваль Харари (Фото: Claudio Lavenia / Fast Company / Getty Images)

В интервью РБК израильский историк Юваль Харари отметил, что алгоритмы, которые программисты создают для анализа поведения людей, часто являются предвзятыми.

Юваль Харари — РБК: «У политиков должен быть барьер между умом и ртом»
Общество
Юваль Харари

«Они отражают предубеждения своих разработчиков. Это ведь выдумка, что алгоритмы действуют на основе чистой математики. Разработчик сообщает программе, на какую информацию она должна обращать внимание, а какую — пропускать. Например, вы пишете алгоритм, который решает, давать людям заем или нет, изучая разнообразную информацию о заемщике. Должен ли этот алгоритм принимать во внимание расу заемщика? Должен ли он отказывать человеку на том основании, что он черный, еврей, гей или женщина? Дизайнер алгоритма вполне может вложить свои предубеждения в программу», — утверждает Харари.

Семь смертных грехов искусственного интеллекта
Тренды
Фото: Фото: Chris McGrath / Getty Images

Историк считает, что в ближайшем будущем подобные предубеждения, которые разработчик намеренно или бессознательно вкладывает в алгоритм, могут превратиться в новый источник дискриминации людей по их расе, полу и сексуальной ориентации.

Google разработал алгоритм для прогноза смерти госпитализированных
Технологии и медиа
Фото: Charles Platiau / Reuters

К дискриминации могут приводить и полностью объективные алгоритмы: например, искусственный интеллект, который помогает банкам снизить число неплатежей по кредитам. Но моральная ответственность все равно лежит на служащих, принимающих решения по каждому заемщику: «Даже если программа подсчитает, что представители какой-то конкретной этнической группы с меньшей вероятностью возвращают займы, вам все равно надо спросить себя: а почему это происходит? Может быть, они на протяжении десятилетий страдают от дискриминации, из-за которой бедны, плохо образованы и враждебны по отношению к любым социальным институтам? И именно поэтому с меньшей вероятностью гасят кредиты? Тогда к несправедливостям, которые им причиняли, вы добавите собственную несправедливость, сославшись на беспристрастное решение алгоритма», — отмечает ученый.