Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Трамп обвинил СМИ в замалчивании коррупции Байдена Политика, 07:49 В Верховной Раде предложили взыскать с России миллиарды долларов Политика, 07:33 Денис Савостин — какой бизнес ни в коем случае не стоит открывать РБК и ВТБ Привилегия, 07:30 СМИ узнали о переговорах Apple и Netflix по покупке прав на показ «Бонда» Бизнес, 07:07 "Лучший боец всех времен". Реакция на уход Хабиба Нурмагомедова Спорт, 06:40 Обама усомнился в способности Трампа защитить американцев от коронавируса Общество, 06:16 Как облегчить боль: 10 способов помочь себе Совместный проект, 05:59 В Азовском море начали буксировку поврежденного взрывом танкера Общество, 05:13 Умер глава Samsung Ли Гон Хи Общество, 05:06 Состояние богатейшего европейца выросло на $8 млрд за неделю Бизнес, 04:47 Почему людям стало важно делать что-то своими руками. Исследование РБК Стиль и Яндекс Дзен, 04:30 Гидрометцентр пообещал аномально теплый конец октября в России Общество, 04:29 В Донбассе погиб командир батальона ЛНР «Призрак» Марков Общество, 03:49 Шлеменко назвал закономерным решением завершение карьеры Нурмагомедовым Спорт, 03:33
Общество ,  
0 

Юваль Харари предупредил о появлении алгоритмов-расистов

Известный историк считает, что программы, которые используются для аналитики поведения потребителей, превращаются в новый источник дискриминации
Юваль Харари
Юваль Харари (Фото: Claudio Lavenia / Fast Company / Getty Images)

В интервью РБК израильский историк Юваль Харари отметил, что алгоритмы, которые программисты создают для анализа поведения людей, часто являются предвзятыми.

Юваль Харари — РБК: «У политиков должен быть барьер между умом и ртом»
Общество
Юваль Харари

«Они отражают предубеждения своих разработчиков. Это ведь выдумка, что алгоритмы действуют на основе чистой математики. Разработчик сообщает программе, на какую информацию она должна обращать внимание, а какую — пропускать. Например, вы пишете алгоритм, который решает, давать людям заем или нет, изучая разнообразную информацию о заемщике. Должен ли этот алгоритм принимать во внимание расу заемщика? Должен ли он отказывать человеку на том основании, что он черный, еврей, гей или женщина? Дизайнер алгоритма вполне может вложить свои предубеждения в программу», — утверждает Харари.

Семь смертных грехов искусственного интеллекта
Тренды
Фото:Фото: Chris McGrath / Getty Images

Историк считает, что в ближайшем будущем подобные предубеждения, которые разработчик намеренно или бессознательно вкладывает в алгоритм, могут превратиться в новый источник дискриминации людей по их расе, полу и сексуальной ориентации.

Google разработал алгоритм для прогноза смерти госпитализированных
Технологии и медиа
Фото:Charles Platiau / Reuters

К дискриминации могут приводить и полностью объективные алгоритмы: например, искусственный интеллект, который помогает банкам снизить число неплатежей по кредитам. Но моральная ответственность все равно лежит на служащих, принимающих решения по каждому заемщику: «Даже если программа подсчитает, что представители какой-то конкретной этнической группы с меньшей вероятностью возвращают займы, вам все равно надо спросить себя: а почему это происходит? Может быть, они на протяжении десятилетий страдают от дискриминации, из-за которой бедны, плохо образованы и враждебны по отношению к любым социальным институтам? И именно поэтому с меньшей вероятностью гасят кредиты? Тогда к несправедливостям, которые им причиняли, вы добавите собственную несправедливость, сославшись на беспристрастное решение алгоритма», — отмечает ученый.