Перейти к основному контенту
Мнение ,  
0 
Александр Крайнов

Этика нового разума: как поладить с искусственным интеллектом

Новые технологии потребуют довольно резкого изменения существующих в обществе этических норм

Искусственный интеллект становится реальностью. Мобильные приложения научились распознавать речь, социальные сети — друзей на фотографиях, автомобили все лучше и лучше ездят без водителей, а системы безопасности учатся без помощи человека автоматически определять подозрительные события. И вот недавно несколько технологических компаний — Google, Amazon, IBM, Facebook и Microsoft — объявили о партнерстве для обсуждения этических вопросов развития искусственного интеллекта и формирования стандартов этой быстрорастущей отрасли. Хотя в этом объединении пока нет многих ключевых игроков как из США, так и из других стран, это очень полезная инициатива для всего общества, ведь в ближайшие годы из-за стремительного развития машинного интеллекта нам предстоит столкнуться со множеством сложных этических вопросов.

Цели существования искусственного интеллекта — помощь человеку в автоматизации рабочих процессов и повышение эффективности самых разных аспектов жизни общества, от транспорта до здравоохранения. Благодаря его развитию нас уже очень скоро ждут значительные перемены во многих сферах — об этом, в частности, говорится в докладе Стэнфорда. Как жить с этим явлением, нужно ли ограничивать его развитие и использование? И как всегда происходит со всем новым, развитие машинного интеллекта сопровождается не только восторгами, но и ростом недоверия. Тем более что поводов хватает, хотя чаще это именно поводы, а не реальные причины. Публичное обсуждение как раз и должно уменьшить опасения.

Попробуем разобрать некоторые этические проблемы, для которых нам всем — и технологическим компаниям, и пользователям — придется искать решения.

Вопросы приватности

И для обучения машинного интеллекта, и для его применения нужно собирать самые разные данные. Например, информацию о том, как и куда мы ездили, что покупали, чем болели и как лечились. Но нам неприятно, когда за нами кто-то следит, даже если это полностью автоматизированная система. Данные и сейчас собираются в больших объемах, но в подавляющем большинстве случаев они используются в агрегированном виде. Чтобы проанализировать информацию о конкретном человеке, например проследить за его перемещениями по записям с камер, нужно потратить массу ресурсов. Технологии искусственного интеллекта существенно упростят эту задачу, что может привести к злоупотреблениям, например при несанкционированном доступе к информации. Значит, возникнут новые, более жесткие требования к сбору и хранению данных, а также доступу к ним. Возможно, будут регулировать, что допустимо извлекать из пользовательских данных, а что нет.

Показательный пример — поиск информации в Cети о конкретном человеке по его фотографии. Парадокс в том, что все хотят иметь возможность найти кого угодно, но не хотят, чтобы кто угодно мог найти их. Вспоминается запуск проекта FindFace, который вызвал реакцию от восхищения до неприятия. Конечно, можно предоставить самому пользователю определять, что оставлять в публичном доступе, а что «убирать под замок». Но подавляющее большинство пользуется настройками по умолчанию и ничего не меняет. Поэтому есть смысл выработать общие принципы того, что должно быть открыто по умолчанию, а что нет.

Вопросы ответственности

У человечества сформировались общепринятые понятия об ответственности. Хотя спорные моменты возникают довольно часто, в любом происшествии мы более или менее одинаково определяем виновного. Но что, если беспилотный автомобиль собьет пешехода? Кто будет отвечать за эту трагедию? Мы не можем возложить ответственность на пассажира, потому что он просто сидел в автомобиле, которым управлял искусственный интеллект. Но также сложно возложить всю ответственность на целую систему технологий, поскольку тысячи других автомобилей того же производителя не попадали ни в какие инциденты. И даже если беспилотные автомобили будут в разы безопаснее тех, что управляются человеком (а так, скорее всего, и произойдет), общество все равно еще долго будет относиться к ним с особым недоверием. Свежий пример — недавний запуск беспилотных автомобилей Uber в Питтсбурге, которые уже начали нарушать ПДД; и хотя все эти нарушения не привели ни к каким катастрофам, критики с готовностью накинулись на этот повод.

Кроме того, существует много профессий, где цена ошибки очень высока. Чем выше квалификация специалиста, тем меньше процент ошибок, но полностью их исключить невозможно. Для минимизации сбоев существуют инструкции, и за неверное решение человека часто не наказывают, если он их соблюдал. С искусственным интеллектом нужно что-то похожее: у него, как и у человека, должно быть право на ошибку, но нужны и безоговорочные правила. Их и предстоит создавать.

Вопросы работы

Уже не раз в истории развитие технологий снижало потребность в рабочих руках — исчезали целые профессии. Каждый раз обществу удавалось с этим справиться, и в конечном счете всем становилось понятно, что в технологиях больше пользы, чем вреда. Изобретение трактора или электровоза тоже лишило кого-то привычной работы, но сегодня никто не предложит создавать рабочие места, отказавшись от тракторов в пользу мотыг. Более того, искусственный интеллект не сразу займет место человека на каких-то работах, а во многих ситуациях и вовсе заменит собой не столько профессии, сколько рутинные задачи. Например, охраннику не нужно будет самому просматривать видеозаписи, чтобы обнаружить проникновение постороннего за охраняемый периметр: машина сама определит момент появления в записи объектов, которых не должно быть в кадре, и сделает нарезку из архивного видеоматериала.

Впрочем, переходные периоды часто отмечены волнениями социальных групп, которых задели перемены. Можно было ожидать, что против беспилотных машин выступят таксисты. Поэтому правительствам все нужнее экспертное мнение о том, какие технологии повлияют на рынок труда. Это, в свою очередь, может помочь им своевременно предпринять меры для поддержки социальных групп, которые несут потери из-за развития технологий.

Навстречу новым нормам

Этика и мораль — это сложившиеся нормы общества. Они не статичны и меняются с его развитием. Новые технологии, и в особенности искусственный интеллект, потребуют довольно резкого изменения этих норм. Какого именно — мы пока не можем сказать, потому что новые вопросы будут возникать постоянно по мере развития этих технологий. И чем более открытым будет этот процесс, чем активнее в него будут включаться специалисты отрасли, тем меньше будет ошибок, потрясений и недоверия на пути интеграции искусственного интеллекта в нашу жизнь.

Об авторе
Александр Крайнов Александр Крайнов руководитель службы компьютерного зрения и технологий машинного интеллекта «Яндекса»
Точка зрения авторов, статьи которых публикуются в разделе «Мнения», может не совпадать с мнением редакции.
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 27 апреля
EUR ЦБ: 98,72 (+0,01)
Инвестиции, 26 апр, 16:31
Курс доллара на 27 апреля
USD ЦБ: 92,01 (-0,12)
Инвестиции, 26 апр, 16:31
Полиция Бразилии начала проверку данных о бомбе в посольстве России Общество, 03:07
МИД Польши отказал президенту в праве обсуждать ядерное оружие Политика, 03:02
Пентагон заявил о планах убедить партнеров поделиться Patriot для Киева Политика, 02:42
В США впервые в 2024 году обанкротился банк Финансы, 02:39
Военный сбил дрон ударом мешка Политика, 02:16
Politico узнала, какой дедлайн для Украины назвал Зеленский в США Политика, 02:09
Госсекретарь США завершил трехдневный визит в Китай Политика, 01:48
Говорим красиво и убедительно
Видеоуроки В. Вишневского и 40 других курсов в Уроках Легенд
Подробнее
Минэк спрогнозировал укрепление доллара до ₽98 к декабрю Экономика, 01:27
Канада выделит Украине $2,1 млн на производство беспилотников Политика, 01:17
Кровля обрушилась во время пожара в торговом комплексе в Невинномысске Общество, 00:44
Welt узнала, почему Киев не согласился на заключение мира в Стамбуле Политика, 00:41
Депутату Вишневскому вменили участие в нежелательной организации Политика, 00:35
Памятник советским солдатам демонтировали на западе Украины Политика, 00:21
Московского педиатра отправили в СИЗО по статье о фейках про армию Политика, 00:14