Этика нового разума: как поладить с искусственным интеллектом
Искусственный интеллект становится реальностью. Мобильные приложения научились распознавать речь, социальные сети — друзей на фотографиях, автомобили все лучше и лучше ездят без водителей, а системы безопасности учатся без помощи человека автоматически определять подозрительные события. И вот недавно несколько технологических компаний — Google, Amazon, IBM, Facebook и Microsoft — объявили о партнерстве для обсуждения этических вопросов развития искусственного интеллекта и формирования стандартов этой быстрорастущей отрасли. Хотя в этом объединении пока нет многих ключевых игроков как из США, так и из других стран, это очень полезная инициатива для всего общества, ведь в ближайшие годы из-за стремительного развития машинного интеллекта нам предстоит столкнуться со множеством сложных этических вопросов.
Цели существования искусственного интеллекта — помощь человеку в автоматизации рабочих процессов и повышение эффективности самых разных аспектов жизни общества, от транспорта до здравоохранения. Благодаря его развитию нас уже очень скоро ждут значительные перемены во многих сферах — об этом, в частности, говорится в докладе Стэнфорда. Как жить с этим явлением, нужно ли ограничивать его развитие и использование? И как всегда происходит со всем новым, развитие машинного интеллекта сопровождается не только восторгами, но и ростом недоверия. Тем более что поводов хватает, хотя чаще это именно поводы, а не реальные причины. Публичное обсуждение как раз и должно уменьшить опасения.
Попробуем разобрать некоторые этические проблемы, для которых нам всем — и технологическим компаниям, и пользователям — придется искать решения.
Вопросы приватности
И для обучения машинного интеллекта, и для его применения нужно собирать самые разные данные. Например, информацию о том, как и куда мы ездили, что покупали, чем болели и как лечились. Но нам неприятно, когда за нами кто-то следит, даже если это полностью автоматизированная система. Данные и сейчас собираются в больших объемах, но в подавляющем большинстве случаев они используются в агрегированном виде. Чтобы проанализировать информацию о конкретном человеке, например проследить за его перемещениями по записям с камер, нужно потратить массу ресурсов. Технологии искусственного интеллекта существенно упростят эту задачу, что может привести к злоупотреблениям, например при несанкционированном доступе к информации. Значит, возникнут новые, более жесткие требования к сбору и хранению данных, а также доступу к ним. Возможно, будут регулировать, что допустимо извлекать из пользовательских данных, а что нет.
Показательный пример — поиск информации в Cети о конкретном человеке по его фотографии. Парадокс в том, что все хотят иметь возможность найти кого угодно, но не хотят, чтобы кто угодно мог найти их. Вспоминается запуск проекта FindFace, который вызвал реакцию от восхищения до неприятия. Конечно, можно предоставить самому пользователю определять, что оставлять в публичном доступе, а что «убирать под замок». Но подавляющее большинство пользуется настройками по умолчанию и ничего не меняет. Поэтому есть смысл выработать общие принципы того, что должно быть открыто по умолчанию, а что нет.