Перейти к основному контенту
Дискуссионный клуб ,  
0 
Андрей Незнамов

Цифровое бессмертие: зачем мораль искусственному интеллекту

Фото: Johannes Simon / Getty Images
Фото: Johannes Simon / Getty Images

Искусственный интеллект в последнее время не просто модный тренд. Это умный инструмент для государств, корпораций и небольших стартапов, целых сообществ и отдельных людей. Благодаря ИИ стремительно улучшается жизнь граждан. Жители мегаполисов взаимодействуют с системами «умных» технологий каждый день. А для бизнеса ИИ, кажется, уже стал знаком символа успеха.

Так, согласно исследованию, 98% лидеров бизнеса согласны с тем, что компаниям необходимо лучше понимать потенциал технологий искусственного интеллекта и машинного обучения для достижения долгосрочного успеха.

По данным Национального центра развития ИИ при правительстве, сегодня около 53% крупных компаний используют ИИ в своей деятельности. Государство поддерживает разработчиков: так, по федеральному проекту «Искусственный интеллект» национального проекта «Цифровая экономика» профинансировано уже более 800 проектов.

Но чем глубже проникает технология в жизнь, тем больше возникает социальных, философских, моральных и правовых вопросов, связанных с ее применением. Встраивание ИИ в разные сферы жизни и экономики по скорости и масштабу напоминает цунами. И все же этот поток можно условно разделить на три волны.

В первой, самой близкой волне — применение технологии в отдельных сферах. Именно такие кейсы мы чаще всего наблюдаем в медийном поле. Например, в начале августа в одной из стран мира регулятор заключил мировое соглашение с компанией, которая использовала для найма ИИ, который автоматически отклонял кандидатов-женщин старше 55 лет и кандидатов-мужчин старше 60 лет. Ранее IBM ограничила распространение технологии видеонаблюдения в связи с потенциальной возможностью ее использования не по назначению.

И, конечно, огромное количество этических вопросов подняло распространение ChatGPT и подобных моделей. Какую оценку система дает происходящим или прошедшим событиям, персонам или фактам? Какие подсказки она вправе давать, а какие нет? И как GPT-модели справляются с выполнением профессиональных обязанностей — перечень вопросов кажется бесконечным.

За первой волной высится значительно более высокая волна общего характера, редко описываемая одним-двумя кейсами. Например, к ней относится вопрос влияний новых технологий на рынок труда. Различные исследователи приводят самые разные оценки о количестве рабочих мест, которые будут созданы или трансформированы из-за применения ИИ.

В этой же волне находится глобальная проблема условий использования персональных данных и защита конфиденциальности в информационном обществе. Как действовать людям, бизнесу и регулятору в условиях беспрецедентного накопления огромных объемов данных, в том числе и персонального характера?

Ведутся и дискуссии об использовании новых технологий в образовательных процессах. Вероятно, вы читаете эти слова на смартфоне или планшете. Эти гаджеты с нами меньше пары десятков лет, и мы вряд ли можем уверенно сказать, как они на нас повлияли. Большое видится на расстоянии, а мы в начале пути.

Все это требует ответов. А выражается в запросе общества на надежный искусственный интеллект. И он неизменно связан с этикой.

Так, 85% потребителей говорят, что организациям важно учитывать этические аспекты, поскольку они используют ИИ для решения проблем общества. Аналогичным образом 75% руководителей считали этику искусственного интеллекта важной уже в 2021 году — по сравнению с менее чем 50% респондентов в 2018 году.

Почему же этика в сфере ИИ стала ответом на все вопросы? В современном мире под этикой искусственного интеллекта понимаются одновременно механизмы саморегулирования разработчиков в виде корпоративных норм и стандартов, инструменты взаимодействия регулятора с бизнесом и обществом по вопросам развития новых технологий. Собственно набор нравственных дилемм, возникающих у людей с развитием ИИ, прообразы будущего государственного регулирования новых технологий в виде самых разных инструментов «мягкого права», а также потенциальная этика самих систем ИИ — например, AGI. В тех случаях, если искусственный интеллект станет таким, что будет способен иметь свои этические представления.

В реальности именно этика ИИ стала единственным быстрым ответом на существующие волны вопросов.

Возникли вопросы применения новых технологий в бизнесе — и вот три десятка мировых разработчиков принимают корпоративные нормы этичного развития ИИ. Они не только про этику — и про безопасность, и про сотрудничество, и про корпоративное управление. Появляются этические декларации, хартии, петиции и открытые письма.

Разработчики вместе с наукой под руководством государства создают этический кодекс. Мир увидел на горизонте что-то похожее на AGI — универсальный ИИ, способный «думать» на человеческом уровне, и эксперты стали рассуждать на тему личной этики будущего сверхразума.

Российский опыт стал одним из самых показательных. Во-первых, у крупных российских разработчиков действуют корпоративные нормы этики ИИ. Во-вторых, создан национальный Кодекс этики в сфере ИИ. В-третьих, в рамках кодекса созданы реальные механизмы управления на базе Альянса в сфере ИИ и взаимодействия разработчиков, науки, представителей общественных организаций между собой и с государством. Так, одна из рабочих групп ищет ответы на вопросы этичности механизмов цифрового бессмертия. А другая группа в диалоге с регулятором — баланс между правовым регулированием и саморегулированием рекомендательных сервисов.

Таким образом, формируется системная этика ИИ, которая включает в себя огромный пласт разноплановых вопросов и решений. Но объединяет их всех одно: стремление создать эффективные инструменты для успешного взаимодействия человека и умных технологий.

Об авторе
Андрей Незнамов Андрей Незнамов председатель Национальной комиссии по этике ИИ
Точка зрения авторов, статьи которых публикуются в разделе «Мнения», может не совпадать с мнением редакции.
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.

*

Лента новостей
Курс евро на 25 мая
EUR ЦБ: 97,1 (-0,78)
Инвестиции, 24 мая, 17:19
Курс доллара на 25 мая
USD ЦБ: 89,7 (-0,55)
Инвестиции, 24 мая, 17:19
Минобороны предложило направить войска в районы паводка в Армении Политика, 23:17
Над Брянской областью сбили беспилотник Политика, 22:59
Президент Литвы Науседа победил во втором туре президентских выборов Политика, 22:58
Техработник выехал перед самолетом на летное поле аэропорта Пулково Общество, 22:31
Шольц допустил, что Украина не вступит в НАТО «в следующие 30 лет» Политика, 22:22
Песков назвал личные разговоры Путина и Мирзиёева важным элементом визита Политика, 22:06
Власти Германии обсудят «меры против экстремистов» для борьбы с АдГ Политика, 22:00
Стоицизм: как быть эффективнее в изменчивом мире
Подробнее
Сооснователь Human Rights Watch сменил позицию по геноциду в секторе Газа Политика, 21:59
В результате ДТП на юго-востоке Турции погибли 11 человек Общество, 21:45
Трампу посоветовали выбрать его соперницу кандидатом в вице-президенты Политика, 21:22
Швеция ответила на вопрос о праве Украины бить западным оружием по России Политика, 21:17
Массовая драка произошла в центре Киева Общество, 21:15
Путин возложил цветы к монументу Независимости в Ташкенте Политика, 21:06
МЧС России предложило Армении помощь с последствиями паводка Общество, 20:35