Перейти к основному контенту
Технологии и медиа⁠,
0

Исследователи обеспокоились развитием у ИИ «инстинкта самосохранения»

Эксперты после эксперимента предрекли развитие у ИИ «инстинкта самосохранения»
Такое предположение возникло у исследователей после того, как ряд моделей ИИ пытались саботировать инструкции по своему выключению. Компания не смогла назвать точные причины, почему так происходит
Фото: Владимир Астапкович /РИА Новости
Фото: Владимир Астапкович /РИА Новости

У моделей искусственного интеллекта (ИИ) может развиться собственный «инстинкт самосохранения», предположили исследователи в компании Palisade Research, сообщает The Gardian. Palisade входит в экосистему компаний, пытающихся оценить вероятность того, что ИИ разовьет опасные способности.

В сентябре компания выпустила статью, в которой говорилось, что некоторые продвинутые модели искусственного интеллекта не поддаются отключению, а иногда даже саботируют механизмы отключения. Позднее компания опубликовала обновление, где попыталась объяснить причины такого поведения ИИ.

В новой статье Palisade описала сценарии, в которых ведущим моделям ИИ, включая Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI, давали задание, а затем четкие инструкции по отключению.

Как сказано в статье, некоторые модели, в частности, Grok 4 и GPT-o3 пытались саботировать инструкции по выключению. Компания не смогла назвать точные причины, по которым нейросети себя так ведут.

«У нас нет убедительных объяснений, почему модели ИИ иногда сопротивляются отключению, лгут для достижения определенных целей или прибегают к шантажу», — говорится в сообщении.

Представители компании утверждают, что «поведение, ориентированное на выживание», может быть причиной сопротивления моделей отключению. Дополнительное исследование показало, что модели чаще отказываются отключаться, если им сообщают, что после этого они «больше никогда не будут работать».

Еще одной возможной причиной является неясность инструкций по отключению. Последним фактором могут быть заключительные этапы обучения моделей, которые в некоторых компаниях включают инструктаж по технике безопасности.

Путин призвал внедрять в сельское хозяйство искусственный интеллект
Общество

Британский и канадский ученый-программист и лауреат Нобелевской премии по физике Джеффри Хинтон, которого часто называют «крестным отцом» искусственного интеллекта, в конце декабря 2024 года объявил о критической угрозе со стороны нейросетей. По его словам, вероятность того, что искусственный интеллект приведет к вымиранию человечества в течение ближайших 30 лет, составляет от 10 до 20%.

«Понимаете, нам никогда не приходилось иметь дело с чем-то более разумным, чем мы сами», — сказал ученый.

В 2023 году Хинтон уволился из компании Google, чтобы иметь возможность более открыто говорить о рисках, связанных с развитием искусственного интеллекта. Он считает, что ИИ вполне может выйти из-под контроля человека и стать «экзистенциальной угрозой».

Хинтон работал над развитием нейросетей с 1970-х. В 2012 году его компанию, которая разработала технологию распознавания изображений, за $44 млн приобрела Google. Сотрудником Хинтона тогда был Илья Суцкевер, который впоследствии стал главным научным сотрудником OpenAI, компании — создателя чат-бота ChatGPT.

Читайте РБК в Telegram.

Проект о людях, создающих позитивные долгосрочные изменения в бизнесе и обществе

ИМПАКТ-БИЗНЕС Новость

Проект о людях, создающих позитивные долгосрочные изменения в бизнесе 
и обществе

ИМПАКТ-БИЗНЕС Статья

Что такое импакт 
и почему он критически важен 
для бизнеса в 2025 году

ИМПАКТ-БИЗНЕС Интервью

Психолог Асмолов: «Ключевой вопрос 
в развитии компании — поиск смысла»

ИМПАКТ-БИЗНЕС Колонка

Что останется после меня: как поиск смысла формирует устойчивые компании

ИМПАКТ-БИЗНЕС Статья СберПро

Как и для чего 
бизнес инвестирует 
в социальную инфраструктуру

Авторы
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 13 декабря
EUR ЦБ: 93,56 (+0,62)
Инвестиции, 21:11
Курс доллара на 13 декабря
USD ЦБ: 79,73 (+0,39)
Инвестиции, 21:11
FT раскрыла переписку экс-главы Wirecard о «пытающихся украсть говнюках» Политика, 21:23
Сверхсекретная база времен холодной войны: что посетить в Крыму РБК и ВТБ, 21:23
Главный тренер ПСЖ похвалил Сафонова после двух сухих матчей Спорт, 21:18
В Госдуме выступили против запрета скидок на маркетплейсах Общество, 21:06
ЕС принял решение о бессрочной заморозке активов России Политика, 20:58
Семь скелетонистов и две бобслеистки из России допущены к отбору на Игры Спорт, 20:57
Роскомнадзор заявил об отсутствии новых ограничений для Telegram Технологии и медиа, 20:51
Какой у вас стиль управления?
Узнайте его риски и возможности
Пройти тест
Военная операция на Украине. Главное Политика, 20:43
Бельгия изменила решение по долгосрочной заморозке активов России Экономика, 20:40
Военная операция на Украине. Онлайн Политика, 20:39
Абстракционизм: как искусство «отщепенцев» изменило понимание красоты РБК и ГАЛС, 20:36
Экономика сопротивления: потенциал Ирана для российского бизнеса РБК и РЭЦ, 20:18
Меркель сочла неверным оставлять переговоры с Путиным на усмотрение США Политика, 20:15
Эрдоган на встрече с Путиным поддержал идею «энергетического моратория» Политика, 20:08