Reuters узнал, что компания Anthropic вступила в конфликт с Пентагоном
Компания Anthropic вступила в конфликт с Пентагоном из-за использования ее искусственного интеллекта в военных целях, пишут Reuters и The Wall Street Journal. Информационное агентство указало, что обе стороны конфликта зашли в тупик после продолжительных переговоров по $200 млн контракту.
Целью контракта было внедрение моделей Claude компании Anthropic в военные операции в рамках программы правительства по использованию искусственного интеллекта. Anthropic наравне с Google (Alphabet), xAI Илона Маска и OpenAI получили контракты от Пентагона в 2025 году на внедрение ИИ в оборону Соединенных Штатов.
Anthropic и OpenAI — это две ведущие компании в мире, которые разрабатывают крупные языковые модели и другие системы искусственного интеллекта общего назначения; именно их технологии лежат в основе таких умных чат-ботов и ассистентов, которые умеют писать тексты, программировать, анализировать данные и вести диалог почти как человек. OpenAI стала массово известна после запуска ChatGPT и моделей GPT‑3/4, фактически задав стандарт рынка генеративного ИИ, а Anthropic — основанная выходцами из OpenAI компания — развивает собственную линейку моделей Claude и позиционирует себя как игрока, делающего особый упор на безопасность и управляемость ИИ.
Напряженность в отношениях с Пентагоном у Anthropic возникла практически сразу после заключения контракта, потому что корпоративные условия соглашения с компанией Anthropic предусматривают запрет на использование ИИ Claude для любых действий, связанных с внутренней слежкой. WSJ пишет, что это ограничивает использование ИИ-агента для Федерального бюро расследований (ФБР) и Иммиграционной и таможенной службы (ICE).
В Anthropic обеспокоены тем, что ее инструменты могут быть использованы для слежки за американцами или содействия в наведении оружия на цель без достаточного человеческого контроля, сообщили агентству Reuters некоторые источники. В Пентагоне негативно восприняли «пользовательское соглашение». Чиновники считают, что у них должна быть возможность внедрять коммерческие технологии ИИ независимо от политики использования компаниями, если они соответствуют законодательству США,
Модели Anthropic обучены избегать действий, которые могут нанести вред, и именно сотрудники компаний будут заниматься перенастройкой ИИ для Пентагона, сообщили Reuters источники.
Ранее глава Anthropic заявил, что человечество вот-вот получит невообразимую власть и совершенно не ясно, достаточно ли развиты наши социальные, политические и технологические системы, чтобы использовать ее. Согласно тексту его эссе, ИИ должен поддерживать национальную оборону «во всех отношениях, кроме тех, которые сделают нас больше похожими на наших авторитарных противников».
Читайте РБК в Telegram.