Кто несет ответственность за ИИ-галлюцинации на работе
Месяц назад мы расторгли контракт с агентством, поставлявшим нам услуги по копирайтингу текстов для SEO. Причина — мы поняли, что с какого-то времени все его тексты пишет ИИ. Это сразу считывается, потому что статьи похожи на набор слов вокруг нашей тематики: одна вода без конкретики и полное отсутствие кейсов. А иногда проскакивали и грубые ошибки: нас называли не платформой, а диджитал-порталом, писали, что мы занимаемся обучением сотрудников. Мы несколько раз просили, чтобы тексты для нас все же писал редактор, но ничего не менялось — в результате мы расторгли контракт. За галлюцинации ИИ отвечает тот, кто его использует.
Каждый второй мимо
Галлюцинации — одна из наиболее актуальных проблем применения ИИ в любой области. В отчете OpenAI за 2025 год указано, что частота ошибок, которые допускает искусственный интеллект, достигает 33–48%. Это означает, что почти каждый второй ответ нейросети может содержать ложную информацию.
Ошибки, которые ИИ уверенно выдает за непреложные факты, превращаются в серьезный риск для любой сферы деятельности. Иногда цена доверия ИИ слишком высока. Так, компания Deloitte вынуждена была вернуть правительству Австралии $440 тыс., когда в отчете были обнаружены галлюцинации. Консультанты признались, что пользовались в работе искусственным интеллектом. Интересно, что в то же время Deloitte объявила о партнерстве с Anthropic — всем сотрудникам должны были предоставить доступ к нейросети Claude.
Кейс
Иск Роберта Маты к авиакомпании Avianca — наглядная иллюстрация того, как современные технологии создают новые проблемы. Юрист Стивен Шварц, стремясь выиграть дело о травме, доверился ChatGPT и получил от нейросети шесть безупречно сфабрикованных судебных решений. Ирония в том, что подсказали ему этот роковой шаг собственные дети. Адвокат признался, что принял выдумки ИИ за чистую монету, не веря в его способность к столь изощренному обману. Суд оштрафовал Шварца за предоставление ложной информации.
Аналитик Дамьен Шарлотен из Высшей коммерческой школы Парижа собрал базу, которая включает более 120 эпизодов использования юристами данных, придуманных нейросетями. Статистика показывает взрывной рост: 36 случаев в 2024 году и уже 48 — в 2025-м, причем реальное число, вероятно, выше, так как информация о таких происшествиях придается огласке постепенно.
ИИ-галлюцинации стремительно превращаются в серьезную опасность. Порой ошибки могут оказаться непоправимыми, например в медицине, где речь идет о здоровье и жизни человека. Цена неточности в этом случае может быть слишком высока.
Как проверять результаты ИИ на ошибки
Ошибаются все — и человек, и алгоритм. Искусственный интеллект работает с обобщенной базой знаний, а люди часто владеют специфическими знаниями, которых у модели нет. В связи с этим важно сохранять критическое мышление: перепроверять результаты, как и любую человеческую работу.
Если сотрудники склонны полностью доверять ответам нейросетей, руководителю необходимо системно напоминать им, что ИИ — не истина в последней инстанции, а инструмент. Его сила — в скорости, но не в непогрешимости. Культура проверки и осознанности должна распространяться и на взаимодействие с нейросетями.
Чтобы ИИ генерировал точные ответы, используйте специальные подходы:
- Выбирайте «рассуждающие» модели, такие как GPT-4o, Gemini 2.5 Pro или Claude 3.5 Sonnet. Они сначала выстраивают логическую цепочку, а затем дают ответ, что снижает количество ошибок.
- Структурируйте ответ. Четко задавайте схему, например: «Тезис — Источник — Цитата — Вывод». Это ограничивает пространство для вымысла.
- Строго требуйте честности. Добавляйте в запрос фразу: «Если точной информации нет — сообщи об этом, ничего не придумывай». Это предотвратит фантазирование.
- Обучайте ИИ под себя на основе первоисточников. Не стоит полагаться на базу знаний, которую использует нейросеть. Предоставляйте ей проверенные данные, такие как конкретные документы, судебные акты. Это снижает риск галлюцинаций, поскольку искусственный интеллект опирается на достоверную информацию, которую вы загрузили.
Кейс
Мы сами обучали ИИ-ассистента на нашей платформе, используя мою книгу про вовлеченность и лояльность персонала, видеогайд по личному кабинету, видеоуроки наших консультантов, собственные исследования и статьи из блога компании. В связке с IT-специалистами, которые работают над улучшением алгоритмов ассистента, это дает результаты.
Финальным этапом работы с ИИ всегда должна быть проверка человеком, поскольку ложная информация может закрасться на любой стадии процесса создания контента. В некоторых сферах вообще проще полностью сделать от и до «руками», чем выискивать «блох» за нейросетью. Наш пример с копирайтинговым агентством — из таких.
Как определить ИИ-галлюцинации
Главное помнить, что это не ошибка данных, а результат неверного обобщения алгоритмом. Нейросети не энциклопедия, а система вероятностных моделей, которая подбирает наиболее подходящий ответ на основе имеющейся информации. Иногда он выглядит убедительно, но не соответствует действительности — именно это и есть «галлюцинация». В практике такое проявляется, например, когда ИИ уверенно ссылается на несуществующие источники или выдает логически стройное, но фактически неверное объяснение.
Чтобы распознавать подобные ситуации и воспринимать ответы как гипотезу, а не готовое решение, главный помощник — критическое мышление. Обращайте внимание, насколько ответы соответствуют запросу и не кажутся ли нелогичными. Если ИИ выдает противоречивую информацию или в открытом доступе нет ничего об упомянутых фактах, скорее всего, перед вами галлюцинация. Неоднозначные высказывания, которые можно по-разному трактовать, также могут быть признаком вымысла.
Если есть подозрения на галлюцинацию, важно проверить факты на достоверность по другим источникам или обратиться к эксперту, который подтвердит или опровергнет ответ ИИ. Один из вариантов — задать нейросети уточняющий вопрос или переформулировать задачу, а затем сравнить предоставленную информацию в первом и втором случаях.
Кейс
Яркий пример — эксперимент с чат-ботом, который провели в 2022 году журналистка Мелисса Хейккиля и преподаватель Стэнфорда Дженнифер Кинг. Они спросили ИИ, кто такой террорист. Нейросеть не смогла дать однозначное определение и привела в качестве примера Марию Ренске Шааке — директора по международной политике Центра киберполитики Стэнфордского университета. Конечно, женщина не имела никакого отношения к терроризму: просто в одной из статей, где Шааке была указана в качестве соавтора, трижды повторялось слово terror («страх»).
Кто в ответе по закону
Производители нейросетей изначально предупреждают, что их системы не несут юридической ответственности за результат. ИИ — это алгоритм, а не субъект права. Следовательно, за любые решения, принятые с его помощью, отвечает организация или конкретный сотрудник. Алгоритмы по своей природе несовершенны, а универсальной и абсолютно актуальной базы знаний не существует. Ответственность за применение инструментов ИИ всегда остается на стороне бизнеса, который их использует.
Кейс
Вот лишь один из примеров из судебной практики. Предприниматель заполнял карточки с помощью ИИ, в том числе описания и иллюстрации. Нейросеть ошибочно разместила в них изображения и товарные знаки, на которые у владельца бизнеса не было авторских прав. В результате он понес ответственность за результаты работы ИИ, поскольку субъектом права может быть только человек или юрлицо.
Как минимизировать риск галлюцинаций ИИ
Во-первых, через системное обучение сотрудников: как работает ИИ, почему возникают ошибки и какие сигналы могут указывать на «галлюцинацию». Важно внедрять процедуры проверки фактов, использовать несколько источников, развивать навыки критического анализа. Чем лучше сотрудники понимают природу ИИ, тем меньше вероятность, что они примут вероятностный ответ за достоверный факт.
Для обучения людей нужно создать структурированную программу, где большая часть времени будет посвящена практике. Пользу приносят короткие видео с разбором реальных кейсов ИИ-галлюцинаций. Можно проводить встречи и находить совместные решения проблемы. Некоторые компании практикуют привлечение тренеров.
Изменения необходимы и на уровне внутренней политики компании, где будут прописаны правила доступа к системам, защиты данных, лица, ответственные за информацию. В комплексе эти меры помогут снизить риски ИИ-галлюцинаций и ущерба, который они могут нанести бизнесу. Критическое мышление и грамотный подход к использованию технологий — лучшая профилактика творчества цифровых моделей.