Сколько россиян не могут распознать дипфейк. Результаты исследования

. Каждый пятый пользователь регулярно сталкивается с ИИ-контентом

НАФИ: 43% россиян не могут отличить дипфейк от материалов, созданных человеком

Обновлено 03 декабря 2025, 07:31
Сколько россиян не могут распознать дипфейк. Результаты исследования
Фото: EugeneEdge / Shutterstock / FOTODOM

Каждый пятый житель России (21%) регулярно сталкивается с контентом, созданным с использованием ИИ. При этом 43% опрошенных признались, что не могут отличить дипфейк от материалов, созданных человеком, сообщает РБК со ссылкой на результаты исследования НАФИ.

Опрос состоялся в ноябре 2025 года на базе платформы «Тет-О-Твет». В нем приняли участие 6,67 тыс. россиян в возрасте от 14 лет. Для репрезентативности результаты были взвешены на основе официальных данных Росстата по полу, возрасту, уровню образования и географии проживания. Статистическая погрешность не превышает 2%.

Большинство участников опроса (72%) заявили, что хотя бы раз сталкивались со сгенерированными ИИ материалами. При этом только треть респондентов (31%) признали, что знакомы с определением термина «дипфейк».

Также респондентов спросили, как называются видео, аудио или картинки, созданные с помощью искусственного интеллекта и размещенные в интернете. на «которых люди якобы делают или говорят то, чего на самом деле не было». Респонденты дали такие ответы: дипфейк — 31%, бот — 23%, видеомонтаж — 23, ретушь — 4%, карикатура — 2%. Таким образом, половина опрашиваемых россиян (51%) не знакомы с точным определением «дипфейка».

Эксперты аналитического центра отметили, что у россиян сохраняется низкий уровень готовности противостоять рискам, связанным с распространением дипфейков. Уверены в своих возможностях распознать такую технологию 41%.

Маркировка ИИ-контена

Ранее депутаты Госдумы предложили ввести обязательную маркировку видеороликов, созданных с помощью ИИ. Изменения предлагается внести в Федеральный закон «Об информации, информационных технологиях и о защите информации» — в него могут добавить определения синтетического видеоматериала, маркировки и владельца видеохостинга.

Согласно законопроекту, маркировка должна включать в себя два элемента: видимое обозначение, отображаемое при просмотре видео, а также машиночитаемую метку в метаданных, содержащую сведения о применении ИИ, дате и владельце ресурса. Кроме того, предлагаемся ввести ответственность за нарушение требований к маркировке синтетических видеоматериалов. Для граждан предусматривается штраф от 10 тыс. до 50 тыс. руб., для должностных лиц — от 100 тыс. до 200 тыс. руб., для юридических лиц — от 200 тыс. до 500 тыс. руб.

«Маркировка — это не ограничение свободы, а защита пользователей от обмана. Сегодня искусственный интеллект способен создавать визуальные образы, неотличимые от реальности. Без маркировки это превращается в инструмент манипуляции и подмены фактов. Мы предлагаем ввести простое и понятное правило: любая генерация с помощью ИИ должна быть обозначена. Это вопрос доверия, безопасности и ответственности перед обществом», — подчеркнул автор инициативы, депутат от партии «Справедливая Россия» Дмитрий Гусев.

Вопрос маркировки сгенерированного искусственным интеллектом контента в конце октября поднимал также председатель Госдумы Вячеслав Володин. Он отметил, что нейросети все чаще стали применять для создания не только текстов, но также фото и видео, а результат зачастую невозможно отличить от контента, созданного человеком.

Поделиться
Авторы
Теги