Перейти к основному контенту
Как защититься от мошенников⁠,
0

Более 40% россиян признались, что не могут распознать дипфейк

Фото: Михаил Гребенщиков / РБК
Фото: Михаил Гребенщиков / РБК

Каждый пятый житель России (21%) регулярно сталкивается с контентом, созданным с использованием ИИ. При этом 43% опрошенных признались, что не могут отличить дипфейк от материалов, созданных человеком, следует из результатов исследования НАФИ (с которыми ознакомился РБК).

Участникам исследования дали ознакомиться с определением дипфейка. Большинство (72%) заявили, что хотя бы раз сталкивались со сгенерированными ИИ материалами, но только треть респондентов (31%) признали, что знакомы с определением термина «дипфейк». Половина опрашиваемых россиян (51%) ошибочно называют эту технологию «ботом», «видеомонтажом», «ретушью» или «карикатурой».

Аналитический центр опросил в ноябре 2025 года 6,67 тыс. человек из всех субъектов России на базе платформы «Тет-О-Твет». В исследовании принимали участие женщины и мужчины от 14 лет. Для репрезентативности результаты были взвешены на основе официальных данных Росстата по полу, возрасту, уровню образования и географии проживания. Статистическая погрешность не превышает 2%.

«В исследовании выявили среди россиян низкий уровень готовности противостоять угрозам, связанным с распространением дипфейков: почти половина жителей России (43%) признались, что не смогут распознать дипфейк. Уверены в своих возможностях распознать такую технологию почти столько же — 41%», — сообщают эксперты аналитического центра.

Также респондентов спросили, как называются видео, аудио или картинки, созданные с помощью искусственного интеллекта и размещенные в интернете на «которых люди якобы делают или говорят то, чего на самом деле не было». Респонденты дали такие ответы: дипфейк — 31%, бот — 23%, видеомонтаж — 23, ретушь — 4%, карикатура — 2%.

Более половины россиян не смогли отличить человека от чат-бота
Технологии и медиа
Фото:Михаил Гребенщиков / РБК

В середине сентября стало известно, что более половины опрошенных россиян (57%) признали, что хотя бы раз не могли при разговоре отличить ИИ-ассистента от живого оператора.

Ранее в ЦБ рассказали россиянам, как не стать жертвой дипфейка. «Сгенерированного» собеседника могут выдать роботизированная речь без эмоций, либо, напротив, неестественная мимика, а также дефекты звука и посторонние шумы.

По подсчетам VisionLabs, в 2024 году было зафиксировано несколько десятков тысяч дипфейк-атак, в 2025-м их количество может вырасти до нескольких сотен тысяч.

Читайте РБК в Telegram.

Авторы
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 3 февраля
EUR ЦБ: 91,25 (+0,78)
Инвестиции, 02 фев, 17:27
Курс доллара на 3 февраля
USD ЦБ: 77,02 (+1,29)
Инвестиции, 02 фев, 17:27
Глава Нацполиции Украины заявил о нежелании большинства идти в ВСУ Политика, 16:35
Дочерей Портнова исключили из испанской школы после убийства отца Политика, 16:35
В медуниверситете Кабула появится кафедра пророческой медицины Общество, 16:32
В Риме решили изменить фреску с лицом ангела, похожим на Джорджу Мелони Общество, 16:28
Зеленский рассказал о планах Украины на новом раунде переговоров Политика, 16:27
Аналитики увидели в обвале золота шанс восстановить его репутацию Финансы, 16:22
«Немцы в курсе». Что известно о возобновлении сборки BMW в России Авто, 16:22
Управленческие ошибки: как вернуть контроль над ситуацией
Событие для руководителей
Зарегистрироваться
Вы ищете не там: как понять истинную причину конфликта Образование, 16:21
Трамп не знал о продаже почти половины криптопроекта его семьи шейху ОАЭ Крипто, 16:18
Структурные облигации: возможности и риски для инвесторов #всенабиржу!, 16:15
Сын Жильцовой назвал предварительную дату ее похорон Общество, 16:13
NDTV узнал, что Индия не будет покупать нефть у подсанкционных стран Политика, 16:12
Как легко решить пять главных проблем корпоративных автопарков РБК и Teboil PRO, 16:00
ЦБ отметил рекорд по выдаче семейной ипотеки в конце 2025 года Недвижимость, 15:59