Перейти к основному контенту
Как защититься от мошенников⁠,
РАДИО
0

Как распознать дипфейк и почему это становится сложнее

Более 70% россиян сталкивались с дипфейками, но большинство не умеют их распознавать и не осведомлены об угрозах. Радио РБК разбирается, как вычислять ИИ-контент и почему это становится все сложнее
Фото: Андрей Любимов / РБК
Фото: Андрей Любимов / РБК

• [00:00] Осведомленность россиян о дипфейках

• [00:53] Эволюция нейросетей и сложности распознавания

• [01:34] Как ИИ повышает реалистичность фейков

• [02:14] Практические советы по выявлению дипфейков

• [03:13] Позитивные и негативные примеры использования

• [03:58] Принцип нулевого доверия

• [04:39] Рост мошенничеств с дипфейками

Большинство опрошенных аналитическим центром НАФИ — 72% — заявили, что хотя бы раз сталкивались со сгенерированными искусственным интеллектом материалами, но только треть признали, что знакомы с самим термином «дипфейк». Респондентов спросили, как называются видео, аудио или изображения, созданные с помощью искусственного интеллекта и размещенные в интернете, на которых люди якобы делают или говорят то, чего на самом деле не было. И вот какие ответы они дали: «дипфейк» ответили 31%, 23% сказали, что это «бот», столько же — «видеомонтаж», еще 4% назвали это «ретушью», а 2% — «карикатурой».

При этом отличать дипфейки от созданного человеком контента действительно становится все сложнее: искусственный интеллект непрерывно обучается. Если первые модели не могли адекватно генерировать изображение или речь, то сейчас они создают видео, практически неотличимые от реальных. Нейросети узнают все больше о человеке: пользователи, обучая модели, сами указывают, что работает неправильно. С выходом каждой новой версии шансы заметить подделку уменьшаются. О том, как выявлять контент, созданный ИИ, рассказал руководитель управления цифровой криминалистики и киберразведки компании Angara SOC Никита Леокумович.

«Видео генерируется очень просто: человеческое лицо разбивается на полигоны, и на видеозапись накладывается картинка. Чтобы отличить дипфейк, нужно посмотреть, моргает ли человек — скорее всего, нет. Например, он может открыть рот, а вместо рта будет дыра. Можно попросить человека повернуть голову, если это прямой эфир. В этом случае полигоны могут пропасть, маска — “слететь”. Если пришло аудио якобы от знакомого, человеку с музыкальным слухом несложно определить подделку. Остальным важно вслушиваться в интонации, но мало кто делает это специально», — пояснил Леокумович.

Более 40% россиян признались, что не могут распознать дипфейк
Технологии и медиа
Фото:Михаил Гребенщиков / РБК
Сегодня популярны и безобидные развлечения — например, «оживление» старых фотографий с помощью ИИ. Когда человек на фото смотрит в фас, изображение выглядит реалистично, но стоит модели повернуть голову — появляется уже совершенно другое лицо. Это позитивный пример использования технологий. Многие применяют такие сервисы, чтобы хранить память о близких.

Однако исследование НАФИ показывает низкую готовность россиян противостоять рискам, связанным с распространением дипфейков. 43% признались, что не смогут распознать подделку, лишь 41% уверены в своих силах. При этом угрозы со стороны нейросетей растут.

Универсального способа защиты не существует, но есть базовые принципы, рассказал директор технического департамента RTM-Group, эксперт по информационной безопасности и компьютерной криминалистике Федор Музалевский.

«Еще в позапрошлом году мошенники начали подделывать голос человека, используя его публичные выступления или даже запись спам-звонка. На основе этих материалов они создавали фальшивые голосовые сообщения, получали деньги, доступы. Был и случай похищения ребенка: ему отправили подделанный голос родителей с просьбой вынести документ — и дядя просто увез его. Как жить в такой ситуации? Нужно применять принцип нулевого доверия. Это сложно, но если мы видим видео, изображение, голос — даже текст — мы обязаны перепроверять источник», — подчеркнул Музалевский.

Тем временем злоумышленники используют дипфейки все чаще. По подсчетам компании «Бизон», занимающейся информационной безопасностью, только за первое полугодие число мошенничеств с применением поддельных видео- и аудиоматериалов выросло почти в 2,5 раза год к году.

Авторы
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 27 января
EUR ЦБ: 90,29 (+1,23)
Инвестиции, 17:57
Курс доллара на 27 января
USD ЦБ: 76,01 (+0,09)
Инвестиции, 17:57
Какие инвестиционные активы обгоняют инфляцию #всенабиржу!, 20:00
Яровая заявила, что мигрантов будут проверять на большее число болезней Политика, 19:57
Часть европейских политиков раскритиковала Зеленского после речи в Давосе Политика, 19:56
«Дом.РФ» назвал четыре риска для рынка жилья и ипотеки в 2026 году Недвижимость, 19:53
Путин заявил, что Россию просят прекратить удары по объектам ВСУ Политика, 19:40
Обломки украинской ракеты С-200 разрушили четыре дома в Брянской области Политика, 19:27
«Динамо» уступило в серии пенальти в товарищеском матче китайскому клубу Спорт, 19:27
Как лидеру обосновать повышение?
Узнайте на событии от РБК
Зарегистрироваться
«Бавария» начала переговоры с Гарри Кейном по новому контракту Спорт, 19:25
Кремль ответил на вопрос об изменении состава делегации на переговорах Политика, 19:19
Золото — выше $5000. Что стало с ценами за 110 летПодписка на РБК, 19:15
Почему россияне стали принимать антидепрессанты в 4 раза чаще. ВидеоПодписка на РБК, 19:13 
Сухой док военной базы Юйлинь впервые принял авианосец «Шаньдун» Политика, 19:11
Какой ресторан выбрать: пирожки «как дома», безлимитный пир и сидроделие Стиль, 19:06
Генсек НАТО назвал, что существенно повлияет на безопасность Украины Политика, 19:06