Как распознать дипфейк и почему это становится сложнее
• [00:00] Осведомленность россиян о дипфейках
• [00:53] Эволюция нейросетей и сложности распознавания
• [01:34] Как ИИ повышает реалистичность фейков
• [02:14] Практические советы по выявлению дипфейков
• [03:13] Позитивные и негативные примеры использования
• [03:58] Принцип нулевого доверия
• [04:39] Рост мошенничеств с дипфейками
Большинство опрошенных аналитическим центром НАФИ — 72% — заявили, что хотя бы раз сталкивались со сгенерированными искусственным интеллектом материалами, но только треть признали, что знакомы с самим термином «дипфейк». Респондентов спросили, как называются видео, аудио или изображения, созданные с помощью искусственного интеллекта и размещенные в интернете, на которых люди якобы делают или говорят то, чего на самом деле не было. И вот какие ответы они дали: «дипфейк» ответили 31%, 23% сказали, что это «бот», столько же — «видеомонтаж», еще 4% назвали это «ретушью», а 2% — «карикатурой».
При этом отличать дипфейки от созданного человеком контента действительно становится все сложнее: искусственный интеллект непрерывно обучается. Если первые модели не могли адекватно генерировать изображение или речь, то сейчас они создают видео, практически неотличимые от реальных. Нейросети узнают все больше о человеке: пользователи, обучая модели, сами указывают, что работает неправильно. С выходом каждой новой версии шансы заметить подделку уменьшаются. О том, как выявлять контент, созданный ИИ, рассказал руководитель управления цифровой криминалистики и киберразведки компании Angara SOC Никита Леокумович.
«Видео генерируется очень просто: человеческое лицо разбивается на полигоны, и на видеозапись накладывается картинка. Чтобы отличить дипфейк, нужно посмотреть, моргает ли человек — скорее всего, нет. Например, он может открыть рот, а вместо рта будет дыра. Можно попросить человека повернуть голову, если это прямой эфир. В этом случае полигоны могут пропасть, маска — “слететь”. Если пришло аудио якобы от знакомого, человеку с музыкальным слухом несложно определить подделку. Остальным важно вслушиваться в интонации, но мало кто делает это специально», — пояснил Леокумович.
Сегодня популярны и безобидные развлечения — например, «оживление» старых фотографий с помощью ИИ. Когда человек на фото смотрит в фас, изображение выглядит реалистично, но стоит модели повернуть голову — появляется уже совершенно другое лицо. Это позитивный пример использования технологий. Многие применяют такие сервисы, чтобы хранить память о близких.
Однако исследование НАФИ показывает низкую готовность россиян противостоять рискам, связанным с распространением дипфейков. 43% признались, что не смогут распознать подделку, лишь 41% уверены в своих силах. При этом угрозы со стороны нейросетей растут.
Универсального способа защиты не существует, но есть базовые принципы, рассказал директор технического департамента RTM-Group, эксперт по информационной безопасности и компьютерной криминалистике Федор Музалевский.
«Еще в позапрошлом году мошенники начали подделывать голос человека, используя его публичные выступления или даже запись спам-звонка. На основе этих материалов они создавали фальшивые голосовые сообщения, получали деньги, доступы. Был и случай похищения ребенка: ему отправили подделанный голос родителей с просьбой вынести документ — и дядя просто увез его. Как жить в такой ситуации? Нужно применять принцип нулевого доверия. Это сложно, но если мы видим видео, изображение, голос — даже текст — мы обязаны перепроверять источник», — подчеркнул Музалевский.
Тем временем злоумышленники используют дипфейки все чаще. По подсчетам компании «Бизон», занимающейся информационной безопасностью, только за первое полугодие число мошенничеств с применением поддельных видео- и аудиоматериалов выросло почти в 2,5 раза год к году.