Перейти к основному контенту
Общество ,  
10 078 

ЦБ предупредил, что мошенники научились использовать дипфейки

Фото: fizkes / Fotodom / Shutterstock
Фото: fizkes / Fotodom / Shutterstock

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.

Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.

В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
  • проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.

Мошенники изобрели новую схему кражи денег через «Госуслуги» и «Госключ»
Общество
Фото:Михаил Гребенщиков / РБК

В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.

Теги
Магазин исследований Аналитика по теме "Банки"
Лента новостей
Пользователи пожаловались на сбой в работе «Ростелекома» Технологии и медиа, 20:39
Курс евро на 17 июля
EUR ЦБ: 90,56 (-0,59)
Инвестиции, 20:34
Курс доллара на 17 июля
USD ЦБ: 77,96 (0)
Инвестиции, 20:34
Тренер Поветкина погиб при выполнении боевого задания в Западной Африке Спорт, 20:22
Зеленский представил в Раду кандидатуру нового министра обороны Украины Политика, 20:13
Путин запустил новый цех для импортозамещения в металлургии на ММК Общество, 20:13
Путин назвал самбо и дзюдо главными увлечениями своего детства Спорт, 20:02
Путин рассказал о постепенном восстановлении отношений с МОК Спорт, 19:56
Как устроены альтернативные международные платежи РБК и ТКБ, 19:53
Подарок с пользой — Подписка на РБК
Приобретайте сертификат на период от 1 месяца до года
За сертификатом
Сибига заявил о готовности Украины к переговорам Политика, 19:49
Путин заявил, что существующих мер поддержки семей с детьми недостаточно Общество, 19:48
Путину в Магнитогорске показали 32 т раскаленного кокса. Видео Политика, 19:40
ЦБ уличил бизнесменов из Перми в манипулировании активами на Мосбирже Инвестиции, 19:23
Бронзовый призер Олимпиады из Норвегии погиб в результате удара молнии Спорт, 19:14
Долгосрочное инвестирование: из каких активов состоит портфель «вдолгую» РБК и ПСБ, 19:10
Глава бывшей «Данон Россия» сменил сына Кадырова во главе ФК «Ахмат» Спорт, 19:07