Перейти к основному контенту
Общество⁠,
0

ЦБ предупредил, что мошенники научились использовать дипфейки

Фото: fizkes / Fotodom / Shutterstock
Фото: fizkes / Fotodom / Shutterstock

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.

Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.

В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
  • проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.

Мошенники изобрели новую схему кражи денег через «Госуслуги» и «Госключ»
Общество
Фото:Михаил Гребенщиков / РБК

В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.

Теги
Магазин исследований Аналитика по теме "Банки"
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 15 января
EUR ЦБ: 92,2 (-0,2)
Инвестиции, 14 янв, 18:01
Курс доллара на 15 января
USD ЦБ: 78,57 (-0,28)
Инвестиции, 14 янв, 18:01
Знакомый экс-главы «Уралкалия» назвал главную версию его гибели Общество, 16:10
В Киргизии анонсировали борьбу с телеканалами, нарушающими закон о языке Общество, 16:04
Мишустин сообщил, когда вступят в силу новые меры против кибермошенников Политика, 16:03
В России появится оперштаб по противодействию кибермошенникам Политика, 15:59
Суд изъял участки в Барвихе по иску ГенпрокуратурыПодписка на РБК, 15:57
Россию поставили на последнее из 163 стран место в рейтинге безопасности Политика, 15:56
СК задержал четырех человек за подрыв машины ученого в Москве Общество, 15:56
Как заводить полезные знакомства?
Интенсив о нетворкинге
Подробнее
В Архангельской области школьный автобус улетел с трассы, 6 пострадали Общество, 15:53
Совет директоров «Мосэнерго» повторно рекомендовал дивиденды за 2024 год Инвестиции, 15:51
Пашинян заявил о просьбе к Москве ускорить восстановление железных дорог Политика, 15:51
Сроки сорваны, задачи возвращаются: как избежать провалов в IT-проектах Образование, 15:51
В Латвии рекомендовали спортсменам избегать россиян на Олимпиаде в Италии Спорт, 15:50
В Третьяковке опровергли, что упавший гость повредил полотно Брюллова Общество, 15:45
Замдиректора GAC в России назвал Lada «брендом с глубокой историей» Авто, 15:43