Россиянам грозит новый, особо опасный вид мошенничества — дипфейк-звонки,
В 2024 году число атак с использованием дипфейков в России составило десятки тысяч случаев, а в 2025 году это число может вырасти в разы — предупредили аналитики VisionLabs. За прошлый год общий ущерб от кибермошенничества составил до 300 млрд рублей, причем дипфейки внесли в эту сумму значительный вклад.
Реальный масштаб проблемы значительно превышает официальные данные. Жертвы таких атак могут получить звонки якобы от близких родственников или руководителей, что делает ситуацию особенно непредсказуемой. Одной из самых серьезных угроз становится возможность создания дипфейков в реальном времени. Подробнее о специфике этого вида мошенничества рассказали «Известия».
Главные жертвы — пожилые люди
Эксперты в области информационной безопасности отмечают рост числа мошеннических действий с использованием дипфейков. Чаще всего жертвами становятся подростки, женщины, пожилые люди.
«На данный момент количество таких случаев достигает десятков тысяч», — рассказала представитель VisionLabs Татьяна Дешкина. Однако централизованной системы для регистрации и отслеживания подобных атак пока не существует, что подтверждают в Роскомнадзоре. Дипфейки распространяются через социальные сети, мессенджеры и видеохостинги, а их обнаружение затруднено.
Пос ловам экспертов, технологии дипфейков стали доступнее: их можно использовать даже без специальных навыков.
Опасности видеозвонков
Одной из наиболее опасных форм мошенничества стали видеозвонки, созданные в реальном времени. Они выглядят убедительно и легко вводят жертв в заблуждение. Например, мошенники могут сымитировать голос бабушки, чтобы оформить на нее кредит, или вымогать деньги у пенсионеров.
Технология позволяет генерировать реалистичные диалоги, в которых поддельные собеседники используют психологическое давление. Особенно тревожна ситуация для тех, кто не осведомлен о возможностях современных технологий.
Виды дипфейк-атак
Замена лица: лицо одного человека подставляют вместо другого в видео.
Перенос мимики: используется анимация губ для синхронизации с другим голосом.
Создание несуществующих лиц: генерация реалистичных изображений для обмана и дезинформации.
Эти методы особенно эффективны в коротких видеороликах и видеозвонках, где внимание жертвы легко усыпить.
Как защититься?
Эксперты советуют использовать современные детекторы дипфейков, которые помогают обнаруживать такие атаки. Банки и телекоммуникационные компании внедряют защитные меры, но в социальной сфере проблема остается острой.
Специалисты настоятельно рекомендуют проверять все подозрительные обращения, особенно если звонки поступают от «близких» людей, якобы находящихся в беде. Самый простой способ избежать обмана — перезвонить и лично убедиться в достоверности информации.
Читайте также: в ФСБ назвали слова, которые сразу выдают телефонных мошенников.