Эксперты MTS AI предупредили о росте числа дипфейк-атак в России
Каждый второй житель России рискует столкнуться с атакой с использованием дипфейков до конца текущего года. Такой прогноз дают эксперты по искусственному интеллекту, пишут «Известия».
Если несколько лет назад с подобными атаками сталкивались около 10% пользователей сети, то к концу 2025 года их жертвой может стать уже половина россиян, уточнили в MTS AI. Сейчас мошенники чаще всего используют поддельные видеокружки и голосовые сообщения в мессенджерах, так как проверить их подлинность сложнее, чем источник звонка.
Эксперты прогнозируют, что уже в 2026 году злоумышленники смогут массово применять дипфейк-звонки, имитируя в реальном времени голоса знакомых или родственников жертвы. Технологии создания подделок значительно усовершенствовались, стали доступнее, а отличить качественный дипфейк от оригинала становится все труднее даже опытным пользователям.
Ранее «Постньюс» сообщал мнение независимого киберэксперта Дмитрия Борщука о создании дипфейков. По его словам, для генерации подделки часто достаточно даже одной фотографии, а использовать видео («кружочки») из мессенджеров для потоковых мошеннических схем слишком трудозатратно. Специалист также посоветовал способ проверки собеседника во время видеозвонка: попросить его сделать что-то необычное, например, показать определенное количество пальцев, чтобы выявить возможный дипфейк.