MacBeyn/YouTube
MacBeyn/YouTube

От пранка до угрозы нацбезопасности: что такое дипфейки и чем они опасны

За дипфейками, несомненно, будущее. Но устроит ли такая перспектива людей — вопрос открытый

В России сняли первый в мире сериал с использованием дипфейков. В комедийном проекте «ПМЖейсон» приняли участие Джейсон Стэйтем, Марго Робби, Киану Ривз и Роберт Паттинсон — правда, не сами актеры, а их искусственно сгенерированные образы. Часто дипфейки используют в благих целях, чтобы создать юмористический контент или рекламу, но порой технология становится инструментом дискредитации личности. Как появились дипфейки и какую угрозу они могут представлять? Разбираемся.

Что такое дипфейки?

Название deepfake образовалось от двух английских выражений — deep learning (глубокое обучение) и fake (подделка). Технология анализирует изображения, аудио- и видеофайлы с человеком и создает похожий образ, который может как говорить, так и двигаться. Зачастую дипфейки базируются на системе GAN — она построена на конкуренции двух нейросетей: одна генерирует фальшивку, а вторая пытается отличить ее от оригинала. Чем лучше первая обманет вторую, тем качественнее будет результат.

Технологию разработал студент Стэнфордского университета Иэн Гудфэллоу в 2014 году, но широкую известность она получила только три года спустя. Тогда пользователь Reddit с ником deepfake воспользовался трудами студента и начал выпускать видео для взрослых, в которых заменял лица порноактрис лицами голливудских знаменитостей вроде Галь Гадот и Скарлетт Йоханссон. Стоит ли говорить о том, насколько популярными стали дипфейки после этого?

Дипфейки — не только про порно

Со временем технология вышла за рамки секс-индустрии и начала покорять интернет. Российские разработчики умудрились оживить Мона Лизу, а в соцсетях завирусились забавные дипфейки с Томом Крузом, который играет в гольф. Сервис Deep Nostalgia пошел дальше и позволил обычным людям оживлять статичные фото умерших родственников. В политике дипфейки тоже засветились — в 2018 году Бельгийская партия Socialistische Partij Anders опубликовала ролик, в котором Трамп насмехался над Бельгией. Однако сами авторы пояснили, что это фейк.

Дипфейки стали полезной технологией и в кино. Пол Уокер («Форсаж») и Филип Сеймур Хоффман («Голодные игры») погибли до окончания съемок в фильмах, но были воссозданы в цифровом виде, что приятно удивило поклонников. Кроме того, дипфейки помогают кинокомпаниям избежать неоправданных рисков во время съемок опасных трюков с актерами.

Кажется, что технология действительно полезна и у нее практически нет минусов. Но за любым технологическим прорывом прячется много вопросов. Особенно этических.

За что критикуют дипфейки?

Главная проблема любой технологии — это попадание не в те руки. В 2019 году 96% от всех дипфейков составляли порноролики и фото, большинство из которых не были согласованы с женщинами, чьи лица использовались для монтажа. И если селебрити проще доказать свою непричастность и отмыться от грязной истории, то обычным девушкам, пострадавшим от мести бывших партнеров (revenge porn), порой приходится удаляться из соцсетей, а иногда даже менять имя. Помимо этого, авторы фейков могут использовать фальшивые фото или видео для банального шантажа и вымогательства денег.

Дипфейки также могут манипулировать общественным мнением и влиять на политику. В 2019 году в интернете появилось видео с якобы пьяной Нэнси Пелоси — одним из лидеров Демократической партии и спикером палаты представителей США. Авторы изменили речь политика, а ситуация вылилась в громкий скандал (в итоге было доказано, что видео фейковое, но прецедент есть прецедент). Не менее разрушительный эффект дипфейки могут нести и в контексте мошенничества: в том же 2019-м киберпреступники смогли подделать голос генерального директора британской энергетической компании и похитить €220 тыс.

Эксперты считают, что в будущем мошенники будут использовать дипфейки, чтобы входить в личные учетные записи людей на финансовых и банковских онлайн-сервисах, а также оформлять кредиты. Кажется, с такими перспективами в ближайшие годы технология претендует на то, чтобы стать угрозой не только для обычных людей, но и для национальной безопасности.

И что с этим делать?

С каждым днем распознать дипфейковые видео становится все труднее. Раньше у алгоритмов были проблемы с морганием глаз, но сегодня различия между оригиналом и подделкой могут увидеть только крайне внимательные пользователи и эксперты. Количество дипфейков увеличивается, поэтому в разных странах разрабатывают сдерживающие законы, а корпорации вроде Microsoft и Amazon инвестируют в создание программного обеспечения, которое будет обнаруживать фейки.

По мнению заместителя директора Института стратегических исследований и прогнозов РУДН Никиты Данюка, нужно прописать качественную правовую базу по созданию и распространению дипфейков — тогда авторы поддельных видео будут маркировать ролики специальной пометкой. Однако с учетом того, что сегодня буквально каждый может создать свой дипфейк с помощью приложения, не до конца понятно, как это будет контролироваться (выложить в интернете что-то анонимно тоже не так сложно).

Хочется, верить, что технология будет использоваться во благо, но у большинства экспертов она вызывает больше опасений, нежели восторга. Исследователи Университетского колледжа Лондона уверены, что дипфейки несут глобальную опасность, а их использование — это самое тревожное проявление ИИ на данный момент. Правы они или нет — покажет время, а пока давайте просто насладимся забавным дипфейком с Сильвестром Сталлоне в роли Кевина МакКалистера в фильме в «Один дома».

━━━━━

Никита Прунков