Willyam Bradberry/Shutterstock
Willyam Bradberry/Shutterstock

Исследование: мы склонны доверять искусственному интеллекту больше, чем реальным людям

Пока что этот вывод касается только сгенерированных нейросетью изображений

Иногда смотришь на человека и думаешь: «Ему точно можно доверять». Или бывает так, что нас отталкивают определенные черты лица собеседника, и мы, глядя лишь на его нос или брови, задумываемся: «А не врет ли он нам?». Результаты нового исследования показывают, что люди способны легко довериться сгенерированным машиной лицам, считая их более надежными.

Как искусственные изображения захватывают Интернет

Google Play и App Store наполнены самыми разными приложениями, которые позволяют вообразить себя знаменитым актером или известным боксером. Загрузив свое фото или видео, вы получите так называемый дипфейк. И вот через несколько мгновений вы уже снимаетесь в фильме Тарантино (и ваше лицо заменяет облик Джона Траволты), а еще через пару минут в образе Золушки танцуете на балу в одноименной постановке (и неважно, что вы мужчина). Такие видео очень сложно отличить от настоящих.

Например, в этом ролике пользователь наложил собственное лицо и голос на внешность экс-президента Барака Обамы. Результат практически не отличить от действительности.

Один из признаков дипфейка — эффект «зловещей долины», тревожное чувство, вызванное пустым взглядом синтетического человека. Но все более убедительные изображения уводят зрителей из долины в мир обмана.

Поразительный реализм имеет злонамеренные последствия: применение дипфейков в качестве оружия дезинформации, создание фальшивого контента для шантажа, а также мошенничество. Разработка контрмер для выявления дипфейков превратилась в «гонку вооружений» между сыщиками безопасности с одной стороны и киберпреступниками с другой.

В новом исследовании ученые обнаружили, что синтетические лица не только чересчур реалистичны, но и считаются более доверительными, чем настоящие. Результат вызывает опасения, что «эти лица могут быть очень эффективными при использовании в гнусных целях».

Никаких отличий от реальности

Чтобы посмотреть, как далеко продвинулись дипфейки, ученые сконструировали собственные синтетические лица. Для этого им понадобилось взаимодействие между двумя нейронными сетями. Благодаря совместной работе исследователи добились того, что в конечном итоге даже машины не смогли отличить настоящее лицо от созданных ими картинок.

Затем, сопоставив 400 реальных лиц с 400 их искусственными версиями, ученые попросили более трехсот людей отличить настоящие фото от поддельных. Другая группа участников прошла обучение, как распознавать дипфейки и тоже попыталась выявить отличия. Наконец, третья группа оценила выборку картинок с искусственными лицами на предмет достоверности по шкале от одного (человеку на фото нельзя доверять) до семи (человеку на фото можно доверять).

В итоге первой группе удалось отличить настоящие лица от поддельных со средней точностью 48%. Вторая угадала лишь в 59% случаев. В то же время третья группа составила рейтинг надежности: в среднем искусственные лица получили 4,82 пунктов по сравнению с 4,48 у реальных людей.

Исследователи не ожидали таких результатов: они думали, что искусственные лица будут вызывать меньше доверия, чем настоящие.

Это открытие усиливает опасения по поводу доступности технологии, которая позволяет практически любому создавать обманчивые неподвижные изображения.

Результаты таких исследований создают впечатление, что дипфейки будет невозможно обнаружить. Сейчас ученые пытаются понять, как улучшить систему распознавания. По их словам, люди склонны переоценивать свою способность обнаруживать подделки, и «общественность всегда должна понимать, когда они используются злонамеренно».

Авторы исследования заканчивают суровым выводом, подчеркивая, что вводящее в заблуждение использование дипфейков по-прежнему представляет угрозу. «Мы призываем тех, кто разрабатывает эти технологии, подумать о том, превышают ли связанные с этим риски их преимущества», — пишут они.

━━━━━

Анастасия Дегтярева