Смотрите не только кто говорит, но и что говорит: как распознать дипфейк и защититься от дезинформации

Технология, которая разрабатывалась для того, чтобы делать шутливые видео и устраивать розыгрыши, внезапно стала опасным оружием в руках всех, кому выгодно использовать чужое лицо для достижения своих целей. Именно это произошло с технологией дипфейк, способной заменять лицо человека на любое другое не только в готовых видео, но даже в режиме онлайн-общения по видеосвязи. Давайте разберемся, по каким признакам можно отличить дипфейк и не стать жертвой дезинформации.

Кому и зачем нужны дипфейки

Люди постепенно привыкают жить в мире, наводненном мошенниками. Когда в соцсети от друга или родственника приходит сообщение: "Привет, переведи 500 рублей на эту карту, потом все объясню", люди тут же набирают номер этого человека и сообщают о взломе его страницы. Не говоря об СМС-рассылках "Мама, я в беде". Даже самые нервные мамы со слабым сердцем научились брать себя в руки и перезванивать детям прежде, чем предпринимать дальнейшие действия. Постепенно люди учатся противостоять даже звонкам из фальшивых банков и от подставных мобильных операторов.

Совсем другое дело - когда мы видим лицо человека, слышим его голос. Да, он не перед нами, он на экране, но как же можно сомневаться? Оказывается, можно и нужно. К сожалению, только 37% россиян на сегодняшний день знакомы с понятием "дипфейк".

Конечно, такое мошенничество еще не слишком распространено - в конце концов, чтобы сделать дипфейк, нужны материалы. И тут самыми защищенными оказываются люди, которые редко делятся подробностями своей личной жизни в соцсетях. Мошенники не смогут притвориться тем, у кого мало фото и тем более видео на личной странице. А вот те, кто привык снимать каждую секунду своей жизни, в буквальном смысле рискуют "потерять лицо". Искусственный интеллект легко сможет скопировать черты их лиц в движении, их мимику и даже их голос.

Но пока что гораздо чаще технология используется для кражи лиц знаменитостей. И то, что кажется невинной шуткой, приколом, может на деле оказаться серьезным мошенничеством, ведь использование лица человека, который является лидером мнений, может нанести большой ущерб. Информация, донесенная фальшивой знаменитостью, может привести к массовым беспорядкам, денежным вымогательствам и даже чрезвычайным ситуациям.

Дипфейки в качестве доказательств в суде

Надо ли говорить, каким опасным может быть создание фальшивых видео с чужими лицами с точки зрения судебных процессов? Ведь сегодня именно видео- и аудиофайлы являются самыми главными доказательствами в сложных судебных разбирательствах. В лучшем случае с развитием дипфейков суды просто перестанут доверять таким доказательствам, в худшем - невинные люди будут осуждены.

Способы самостоятельного анализа

Если вам попалось видео, и вы находитесь в замешательстве, не является ли оно дипфейком, попробуйте провести самостоятельный анализ:

  • Если это ваш знакомый, внимательно смотрите на малейшие отклонения от его обычного поведения. Он как-то не так произносит слова, хоть и своим голосом, а мимика отличается или кажется неестественной? Возможно, перед вами дипфейк. Особенно если на видео - неожиданная просьба или если целью является получение денежных средств.
  • Если это знаменитый человек, и его мимика кажется вам естественной, попробуйте искать "швы", то есть места, где движения губ отличаются от произносимых слов, где расходятся цвета кожи или неправильно падает свет.

К сожалению, технологии дипфейков улучшаются и развиваются ежедневно. Та подделка, которую вы легко могли распознать вчера, сегодня уже может быть неотличимой даже для экспертов. К счастью, технологии все еще в большинстве случаев на стороне человека. Клин клином вышибают, а значит против мошеннической программы помогут другие специальные программы.

Технология "Зефир"

На сегодняшний день это самая мощная и доступная система распознавания фальшивых видео. Точность программы составляет 81% - это больше, чем у любой другой подобной технологии. Разработчиком программы является АНО "Диалог Регионы". Программа использует комплексный подход в процессе выявления дипфейков:

  • Во-первых, само распознавание дипфейка, то есть какого-либо вмешательства в видеоролик с помощью нейронных сетей.
  • Во-вторых, проводится анализ голоса: принадлежит ли он настоящему человеку или тоже сгенерирован машиной?
  • В-третьих, проводится транскрибирование всей аудиочасти видеоролика (работает также для аудиофейков).
  • В-четвертых, проводится масштабный поиск всех возможных первоисточников, которые доступны в Сети. Если автор фейка не прибегал к краже личного контента человека из закрытых источников, "Зефир" легко найдет все видео, на основе которых был создан дипфейк и идентифицирует их.
  • В качестве бонуса - выявление использования хромакея при создании видео.

О "Зефире" говорил Сергей Новиков во время своего выступления на форуме "Диалог о фейках". Как подчеркнул начальник Управления Президента РФ по общественным проектам:

Все полезное может быть опасным, вопрос только в конкретных целях использования. Дипфейки как раз могут использоваться в качестве инструмента создания и развития российского контента, например в киносфере.

Технология Сбера

Подобная технология от Сбера была разработана еще в прошлом году и вошла в топ лучших изобретений-2022. Эффективность программы в распознавании фейковых видео, как заявляется, составляет 98%, к тому же эта технология способна работать даже с видео, на которых присутствует сразу несколько человек. А главное, что эта программа "срывает маски" с тех, кто пытается прикинуться другим человеком во время звонков онлайн по видеосвязи. Минус в том, что эта технология пока не способна анализировать достоверность аудиофайлов дипфейка.

Другие доступные системы

  • Truepic - в основном работает с фото, но может проверить и видео на наличие каких-либо изменений и монтажа.
  • KaiCatch - с помощью искусственного интеллекта выявляет странные искажения внутри видеороликов, которые могут свидетельствовать о том, что перед вами дипфейк.
  • Microsoft Video Authenticator - выявляет процент монтажа на видео и фото.
  • Deepware - бесплатная программа для анализа видео на предмет фейков.

Что говорит закон

В России уже давно активно ведется обсуждение проблемы дипфейков. Например, предлагается введение обязательной маркировки всего подобного контента. Если маркировка будет отсутствовать, автор даже безобидного ролика понесет наказание. Но, конечно, мошенники, и так рискующие попасться и уже нарушающие закон, не станут маркировать свои видео, так что решение проблемы сомнительное. Остается одно - разрабатывать новые меры реагирования на уровне закона и права, внедрять и применять как можно быстрее.

Как самому не стать лицом дипфейка

Главный тезис того, как не стать жертвой дипфейка, в целом понятен: "Не верь глазам своим" и "Доверяй, но проверяй". Но как не стать тем, кто сам невольно будет обманывать других?

Чтобы мошенники не смогли воспользоваться вашим лицом и голосом в своих целях, соблюдайте сетевую гигиену:

  • Загружайте свои фото и видео только в проверенные соцсети, старайтесь максимально ограничивать доступ к ним, чтобы их могли видеть только люди, которым вы доверяете.
  • Делитесь информацией о дипфейках со всеми, кого вы знаете: рассказывайте последние новости, присылайте примеры таких видео. Так, если вдруг вы окажетесь в центре скандала с дипфейком, ваши близкие будут предупреждены и смогут скептически отнестись к фальшивке.
  • Придумайте проверку, которая поможет и вам, и близким людям сразу нейтрализовать мошенника. Это могут быть кодовые слова или факты из жизни, о которых больше никто не знает и не может знать.
  • Используйте надежные пароли и многофакторную аутентификацию, не посещайте сомнительные сайты, опасайтесь вирусов.

Комментарии