Смотрите не только кто говорит, но и что говорит: как распознать дипфейк и защититься от дезинформации
Технология, которая разрабатывалась для того, чтобы делать шутливые видео и устраивать розыгрыши, внезапно стала опасным оружием в руках всех, кому выгодно использовать чужое лицо для достижения своих целей. Именно это произошло с технологией дипфейк, способной заменять лицо человека на любое другое не только в готовых видео, но даже в режиме онлайн-общения по видеосвязи. Давайте разберемся, по каким признакам можно отличить дипфейк и не стать жертвой дезинформации.
Кому и зачем нужны дипфейки
Люди постепенно привыкают жить в мире, наводненном мошенниками. Когда в соцсети от друга или родственника приходит сообщение: "Привет, переведи 500 рублей на эту карту, потом все объясню", люди тут же набирают номер этого человека и сообщают о взломе его страницы. Не говоря об СМС-рассылках "Мама, я в беде". Даже самые нервные мамы со слабым сердцем научились брать себя в руки и перезванивать детям прежде, чем предпринимать дальнейшие действия. Постепенно люди учатся противостоять даже звонкам из фальшивых банков и от подставных мобильных операторов.
Совсем другое дело - когда мы видим лицо человека, слышим его голос. Да, он не перед нами, он на экране, но как же можно сомневаться? Оказывается, можно и нужно. К сожалению, только 37% россиян на сегодняшний день знакомы с
Конечно, такое мошенничество еще не слишком распространено - в конце концов, чтобы сделать дипфейк, нужны материалы. И тут самыми защищенными оказываются люди, которые редко делятся подробностями своей личной жизни в соцсетях. Мошенники не смогут притвориться тем, у кого мало фото и тем более видео на личной странице. А вот те, кто привык снимать каждую секунду своей жизни, в буквальном смысле рискуют "потерять лицо". Искусственный интеллект легко сможет скопировать черты их лиц в движении, их мимику и даже их голос.
Но пока что гораздо чаще технология используется для кражи лиц знаменитостей. И то, что кажется невинной шуткой, приколом, может на деле оказаться серьезным мошенничеством, ведь использование лица человека, который является лидером мнений, может нанести большой ущерб. Информация, донесенная фальшивой знаменитостью, может привести к массовым беспорядкам, денежным вымогательствам и даже чрезвычайным ситуациям.
Дипфейки в качестве доказательств в суде
Надо ли говорить, каким опасным может быть создание фальшивых видео с чужими лицами с точки зрения судебных процессов? Ведь сегодня именно видео- и аудиофайлы являются самыми главными доказательствами в сложных судебных разбирательствах. В лучшем случае с развитием дипфейков суды просто перестанут доверять таким доказательствам, в худшем - невинные люди будут осуждены.
Способы самостоятельного анализа
Если вам попалось видео, и вы находитесь в замешательстве, не является ли оно дипфейком, попробуйте провести самостоятельный анализ:
- Если это ваш знакомый, внимательно смотрите на малейшие отклонения от его обычного поведения. Он как-то не так произносит слова, хоть и своим голосом, а мимика отличается или кажется неестественной? Возможно, перед вами дипфейк. Особенно если на видео - неожиданная просьба или если целью является получение денежных средств.
- Если это знаменитый человек, и его мимика кажется вам естественной, попробуйте искать "швы", то есть места, где движения губ отличаются от произносимых слов, где расходятся цвета кожи или неправильно падает свет.
К сожалению, технологии дипфейков улучшаются и развиваются ежедневно. Та подделка, которую вы легко могли распознать вчера, сегодня уже может быть неотличимой даже для экспертов. К счастью, технологии все еще в большинстве случаев на стороне человека. Клин клином вышибают, а значит против мошеннической программы помогут другие специальные программы.
Технология "Зефир"
На сегодняшний день это самая мощная и доступная система распознавания фальшивых видео. Точность программы составляет 81% - это больше, чем у любой другой подобной технологии. Разработчиком программы является АНО "Диалог Регионы". Программа использует комплексный подход в процессе выявления дипфейков:
- Во-первых, само распознавание дипфейка, то есть какого-либо вмешательства в видеоролик с помощью нейронных сетей.
- Во-вторых, проводится анализ голоса: принадлежит ли он настоящему человеку или тоже сгенерирован машиной?
- В-третьих, проводится транскрибирование всей аудиочасти видеоролика (работает также для аудиофейков).
- В-четвертых, проводится масштабный поиск всех возможных первоисточников, которые доступны в Сети. Если автор фейка не прибегал к краже личного контента человека из закрытых источников, "Зефир" легко найдет все видео, на основе которых был создан дипфейк и идентифицирует их.
- В качестве бонуса - выявление использования хромакея при создании видео.
О "Зефире" говорил Сергей Новиков во время своего выступления на форуме "Диалог о фейках". Как подчеркнул начальник Управления Президента РФ по общественным проектам:
Все полезное может быть опасным, вопрос только в конкретных целях использования. Дипфейки как раз могут использоваться в качестве инструмента создания и развития российского контента, например в киносфере.
Технология Сбера
Подобная технология от Сбера была разработана еще в прошлом году и вошла в топ лучших изобретений-2022. Эффективность программы в распознавании фейковых видео, как заявляется, составляет 98%, к тому же эта технология способна работать даже с видео, на которых присутствует сразу несколько человек. А главное, что эта программа "срывает маски" с тех, кто пытается прикинуться другим человеком во время звонков онлайн по видеосвязи. Минус в том, что эта технология пока не способна анализировать достоверность аудиофайлов дипфейка.
Другие доступные системы
- Truepic - в основном работает с фото, но может проверить и видео на наличие каких-либо изменений и монтажа.
- KaiCatch - с помощью искусственного интеллекта выявляет странные искажения внутри видеороликов, которые могут свидетельствовать о том, что перед вами дипфейк.
- Microsoft Video Authenticator - выявляет процент монтажа на видео и фото.
- Deepware - бесплатная программа для анализа видео на предмет фейков.
Что говорит закон
В России уже давно активно ведется
Как самому не стать лицом дипфейка
Главный тезис того, как не стать жертвой дипфейка, в целом понятен: "Не верь глазам своим" и "Доверяй, но проверяй". Но как не стать тем, кто сам невольно будет обманывать других?
Чтобы мошенники не смогли воспользоваться вашим лицом и голосом в своих целях, соблюдайте сетевую гигиену:
- Загружайте свои фото и видео только в проверенные соцсети, старайтесь максимально ограничивать доступ к ним, чтобы их могли видеть только люди, которым вы доверяете.
- Делитесь информацией о дипфейках со всеми, кого вы знаете: рассказывайте последние новости, присылайте примеры таких видео. Так, если вдруг вы окажетесь в центре скандала с дипфейком, ваши близкие будут предупреждены и смогут скептически отнестись к фальшивке.
- Придумайте проверку, которая поможет и вам, и близким людям сразу нейтрализовать мошенника. Это могут быть кодовые слова или факты из жизни, о которых больше никто не знает и не может знать.
- Используйте надежные пароли и многофакторную аутентификацию, не посещайте сомнительные сайты, опасайтесь вирусов.