«Верблюд»: силовики намерены серьёзно бороться с дипфейками

Компьютерные технологии сейчас развиваются как никогда стремительно. Порой бывает сложно отличить виртуальную реальность от происходящего на самом деле. В 2017 году появилась технология дипфейк, которую стали с успехом применять в различных областях науки и искусстве. Но сейчас появилась реальная угроза того, что этой разработкой могут также пользоваться различные мошенники, обманывающие честных граждан. Ведущие IT-компании уже создают и совершенствуют программы, легко распознающие дипфейки. Не отстают в этом и наши разработчики.

Конкурс под шифром «Зеркало» от МВД

Недавно МВД России объявило конкурс на создание программы, которая сможет распознавать дипфейки. Тендер размещен на сайте госзакупок. Правительство страны готово заплатить компании, которая сможет представить такое программное обеспечение, внушительную сумму – 4 790 357 рублей.

Конкурс среди IT-разработчиков проводится под шифром «Зеркало» («Верблюд»). В задачи заказчиков ставится проведение научно-исследовательской работы на предмет определения признаков внутрикадрового монтажа, выполненного с помощью нейросетей, а также создание технического задания по написанию программы, способной автоматически выявлять такой монтаж.

Весь процесс должен быть выполнен в два этапа. Завершиться научно-исследовательская работа должна 30 ноября 2022 года.

Данная разработка будет использоваться экспертно-криминалистическими подразделениями силовиков в части производства видеотехнических исследований и экспертиз.

Что такое дипфейк

Дипфейк – это результат обработки видеофайла при помощи искусственного интеллекта путем наложения и соединения кадров друг с другом. На выходе получается фейковый ролик, внешне не отличимый от настоящего.

С помощью внутрикадрового монтажа можно смоделировать видео, на котором будет присутствовать человек в месте, в котором он в реальности никогда не был. Таким образом можно фальсифицировать не только изображение, но и, например, речь человека. Нейросети уже сегодня генерируют очень реалистичные ролики, где конкретный человек может делать и говорить то, что никогда не делал и не говорил.

Сейчас на рынке есть много приложений, с помощью которых можно смоделировать дипфейк: DeepFaceLab, Zao, FakeApp, Deepfakes web. Количество их постоянно увеличивается.

Специалисты уверены, что разработчики дипфейк-технологий пойдут еще дальше. Со временем можно будет подделывать не только изображение и речь человека, но и его отпечатки пальцев, и рисунок сетчатки глаза.

Чем опасны дипфейки

Сегодня дипфейки используются преимущественно в индустрии развлечений: в компьютерных играх, дизайне, кино, розыгрышах. Но правительство многих стран бьет тревогу, говоря о том, что скоро технологией будут с успехом пользоваться мошенники.

Например, аферист может позвонить любому человеку по видеосвязи и, представившись родственником, попросить о финансовой поддержке. Гражданин, увидев своего близкого, не задумываясь, переведет деньги мошеннику.

С помощью дипфейков легко можно подставить любого человека, выставив его перед окружающими аморальным типом или преступником. Особенно это касается известных людей, политиков, деятелей культуры и искусства.

Данная технология позволит легко обкрадывать граждан, из банковских ячеек которых будут пропадать ценности. Мошенник заменит настоящее видео дипфейком, по которому будет видно, что владелец сам пришел и забрал свое имущество.

Возможности аферистов, в чем распоряжении будет такая технология, можно продолжать бесконечно. Поэтому так важно, чтобы на эту проблему сейчас обратили внимание законодатели.

Самые яркие дипфейки за последнее время

Недавно в Сети появилось видео, на котором американский инженер и миллиардер Илон Маск поет песню на русском языке «Трава у дома». У нас композицию исполняет группа «Земляне». Песня является визитной карточкой этих артистов. Когда солист группы Сергей Скачков узнал о появлении этого дипфейка, он сказал: «У них же нет достойной песни, пусть поют нашу».

Компания «Сбербанк» сняла новогодний рекламный ролик с использованием данной технологии. На видео главный персонаж из фильма «Иван Васильевич меняет профессию» Жорж Милославский, которого играл актер Куравлев, оказавшись в 2020 году, ездит на такси сервиса «Ситимобил», слушает музыку на «Сберзвуке» и отрывается на концерте исполнителя Niletto.

Весной 2019 года в Сеть попал фейковый ролик, дискредитировавший спикера палаты конгресса США Нэнси Пелоси. На видео женщина, занимающая высокий государственный пост, с трудом выговаривала слова. Создавалось впечатление, что она пьяна. После публикации ролика в Сети разгорелся большой скандал. Лишь позже было доказано, что речь Пелоси была сгенерирована.

Как обстоит дело с дипфейками в других странах

В Китае с 1 января 2020 года был принят закон, согласно которому запрещено публиковать дипфейки без специальной пометки. В США, в штате Калифорния, были запрещены подобные видео, относящиеся к темам политических выборов.

Многие политики уже оценили степень угрозы, исходящей от новой технологии создания фейковых видео. Некоторые из них уверены, что эти, на первый взгляд, безобидные развлекающие программы способны нанести серьезный урон государственной безопасности. Они призвали с ними бороться.

Нашли нарушение? Пожаловаться на содержание

Как вы думаете, появится ли у нас разработка, распознающая дипфейки?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.