В современном мире, где технологии развиваются быстрее, чем мы успеваем к ним адаптироваться, дипфейки стали актуальной проблемой. Технология создания поддельных изображений и видео с использованием нейросетей, изначально задуманная как инструмент для развлечений, кинематографа или рекламы, быстро вышла за рамки безобидных экспериментов. Сегодня дипфейки чаще используются для мошенничества, провокаций и даже шпионажа. И вот тут возникает новый феномен – люди, которые добровольно соглашаются стать моделями для таких фальсификаций.
Звучит, конечно, странно. Но все чаще появляются те, кто готов предоставить свое лицо, голос и даже биометрические данные, чтобы их использовали для создания фейков. Это может быть как для кино или игр, так и для совсем других, не самых законных целей. Одни видят в этом шанс заработать, другие – способ поучаствовать в технологической революции.
Но как мы дошли до того, что растет число желающих, готовых сознательно отдать свои данные в руки неизвестных?
Заработок на обмане
Если раньше мошенники сами искали жертву, добывали фотографии или записи голоса, то теперь ситуация меняется. Появляются добровольцы, которые готовы сотрудничать. Первые подобные объявления зафиксировали в Китае. Молодая женщина прямо указала, что хочет стать моделью для дипфейков, и даже подчеркнула, что у нее есть опыт участия в финансовых махинациях. И это только вершина айсберга.
Вместо того чтобы скрываться, такие люди теперь открыто предлагают свои данные через объявления. Кто-то из них действительно хочет заработать, предоставляя лицо для создания виртуальных персонажей в рекламе или кино. Но есть и те, кто идет на сговор с мошенниками. Они отдают свои изображения и голос, зная, что это может быть использовано для обмана людей или хищения денег со счетов. И что самое пугающее, они получают за это процент от "добычи".
Видео, которые выглядят как настоящие
Дипфейки уже давно перестали быть просто развлечением, теперь они превратились в мощный инструмент манипуляции. Мошенники используют поддельные видео или аудио, чтобы выдавать себя за чиновников, банкиров или даже чьих-то родственников. Технологии синхронизации губ, когда на видео человек якобы произносит то, чего никогда не говорил, выглядят настолько реалистично, что отличить подделку от оригинала становится почти невозможно.
Так, недавно в России мошенники создали поддельное видео от имени МВД, которое выглядело как вполне реальный официальный ролик. Представьте, что вы видите такой ролик в соцсетях, и ведь мало кто станет сомневаться в его подлинности, если все выглядит как настоящее.
И это только начало. Эксперты предупреждают: в 2025 году число преступлений с использованием ИИ может вырасти в 8-10 раз.
Борьба с дипфейками
Эксперты по кибербезопасности предлагают различные методы борьбы с дифпейками. Один из них – повышение цифровой грамотности населения. Люди должны быть осведомлены о том, как работает технология дипфейков и как можно защититься от мошеннических атак.
Кроме того, эксперты предлагают ввести законодательные меры, которые бы наказывали людей за использование ИИ в мошеннических целях.
Нашли нарушение? Пожаловаться на содержание