К 2025 году искусственный интеллект станет мощным орудием в руках мошенников. По оценкам специалистов, каждая третья атака будет использовать технологии ИИ. Это приведет к миллионам случаев мошенничества ежемесячно. Аналитики выделяют три основных сценария, по которым будут действовать злоумышленники.
Создание дипфейков

Искусственный интеллект откроет новые горизонты для мошенников. Ожидается массовое производство дипфейков – поддельных изображений, видео- и аудиозаписей, созданных с помощью ИИ. Мошенники будут использовать их для имитации близких, коллег и даже знаменитостей.
Так они смогут вымогать деньги, манипулировать общественным мнением или распространять ложную информацию. Особую опасность представляют дипфейки, создаваемые в реальном времени, которые практически невозможно отличить от оригинала.
Обман пользователей дейтинговых сервисов

Мошенники активно будут использовать дипфейки при участии ИИ для создания фальшивых профилей на сайтах знакомств. Чат-боты, управляемые искусственным интеллектом, будут вести реалистичные диалоги с тысячами пользователей, имитируя живое общение с привлекательными людьми. Цель таких атак – выманить деньги или личную информацию.
Поиск уязвимых жертв
Искусственный интеллект позволит мошенникам проводить тонкую настройку своих атак. Нейросети будут анализировать социальные сети, выявляя пользователей, переживающих трудные времена: тех, кто недавно переехал, потерял близких или испытывает финансовые трудности. Именно такие люди наиболее уязвимы для эмоциональной манипуляции и готовы поверить в любые обещания.
Будьте особенно осторожны при общении в сети с незнакомцами. Ранее Центробанк России предупреждал о новой схеме мошенничества: злоумышленники создают фальшивые приложения, имитирующие официальные приложения ЦБ. Под предлогом защиты от мошенников они уговаривают пользователей установить вредоносное ПО, которое позволяет получить доступ к их банковским данным.
Нашли нарушение? Пожаловаться на содержание