Искусственный интеллект теперь может убедительно имитировать экспертов по кибербезопасности и медицинских исследователей

Фейковой информацией в Сети уже никого не удивишь. В социальных медиа вводятся даже специальные механизмы для борьбы с ней, что исключает распространение ложных слухов. Особенно такие инструменты защиты общества от дезинформации стали актуальны с момента начала пандемии на фоне распространения коронавирусной инфекции.

Но сейчас появляется угроза совершенно нового уровня. С помощью искусственного интеллекта (ИИ) можно создавать не просто дезинформацию, а имитации экспертных материалов.

Дезинформация нового уровня

Сегодня стало возможно появление информации, которая может вводить в заблуждение не просто как ложный непроверенный факт, а как сложный аналитический текст. Подобные материалы могут представляться как исходящие из специализированных областей вплоть до научных сред. В частности под угрозой оказываются такие области как кибербезопасность и медицина.

Причем беспокойство экспертов вызвано тем, что дезинформация будет появляться непосредственно в научной литературе, представленной и рецензируемыми исследовательскими статьями.

Было обнаружено, что системам ИИ под силу генерация ложной информации с высокой степенью убедительности до самой возможности убеждения экспертов.

Возможные последствия

Традиционная сетевая дезинформация с фейками часто ставит целью введение в заблуждение общественности относительно репутации определенных лиц, брендов, компаний. И в таких ситуациях могут быть серьезные негативные последствия, но в случае с обманом экспертных сообществ ущерб может быть гораздо ощутимее.

Достаточно представить, что будет в случае распространения неверных медицинских инструкций и рекомендаций пациентам и врачам.

Экспериментальный подход

Для анализа подобных последствий эксперты разработали модели ИИ, которые получили название трансформаторов. Их задача заключалась в разработке ложных публикаций в сфере кибербезопасности и медицине по теме COVID-19. Далее сгенерированные материалы были отправлены для тестирования экспертам из этих же сфер. Как показали результаты, созданная таким образом дезинформация могла обмануть даже специалистов.

Позитивная роль

Механизмы борьбы с традиционной дезинформацией также предполагают использование инструментов ИИ. Люди могут и сами выполнять такие проверки и принимать решения по поводу блокировки ложных материалов, но для анализа больших объемов данных без помощи робота не обойтись.

Трансформаторы оказывали помощь Google и другим техно-гигантам в улучшении поисковых систем, разработке переводчиков и т.д. Системы GPT от OpenAI или BERT от Google задействуют механизмы обработки естественного языка для создания переводов и понимания текста. В целом трансформаторы демонстрировали весьма впечатляющие способности в деле создания и обработки текстов, удобных для человеческого восприятия.

Теперь же модели ИИ используются для создания тех же фейков, причем эта практика имеет место уже несколько лет. Крупные сетевые ресурсы наподобие Twitter и Facebook уже столкнулись с практикой распространения фальшивых новостей, созданных ИИ.

Технология угрозы

Специалисты создали модель трансформатора, который мог бы генерировать дезинформацию. Они модифицировали преобразователь GPT-2 на открытых источниках, где обсуждаются уязвимости кибербезопасности и данные об атаках. Под уязвимостью в сфере кибербезопасности понимается, в частности, слабость компьютерной системы, а под атакой – действие, использующее эту уязвимость. К примеру, уязвимостью может быть слабый пароль соцсети, а атака, которая использует эту уязвимость, будет направлена на преодоление этой бреши с последующим доступом к странице.

В базу модели была добавлена фраза из подлинной выборки данных о киберугрозах и на ее основе система сгенерировала остальное описание угрозы. По этому принципу был создан целый массив примерных угроз, а затем его анализировали профессионалы. Как выяснилось, примеры оказались настолько правдоподобными, что настоящие эксперты в сфере борьбы за киберугрозами их восприняли как реальные.

Доля неправды

При генерации информации в формате доклада, отчета или описания того же примера потенциальной киберугрозы трансформатор основывается на вполне реальных данных, но это вовсе не значит, что конечный материал будет правдоподобен.

Можно представить, как подобная дезинформация может сработать в механизме защиты от кибератак в авиационной компании. Специалисты должны в режиме реального времени вести мониторинг безопасности компьютеров, управляющих цифровой инфраструктурой с контролем полетов. Но если будет направлен тот же массив с ложной информацией о кибератаках, штатным экспертам как минимум потребуется время на верификацию и определение достоверности этих сведений. При этом они могут упустить реальные угрозы, ошибки в работе систем и т.д.

Органичная маскировка

То же самое касается сферы медицины, хоть и со своей спецификой. В связи с пандемией возникла огромная проблема распространения исследовательских материалов, которые не прошли экспертную проверку в должной мере. В ситуации, когда важна скорость распространения ценной информации о вирусе, приходилось жертвовать подобными процедурами. Это же касалось и допуска определенных лекарств на первых этапах.

Как показал эксперимент, модель трансформатора могла составлять полные правдоподобные предложения, формируя из них столь же правдивые тексты докладов о побочных эффектах вакцинации.

Исследователей-медиков беспокоит эта возможность генерации фальшивой информации о коронавирусе, в то время как малейшее отклонение в экспертных материалах от реальных данных может причинить огромный вред. В условиях, когда COVID-19 еще не до конца понят наукой и когда широкий круг практикующих врачей может полагаться только на свежие данные исследователей об этом заболевании, появление внешне достоверной, но все же дезинформации может привести к смерти пациентов только лишь из-за допуска ошибки по причине принятия на веру ложных данных.

«Клин клином»

Генерация трансформатором ложной информации, помимо очевидных угроз от того, что эту информацию будут на веру принимать представители отрасли, также создает и другую важную проблему. Возникают сложности внедрения ИИ для выполнения обычных операций с обработкой информации. Если можно представить, что эксперт на месте все-таки способен потратив определенное время разоблачить ложную информацию, то те же обучающиеся модели ИИ не смогут этого сделать. Если они не ориентированы на распознание дезинформации и по умолчанию используют экспертные материалы для процесса обучения, то в их базе также оказывается частица, которая снизит точность работы всей модели.

Из этого можно сделать вывод, что неизбежной будет гонка за точность и эффективность систем ИИ, используемых разными сторонами – киберпреступниками и специалистами в области кибербезопасности.

По большому счету для экспертов в области цифровой защиты в этом процессе нет ничего нового, так как они постоянно изучают способы выявления дезинформации и рано или поздно должны были столкнуться с подобными угрозами от ИИ. Оптимизма добавляет тот факт, что специалисты в разработке методов противодействия могут использовать известные слабые места ИИ, которые в целом характеризуют такие системы независимо от сферы применения. Например, это может касаться характерных текстовых ошибок, которые вовсе никак не связаны с содержанием сгенерированного материала.

Нашли нарушение? Пожаловаться на содержание

А как вы относитесь к распространению искусственного интеллекта?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.