Тексты от искусственного интеллекта вызывают больше доверия, чем человеческие

Общение в социальных сетях стало настоящим открытием для человечества. Поиск собеседников по интересам, красивых мест и недорогих товаров значительно упростился. Но что делать, если оказанным доверием пользуются в плохих целях? И что, если пост написал не человек?

Развивающийся машинный интеллект

На смену устаревшим цифровым инструментам пришла нейросеть. Самообучающаяся база данных со временем научилась выдавать сложные концепции на основе изученного. По сути, она создает оригинальные образы, пусть и «вдохновленные» человеческими работами.

Поколения нейросетей сменяются стремительно, а род деятельности самый разнообразный:

  • для анализа медицинских данных;
  • составления социальных моделей;
  • записи видеороликов;
  • написания картин;
  • составления текстов и т. п.

Последние три обрели небывалую популярность среди обывателей. И в особенности модель GPT, которая может написать и технические документы, и художественный текст. На сегодняшний день, последняя вышедшая модель – GPT-4.

Обман, запрограммированный учеными

Исследователи из Университета Цюриха задались вопросом: насколько реалистичными, вызывающими доверие стали тексты, созданные нейросетями? Для этих целей они использовали явно устаревшую к сегодняшнему дню модель GPT-3.

Но даже такого «древнего» искусственного интеллекта хватило, чтобы обмануть подопытных добровольцев. В эксперименте участвовали граждане из пяти стран:

  • Австралии;
  • Великобритании;
  • Ирландии;
  • Канады;
  • США.

Преимущественно нейросети обучались на англоязычных текстах, поэтому для жителей перечисленных государств сгенерированные сообщения должны быть более качественными.

В качестве запроса к нейросети ученые оставили множество спорных тем, в рамках которых Интернет породил массу конспирологических теорий:

  • опасность вакцинации;
  • облучение вышками 5G;
  • происхождение COVID-19;
  • теория эволюции и ряд аналогичных.

Причем сгенерированные тексты были как правдивыми, так и ложными. А составлялись в формате твитов. К ним подобрали такие же сообщения, но созданные реальными пользователями соцсети.

Безграничное доверие компьютеру

Результат оказался поразительным! Добровольцы указывали, что машинописные твиты вызывали больше доверия безотносительно правдивости информации. Более того, структура текстов GPT-3 оказывалась более простой для восприятия, из-за чего получалось быстрее читать и усваивать изложенную информацию. Причем отличить живой текст от сгенерированного респонденты не смогли.

Далеко идущие выводы

Исследователи предположили, что в будущем это повлияет на проведение информационных кампаний. Доходчивые и вызывающие доверие тексты пригодится:

  • на выборах;
  • в рекламе;
  • во время акций и т. д.

Ученые допустили даже появление законодательных запретов на использование нейросетей в определенных целях.

Нашли нарушение? Пожаловаться на содержание

А вы пользовались нейросетями? Как думаете, они готовы заменить человека?
Комментарии 0
Подписаться
Я хочу получать
Правила публикации
Редактирование комментария возможно в течении пяти минут после его создания, либо до момента появления ответа на данный комментарий.