Дезинформация – это бич Интернета. Поэтому нет ничего удивительного в том, что соцсети, порталы и прочие платформы пытаются вычислить и устранить недостоверную информацию. Как правило, для этих целей используется своеобразный «фильтр» - компьютерный алгоритм, анализирующий содержание контента перед его публикацией. Аналогичные задачи выполняют и модераторы. Но есть ли в этом необходимость?
Что выяснили исследователи
Недавнее исследование, проведенное Фарназом Джаханбахшем, аспирантом лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и его коллегами, показало, что люди довольно-таки легко определяют достоверна информация или нет.
Ученые пришли к выводу о том, что значение модерации и фильтрации информационного потока изрядно преувеличено, обмануть пользователей не так-то просто, как принято считать.
Как работали ученые
Для исследования специалисты создали экспериментальную платформу, схожую с социальными сетями. По задумке ученых люди, принимающий участие в исследовании, должны были самостоятельно управлять новостной лентой, отметая лживые публикации.
Перед тем, как начать исследование, специалисты провели опрос на тему того, как пользователи фильтруют публикации и определяют достоверность контента. На основании полученных данных и была разработана платформа для эксперимента.
В ходе исследования ученые установили, что люди весьма точно оценивают информационные публикации на достоверность. Что же касается модерации, то участники эксперимента поступали по-разному. Одни полностью блокировали источник недостоверного контента, другие просто использовали инструменты фильтрации, устраняя посты из собственной версии новостной ленты.
Подведя итоги эксперимента, ученые пришли к выводу о том, что децентрализация фильтрации и модерации информационного потока является более эффективной, чем применение компьютерных алгоритмов или найм специалистов.
Нашли нарушение? Пожаловаться на содержание