www.rookee.ru

Почему дезинформация быстро распространяется в социальных сетях

Рубрика: Теория

Фейковые новости распространяются в онлайне, как лесной пожар. Почему дезинформация так ведёт себя, особенно в социальных сетях? На этот вопрос попытались ответить «Growth Design» в своём новом исследовании, касающемся Facebook и грядущих в США выборов президента.

Почему дезинформация быстро распространяется в социальных сетях

Исследование, опубликованное в октябре 2020-го «Digital New Deal», показало, что с 2016 года распространение ложной информации в Фейсбуке утроилось. Чтобы понять, почему так происходит, давайте взглянем на алгоритмы работы социальной сети.

Существует пять основных причин распространения политической дезинформации через такие социальные платформы, как Facebook, ВКонтакте или Твиттер:

  1. Алгоритмы.
  2. Доступность.
  3. Возможность.
  4. Масштабирование.
  5. Неопределённость.

Начнём с первой. Алгоритмы Фейсбука или ВК оптимизированы под высокий уровень взаимодействия с пользователем. И поскольку человек более склонен реагировать на контент, вызывающий сильные эмоции (страх, отвращение, гнев), алгоритмы «умной ленты» ранжируют такие посты выше, даже несмотря на откровенную ложь.

Примеры фейковых новостей

Дезинформация распространяется быстрее фактов

Исследование Массачусетского технологического института, опубликованное в марте 2018-го, показало, что ложные новости распространяются в социальных сетях на 600% быстрее, чем настоящие.

Когда человеком овладевают сильные эмоции, критическое мышление отходит на второй план. Поэтому, пока вы листаете новостную ленту, Facebook старается подсовывать вам шокирующие посты, совпадающие с вашими взглядами. Социальная сеть прекрасно знает, что наш мозг любит информацию, которая подтверждает то, во что мы уже верим.

Склонность к подтверждению своей точки зрения

Ряд научных экспериментов, проведённых ещё в 1960-х годах, показал, что люди склонны подтверждать имеющиеся у них убеждения. Это называется «предвзятость подтверждения». И поскольку современный интернет всё больше уходит в сторону персонализации, начинают создаваться «пузыри фильтров».

Кроме того, новостные ленты Фейсбука, ВК или Твиттера оптимизированы таким образом, чтобы пользователь мог «усилить» любое сообщение простым нажатием одной кнопки. Поэтому 59% ссылок, которыми люди делятся в социальных сетях, распространяется без прочтения. Это называется «Blind Sharing» или «Слепое Распространение».

Эффект второго порядка

У каждого действия есть последствия. И каждое последствие влечёт за собой новые последствия (иногда нежелательные). Это называется «эффектом второго порядка». Например:

  • Фейсбук и Твиттер побуждают людей делиться контентом, что приводит к большому количеству расшариваний, существенная часть из которых происходит без ознакомления с сутью сообщений.
  • Инстаграм поощряет лайки, что приводит к сосредоточению внимания людей на лайках и порождает социальное давление.

Дезинформация и Эффект подражания

Чем больше людей делятся определённым контентом, тем выше вероятность, что и другие им так же поделятся. Срабатывает «Эффект присоединения к большинству», суть которого заключается в том, что популярность определённых убеждений увеличивается по мере того, как их принимает всё больше людей.

Пример политической рекламы в Фейсбуке

И тут вы можете парировать, что вряд ли кто-то поверит, будто тот или иной кандидат в президенты «пьёт человеческую кровь» или «сотрудничает с пришельцами». Однако тот же Facebook без проблем пропускал политическую рекламу такого плана, до недавнего времени, заявляя, что не намерен проверять факты в объявлениях политиков.

Другой пример. Сатирическое издание «Панорама» неоднократно публиковало выдуманные новости, которые затем транслировались отечественными журналистами, как настоящие факты, начиная с Владимира Соловьёва и заканчивая Первым каналом.

Пример распространения фейковых новостей

Модерация контента и Эффект Стрейзанд

Что касается модерации контента, здесь тоже есть свежие примеры, показывающие, что не всё так просто. Попытка подвергнуть цензуре ту или иную информацию может иметь непреднамеренные последствия в виде дальнейшего распространения этой информации, часто ухудшая положение цензора. Так работает Эффект Стрейзанд. Например, в октябре 2020 года цензура Twitter статьи NYPost о Байдене в конечном итоге удвоила её вирусный охват.

Цензура – это скользкая дорожка. Вряд ли вы хотите, чтобы Фейсбук, ВК или Одноклассники решали за вас, что является правдой, а что – нет. Да и сами соцсети тоже не хотят этим заниматься, поскольку боятся ответственности.

Но как же тогда свести уровень дезинформации к минимуму? Ну, например, можно задумываться каждый раз, когда вы собираетесь поделиться со своими друзьями информацией, без её предварительного прочтения.

Использование собираемых данных во благо

В мире растущей дезинформации ответственность за поддержание истины лежит на каждом. Facebook уже отслеживает, нажали ли вы на статью и как долго её читали. Почему бы не использовать эти данные во благо (сейчас они используются в основном для рекламы)?

Редактор Forbes предложил аналогичную концепцию несколько лет назад. Тогда вопрос звучал так: «Что, если Facebook и Twitter заставят вас прочитать статью, прежде чем вы сможете ею поделиться?»

С тех пор эта идея повторялась в различных вариациях и поддерживалась многими экспертами отрасли. Например, в июне 2020-го был предложен подход с ещё более высоким барьером для распространения контента, в рамках проекта по повышению медиаграмотности «ThinkFirst News».

Тут вы можете подумать, что Фейсбук или любая другая социальная сеть никогда не введёт подобный функционал, так как он, очевидно, ударит по доходам компании. Однако то же самое в своё время могли говорить про «You’re All Caught Up» от Инстаграм. Но решение всё равно было реализовано, так что надежда есть.

Тот же Твиттер, к примеру, активно борется с фейками, особенно в последнее время. В феврале 2020-го они ввели специальные отметки для фейковых фото, видео и аудиозаписей. А в октябре усложнили способ ретвита перед выборами в США (и как показали тесты, открываемость ссылок выросла на 33%).

Чем меньше слепого распространения, тем ниже потенциал охвата фейковыми новостями миллионов читателей! Даже небольшие изменения в механиках социальных сетей могут оказать серьёзное влияние в этой области.

А что вы думаете про функцию «прочти перед репостом»? Как её можно улучшить и стоит ли вообще вводить? Делитесь мнениями в комментариях!

ПОНРАВИЛСЯ ПОСТ? ПОДЕЛИСЬ ССЫЛКОЙ С ДРУЗЬЯМИ!


СТАТЬИ ИЗ РУБРИКИ: