Новое исследование показало, насколько легко можно манипулировать мнением публичных политиков

Новое исследование показало, насколько легко можно манипулировать мнением публичных политиков

0 4

Новостные сводки последних лет с завидной периодичностью пестрят заголовками о манипулировании общественным мнением. Специальный орган Североатлантического альянса провел очередной эксперимент, наглядно показавший, как это происходит и насколько эффективно социальные сети могут противостоять подобным явлениям.

Центр превосходства в стратегических коммуникациях НАТО (Strategic Communications Centre of Excellence) заказал исследование у аккредитованной специализированной фирмы из Риги (Латвия). Та, в свою очередь, купила у трех российских СММ-агентств 337 768 социальных взаимодействий. Они включали «лайки», просмотры и репосты целевых записей в пяти самых популярных социальных сетях — Facebook, Instagram, Twitter, YouTube и TikTok. О результатах сообщает агентство Associated Press.

В качестве целевого контента выступали записи двух американских сенаторов: республиканца из Айовы Чака Грассли (Chuck Grassley) и демократа из Коннектикута Криса Мерфи (Chris Murphy). У обоих «подопытных» были подтвержденные аккаунты (как правило, помечаются галочкой) во всех соцсетях, и они дали свое согласие на участие в эксперименте. Чтобы ненароком не вмешаться в различные геополитические процессы, оба политика разместили безобидный аполитичный контент — фотографии еды и собачек.

После начала эксперимента на целевые записи и видео обрушился шквал социальных взаимодействий. Исследователи знали, что они ненастоящие, но алгоритмы соцсетей — нет. Теоретически на популярных ресурсах должны быть механизмы, отсеивающие такие «лайки», просмотры и репосты от ботов по определенным признакам. На деле же в большинстве случаев они не сработали.

Спустя четыре месяца 98% поддельных социальных взаимодействий остались на своих местах. Что еще неприятнее, 97% аккаунтов, которые исследователи пометили как «недостоверные» (спам, дезинформация или подозрительная активность), тоже сохранились. При этом, судя по косвенным признакам, алгоритмы социальных сетей оценивали целевой контент наравне с остальным, не обращая внимание на купленный трафик.

Иными словами, исследователи смогли легко и просто создать видимость интересного контента, который алгоритмы площадок продвигали, хотя вся связанная с ним социальная активность была ненастоящей. В контексте политики и важных социальных тем это означает, что такие ресурсы, как Facebook, Instagram, Twitter, Youtube и TikTok, фактически не предпринимают никаких действий, ограничивающих манипуляции общественным мнением.

Поражает и стоимость подобных манипуляций — на покупку более 300 тысяч социальных взаимодействий латвийская исследовательская фирма потратила всего 300 евро (чуть более 27 тысяч рублей). Злоумышленник может сравнительно легко и дешево сфокусировать общественное мнение на выгодных для него записях в интернете. Или создавать видимость активного обсуждения одной темы, скрывая другую. Наконец, сильно упрощается имитация значимости публичных персон: неопытному интернет-пользователю трудно отличить «фейковый» аккаунт с сотнями тысяч «лайков» и репостов от реального политика.

Аналогичный эксперимент провели в 2019 году. Сравнивая нынешние результаты с теми, ведущий автор исследования Себастьян Бэй (Sebastian Bay) отметил позитивные изменения. По его словам, Twitter стал реагировать на жалобы пользователей быстрее, а Facebook создал серьезные препоны для регистрации «фейковых» аккаунтов. Однако остальные площадки — YouTube, Instagram и TikTok — выглядят абсолютно беззащитными. Получается, в интернете пользователи находятся в разных по уровню безопасности ситуациях, в зависимости от социальной сети.

Источник

НЕТ КОММЕНТАРИЕВ

Оставить комментарий