Как «вовлеченность» делает вас уязвимыми для манипуляций и дезинформации в социальных сетях

Young man stands with backpack and holds smartphone, in the city, looking sad, social media

10 сентября 2021 года.

Facebook тихо экспериментирует с уменьшением количества политического контента, который он помещает в новостную ленту пользователей. Этот шаг является молчаливым признанием того, что алгоритмы компании могут быть проблемой.

Суть вопроса заключается в различии между провоцированием ответной реакции и предоставлением контента, который нужен людям. Алгоритмы социальных сетей — правила, которым следуют компьютеры при принятии решений о том, какой контент вы увидите, — в значительной степени опираются на поведение людей, принимая эти решения. В частности, они следят за контентом, на который люди реагируют или «вовлекаются» в него, ставя лайки, комментируя и делясь им.

Как специалист по информатике, изучающий способы взаимодействия большого количества людей с помощью технологий, я понимаю логику использования мудрости толпы в этих алгоритмах. Я также вижу существенные подводные камни в том, как компании социальных сетей делают это на практике.

От львов в саванне до лайков на Facebook

Концепция «мудрости толпы» предполагает, что использование сигналов от действий, мнений и предпочтений других людей в качестве руководства приведет к принятию правильных решений. Например, коллективные прогнозы обычно более точны, чем индивидуальные. Коллективный разум используется для прогнозирования финансовых рынков, спорта, выборов и даже вспышек заболеваний.

За миллионы лет эволюции эти принципы были закодированы в человеческом мозге в виде когнитивных предубеждений, которые имеют такие названия, как «знакомство», «простое воздействие» и «эффект бандвагона». Если все начинают бегать, то и вы должны начать бегать; возможно, кто-то увидел приближающегося льва, и бегство может спасти вам жизнь. Вы можете не знать, почему, но мудрее задавать вопросы потом.

Ваш мозг улавливает подсказки из окружающей среды — в том числе от сверстников — и использует простые правила, чтобы быстро перевести эти сигналы в решения: Идти с победителем, следовать за большинством, копировать соседа. Эти правила замечательно работают в типичных ситуациях, потому что основаны на здравых предположениях. Например, они предполагают, что люди часто действуют рационально, маловероятно, что многие ошибаются, прошлое предсказывает будущее и так далее.

Технологии позволяют людям получать сигналы от гораздо большего числа других людей, большинство из которых они не знают. Приложения искусственного интеллекта активно используют эти сигналы популярности или «вовлеченности» — от выбора результатов поисковых систем до рекомендации музыки и видео, от предложения друзей до ранжирования постов в новостных лентах.

Не все вирусное заслуживает того, чтобы быть вирусным

Наше исследование показывает, что практически все платформы веб-технологий, такие как социальные сети и системы рекомендаций новостей, имеют сильное предубеждение против популярности. Когда приложения руководствуются такими признаками, как вовлеченность, а не явными запросами в поисковых системах, предвзятое отношение к популярности может привести к вредным непредвиденным последствиям.

Социальные сети, такие как Facebook, Instagram, Twitter, YouTube и TikTok, в значительной степени полагаются на алгоритмы искусственного интеллекта для ранжирования и рекомендации контента. В качестве исходных данных эти алгоритмы берут то, что вам нравится, что вы комментируете и чем делитесь — другими словами, контент, которым вы пользуетесь. Цель алгоритмов — максимизировать вовлеченность, выясняя, что нравится людям, и ранжируя это в верхней части их лент.

На первый взгляд это кажется разумным. Если людям нравятся достоверные новости, мнения экспертов и забавные видео, то алгоритмы должны выявлять такой высококачественный контент. Но мудрость толпы делает ключевое предположение: что рекомендация того, что популярно, поможет высококачественному контенту «всплыть».

Мы проверили это предположение, изучив алгоритм, который ранжирует товары, используя сочетание качества и популярности. Мы обнаружили, что в целом предвзятое отношение к популярности скорее снижает общее качество контента. Причина в том, что вовлеченность не является надежным показателем качества, если с материалом ознакомилось мало людей. В таких случаях вовлеченность создает шумный сигнал, и алгоритм, скорее всего, усилит этот первоначальный шум. Когда популярность низкокачественного товара станет достаточно большой, он будет продолжать усиливаться.

Алгоритмы — не единственное, на что влияет предвзятое отношение к вовлеченности, — оно может влиять и на людей. Факты показывают, что информация передается через «сложное заражение», то есть чем больше раз кто-то сталкивается с идеей в сети, тем больше вероятность того, что он примет ее и повторно распространит. Когда социальные сети сообщают людям о том, что какой-то предмет становится вирусным, их когнитивные предубеждения срабатывают и приводят к непреодолимому желанию обратить на него внимание и поделиться им.

Не очень мудрая толпа

Недавно мы провели эксперимент с использованием приложения для повышения новостной грамотности под названием Fakey. Это разработанная нашей лабораторией игра, которая имитирует новостную ленту, как в Facebook и Twitter. Игроки видят смесь актуальных статей из фальшивых новостей, недобросовестной науки, гиперпартийных и конспирологических источников, а также основных источников. Они получают очки за то, что делятся новостями из надежных источников или ставят лайки, а также за то, что отмечают статьи с низкой достоверностью для проверки фактов.

Мы обнаружили, что игроки охотнее ставят лайки и реже отмечают статьи из малодостоверных источников, когда видят, что многие другие пользователи уже обращались к этим статьям. Таким образом, метрики вовлеченности создают уязвимость.

Мудрость толпы не работает, потому что она построена на ложном предположении, что толпа состоит из разнообразных, независимых источников. Есть несколько причин, по которым это не так.

Во-первых, из-за того, что люди склонны общаться с похожими людьми, их онлайн-сообщество не слишком разнообразно. Легкость, с которой пользователь социальных сетей может удалить из друзей тех, с кем он не согласен, толкает людей в однородные сообщества, часто называемые эхо-камерами.

Во-вторых, поскольку друзья многих людей являются друзьями друг друга, они влияют друг на друга. Известный эксперимент показал, что знание того, какая музыка нравится вашим друзьям, влияет на ваши собственные предпочтения. Социальное стремление соответствовать искажает ваши независимые суждения.

В-третьих, сигналы популярности можно подтасовать. За годы своего существования поисковые системы разработали сложные методы борьбы с так называемыми «фермами ссылок» и другими схемами манипулирования поисковыми алгоритмами. Социальные медиаплатформы, с другой стороны, только начинают узнавать о своих собственных уязвимостях.

Люди, стремящиеся манипулировать информационным рынком, создают фальшивые аккаунты, например троллей и социальных ботов, и организуют фальшивые сети. Они наводнили сеть, чтобы создать видимость популярности теории заговора или политического кандидата, обманывая одновременно алгоритмы платформ и когнитивные предубеждения людей. Они даже изменили структуру социальных сетей, чтобы создать иллюзию мнения большинства.

Снижение вовлеченности

Что делать? В настоящее время технологические платформы занимают оборонительную позицию. Во время выборов они становятся более агрессивными в борьбе с фальшивыми аккаунтами и вредной дезинформацией. Но эти усилия могут быть сродни игре в «выбей-выбей».

Другой, превентивный подход заключается в том, чтобы добавить трения. Другими словами, замедлить процесс распространения информации. Высокочастотные действия, такие как автоматическое проставление лайков и обмен информацией, могут быть подавлены с помощью CAPTCHA-тестов или платы. Это не только уменьшит возможности для манипуляций, но и позволит людям уделять больше внимания тому, что они видят, благодаря меньшему количеству информации. Это оставит меньше возможностей для влияния предвзятости на решения людей.

Кроме того, компании, работающие в социальных сетях, могли бы скорректировать свои алгоритмы, чтобы меньше полагаться на вовлеченность при определении контента, который они вам предоставляют.

Автор — Филиппо Менцер, профессор информатики и вычислительной техники, Университет Индианы.

Ссылка на основную публикацию