Очевидно, что в манипулировании общественным мнением нет ничего нового. Обычно нужного результата добивались, повторяя перед публикой снова и снова конкретную идею и транслируя через СМИ определенную интерпретацию событий, которая отвечает чьим-нибудь интересам. Как правило для этого используются броские фразы и слоганы, которые, как любая коммерческая реклама, повторяются до бесконечности, пока не укоренятся в общественном сознании. Мы недавно наблюдали это на примере выражения «у него руки в крови», которое в последние годы использовалось по отношению к Эдварду Сноудену и Челси Мэннинг. То же самое мы видим сейчас в Великобритании, где консерваторы называют оппозицию «коалицией хаоса». Бесчисленные примеры можно найти в речах Трампа, произнесенных во время его предвыборной кампании 2016 года.
И политическая реклама, естественно, распространилась в социальных сетях. Сегодняшняя экономика интернета способствует повсеместному распространению кликбейта и принципа мгновенного вознаграждения, которые изначально эффективно эксплуатировались в интернет-рекламе, но оказалось, что они также идеально подходят для политики броских заявлений, особенно, когда снова становится популярной тактика разжигания ненависти.
Поскольку социальные сети все больше становятся основной платформой для потребления информации, они также стали пространством, где разворачиваются кампании по пропаганде и дезинформации. Но интернет существует не в вакууме, он является просто отражением нашего общества, со всем хорошим и плохим, что в нем есть.
Постоянные разговоры о ложных новостях (честно говоря, мне кажется, от этого термина, следует отказаться, поскольку он неточен и бесполезен при конструктивном обсуждении) и о ботах в социальных сетях, как мне представляется, свидетельствуют о тревожной тенденции к технофатализму, когда из технологий делают «козла отпущения» и объявляют их причиной серьезных общественных проблем (что повторяется из раза в раз, когда в общество начинает использовать новые технологии), и в результате приводят к своего рода техносолюционизму (уверенности в том, что все проблемы можно решить с помощью технических средств), что ничуть не менее сомнительно.
Мы сейчас наблюдаем тенденцию к чрезмерному регулированию интернет-контента. Например, в Германии был принят закон, который предусматривает штрафы в десятки миллионов евро для компаний, которые своевременно и надлежащим образом не фильтруют контент и не блокируют «ложные новости».
Это все сложные явления и, чтобы их понять, необходимо их глубокое и целенаправленное изучение. Пока нет убедительных доказательств того, что ложные новости и боты в Твиттере оказывают ощутимое влияние, например, на выборы. При этом, они вполне могут его оказывать, но очень важно, чтобы перед принятием новых законов и ограничительных мер у нас был качественное и подтвержденное результатами исследований представление о характере этой проблемы.
Эти проблемы следует изучить, учитывая географические и общественно-политические условия, в которых они проявляются. Их влияние на процессы будет разным в странах, где проводится репрессивная политика и политическая активность связана с серьезной опасностью, и, скажем, в странах, где строго соблюдаются верховенство права и права человека. Такие различия возможно потребуют разных реакций и мер противодействия.
Что касается вопроса о кампаниях по дезинформации, Фейсбук недавно заявил, например, что «несмотря на то, что мы признаем актуальность задачи по мониторингу и защите от информационных операций, охват аудитории у таких операций, выявленных в ходе президентской предвыборной кампании в США в 2016 году, был статистически крайне мал по сравнению с общим числом пользователей, обсуждавших политические вопросы».
Аналогичные выводы сделаны и в исследовании Стэнфордского университета, а профессор и соавтор статьи Мэтью Генцков отметил, что «читатель нашего исследования может со всем основанием сказать, опираясь на приведенные нами факты, что вряд ли ложные новости могли повлиять на результаты выборов» и что «социальные сети были важным, но не основным источников новостей в предвыборный период».
В связи с выборами во Франции Оксфордский университет опубликовал работу, в которой оценивается распределение новостей по социальными сетями перед первым туром выборов и делается вывод, что «наибольшая доля контента, распространявшегося в Твиттере пользователями, интересующимися французской политикой, была произведена новостными агентствами. Также использовалась информация, распространявшаяся политическими партиями, правительственными учреждениями и другими экспертами. Вместе с тем, 19,6% распространявшегося контента включало в себя другие типы политических новостей и информации. Однако, большую часть этого контента составляли не ложные новости, а контент, произведенный самими избирателями».
И кроме этого, если говорить о ботах в Твиттере, имевших прямое отношение к «кандидатам в президенты, то, судя по всему, большинство кандидатов имели примерно одинаковое количество автоматизированных аккаунтов, генерирующих трафик о них».
При этом, по словам исследователей из Оксфорда, этот автоматизированный траффик составлял примерно 7% от общего траффика.
Все это говорит о том, что нам следует остановиться и взглянуть на эту проблему другим углом, что дало бы возможность найти приемлемые и соразмерные решения, которые содействовали бы поощрению и соблюдению права на свободу выражения мнений.
Реакция, вызванная страхом и паникой, вряд ли будет конструктивной, и мы не хотим оказаться в условиях, когда компании вместо судов и общественного мнения получают право решать, что является законным контентом, а что нет, и, если брать шире, мы не хотим вводить режим чрезмерной цензуры, потому что фильтруя контент не решить проблему нетерпимости и расизма. Кроме того, мы можем не осознавать того, что введение определенных ограничений или механизмов контроля над некоторыми технологиями, которые кажутся нам опасными, может иметь непредвиденные последствия для людей, живущих в других частях мира. Например, запрет на анонимность в интернете и принуждение провайдеров следить за этим, будет неизбежно означать, например, что какие-нибудь правозащитники в другой стране не смогут работать в безопасности.
Тем не менее, важно, чтобы общество было хорошо информировано и его не вводили в заблуждение. Когда мы дойдем до того, что социальные сети действительно будут основным источником новостей, а по моему мнению, этого пока не случилось, настоящим ответом на эти вопросы будет образование и медийная грамотность.
И нам следует принять необходимые меры для того, чтобы в первую очередь будущие поколения были готовы войти в политическую жизнь с правильным пониманием того, как работают технологии, как работают СМИ и социальные сети и каким образом на них могут оказывать влияние, а также убедиться в том, что они усвоили ценность информации и обладают средствами активного поиска разнообразной и достоверной информации.
И это не должно быть просто реакцией на проблему дезинформации и пропаганды, это действительно необходимо для воспитания непредвзятости.
Тем не менее, есть ряд соображений, которые следует учесть, чтобы гарантировать, что технологии и интернет могут внести скорее положительный, чем негативный вклад в наше общество.
Во-первых, нам надо переосмыслить свой подход к рекламе в интернете, которая, помимо того, что является опасным рынком, губительным для права на неприкосновенность частной жизни, также является ключевым фактором порочной тенденции, о которой я сейчас говорил. И в конце концов, именно реклама в интернете стала главной причиной распространения кликбейта со всеми вытекающими последствиями.
Во-вторых, мы должны обратиться к крупнейшим производителям программной продукции и потребовать, чтобы они рассекретили их системы алгоритмического принятия решений. Мы просто не можем полагаться на системы, которые отбирают, определяют приоритетность и распространяют информацию, и при этом их принцип работы окутан коммерческой тайной. Даже если эти алгоритмические решения не являются самой актуальной проблемой, они скорее всего ею станут в будущем, и, насколько мы знаем, отказ от технологий, которые работали годами, невероятно тяжел, поэтому нужно удостовериться, что мы с самого начала создаем их с учетом всех этических и общественных соображений.
Текст: Nex, хакер, специалист по безопасности, активист