Рус Eng За 365 дней одобрено статей: 1942,   статей на доработке: 328 отклонено статей: 650 
Библиотека

Вернуться к содержанию

Социодинамика
Правильная ссылка на статью:

Селективная модерация в условиях виртуальной публичной сферы
Мартьянов Денис Сергеевич

кандидат политических наук

доцент, Санкт-Петербургский государственный университет

191124, Россия, г. Санкт-Петербург, ул. Смольного, 1/3

Martyanov Denis

PhD in Politics

Assistant professor, the department of political institutions and applied political research, Saint Petersburg State University

191124, Russia, Sankt-Peterburg, g. Saint Petersburg, ul. Ul. Smol'nogo, 1/3, 7-i pod''ezd

dsmartyanov@mail.ru
Другие публикации этого автора
 

 
Мартьянова Наталья Александровна

кандидат социологических наук

доцент, Кафедра истории и теории социологии, Российский государственный педагогический университет им. А. И. Герцена

191186, Россия, г. Санкт-Петербург, ул. Набережная Реки Мойки, 48

Martianova Natalia Aleksandrovna

PhD in Sociology

Docent, the department of History and Theory of Sociology, Herzen State Pedagogical University of Russia

191186, Russia, g. Saint Petersburg, ul. Naberezhnaya Reki Moiki, 48

nmart@bk.ru

DOI:

10.25136/2409-7144.2019.12.31759

Дата направления статьи в редакцию:

17-12-2019


Дата публикации:

22-12-2019


Аннотация.

В условиях снижения популярности традиционных медиа, заката телевизионной эры, всё более значимым становится влияние Интернета как фактора социально-политической коммуникации. Предметом данной статьи является селективная модерация в идеологизированных и институциональных виртуальных сообществах социальной сети «Вконтакте». Особое внимание в рамках данной темы уделяется тому, какому из двух идеальных типов – «публичная сфера» или «эхо-камера» – больше соответствует коммуникация в российских социальных сетях. В связи с этим объектом исследования является виртуальная публичная сфера. Авторы статьи подробно рассматривает такие аспекты как концептуализация публичной сферы, категории контрпубличных сфер, эхо-камер и «безопасных мест». Основным методом настоящего исследования выступил полевой эксперимент, проведенный в 115 виртуальных сообществах. Вспомогательными методами выступили метод наблюдения, дискурс-анализ и сетевой метод, позволившие произвести классификацию попавших в выборку ресурсов. Научная новизна исследования заключается в выявлении специфики модерации виртуальных сообществ по критериям преобладающего идеологического дискурса. Основным выводом исследования является то, что в целом коммуникативное пространство политизированных сообществ «Вконтакте», с одной стороны, модерируется, однако в большинстве случаев подобная модерация не выражается в тотальном исключении критически настроенных участников из коммуникации. В то же время очевидна и селективность модерации, поскольку блокировка критиков является более заметной, чем блокировка адептов сообществ.

Ключевые слова: публичная сфера, эхо-камера, идеологическая сегрегация, модерация, виртуальное сообщество, безопасные места, управление Интернетом, селективная модерация, Вконтакте, социальные сети

Исследование выполнено при финансовой поддержке РФФИ и АНО ЭИСИ в рамках научного проекта № 19-011-31551 «Управляемость и дискурс виртуальных сообществ в условиях политики постправды»

Abstract.

A trend away from the traditional media and fall of the era of television augments power of the Internet as a factor of sociopolitical communication. The subject of this article is the selective moderation in the ideologized and institutional virtual communities of the social network “Vkontakte”. Special attention is given to the question of which of the two ideal types – “public sphere” or “echo-chamber” communication in the Russian social networks suits the most. The object of this study is the virtual public sphere. The authors examine such aspects as the conceptualization of public sphere, categories of counter-public spheres, echo-chambers and “safe spots”. The field experiment carried out in 115 virtual communities became the main method for this research. Supplementary became the methods of observation, discourse analysis and network, which allowed conducting classification of the selected resources. The scientific novelty consists in the description of specificity of moderation of virtual communities in accordance with the criteria of prevalent ideological discourse. The conclusion is made that the communication platform of the politicized communities in the social network “Vkontakte” is being moderated; however, in majority of case, such moderation does not imply total exclusion of the critically-oriented users from the discussion. At the same time, the selectiveness of moderation is evident, since blocking of critics is more noticeable than blocking of adepts of the communities.

Keywords:

Internet governance, safe places, virtual community, moderation, ideological segregation, echo chamber, public sphere, selective moderation, Vkontakte, social networks

Роль Интернета в современном мире неоспорима. В условиях снижения популярности традиционных медиа, заката телевизионной эры, всё более значимым становится влияние Интернета как фактора социально-политической коммуникации. Интернет играет важную роль в контексте политической пропаганды, работы средств массовой коммуникации, мобилизации групп, организации политических сетевых сообществ. Оборотной стороной политизации киберпространства является то, что и сам Интернет становится всё более регламентированным.

Регулирование публичной сферой современного Интернета осуществляется на нескольких уровнях. Хотя обычно, когда говорят об управлении Интернетом[3] [4], речь идет об организации ICANN, государственных институтах, администрациях крупнейших сайтов, социальных сетей, не меньшее влияние на дискурс интернет-коммуникации оказывает администрирование относительно малых площадок коммуникации – модерация пабликов и сообществ ресурсов Веб 2.0, форумов, гостевых книг и других площадок, предназначенных для группового общения в сети.

Интернет как публичная сфера

Одной из самых заметных концепций, которая видятся вектором развития политической коммуникации в сети Интернет, является концепция публичной сферы Ю. Хабермаса. Хотя сама эта концепция на разных этапах творчества Хабермаса менялась [2], концепт публичной сферы так или иначе был связан с формированием общественного мнения [8]. В числе ряда других характеристик публичное включало в себя добровольность участия, наличие всеобщего доступа, рациональность аргументации, свободу высказывания мнений [2]. Хотя понятие «сфера» является скорее смысловым искажением, появившемся при переводе слова «Öffentlichkeit», «метафорическое» определение публичности как некоего пространства закрепилось в науке в виде пространственного подхода к исследованию публичной сферы [2]. Публичная сфера охватывает огромное количество площадок, которые участвуют в критическом диалоге о публичных вопросах.

В более поздних работах Хабермас пришел к пониманию сетевой природы публичной сферы [7]. Важным моментом является то, что публичная сфера может быть подвержена рефеодализации, означающей доминирование частного и государственного в публичных медиа.

Развитие групповой коммуникации в Интернете происходит в социальных сетях и виртуальных сообществах. Если последние представляют собой требующий более детального изучения лиминальный феномен, находящийся как бы между публичным и приватным, то социальные сети зачастую воспринимаются именно как публичная сфера. В связи с этим возникает вопрос: кто и на каком основании должен регулировать коммуникацию в публичной сфере?

«Дилемма модератора»: приватное над публичным

Несмотря на то, что в последние годы в сети Интернет всё более заметным становится правовое регулирование [1], центральной фигурой, определяющей, что можно, а что нельзя говорить в сети, остаётся модератор. Именно модератор воспринимается как легитимный интернет-полицейский, имеющий право исключать из коммуникации участников, нарушающих правила ресурсов.

Такой статус модератора не является незыблемым. К. Лангвардт говорит о «дилемме модератора » как важном вопросе перспектив регулирования интернет-контента. Дилемма заключается в следующем. С одной стороны, модераторы, как правило, представляющие частные структуры (от коммерческих фирм, являющихся владельцами сайтов, до неформальных групп), регулируют свободу высказываний в пространствах, открытых для неограниченного числа пользователей, и по сути являющихся публичной сферой, не имея на это, казалось бы, никаких легальных оснований. С другой – обществу необходима система мер для регулирования контента (включающего как спам, «мусорные» сообщения, так и попросту нелегальные комментарии). Таким образом, модератор иллюстрирует неформальный институт, которые возник и был легитимирован в «вакууме» формальных институтов.

Неоспоримо то, что модерация играет крайне важную роль в современной интернет-коммуникации. Именно модератор пресекает на ранних стадиях недопустимое поведение пользователей до того, как ему начнет подражать большая часть участников коммуникации. Около половины пользователей так или иначе сталкивалось с «вредоносными» комментариями на различных интернет-ресурсах. [ 13:183]. Неуправляемость коммуникации на сайте является очень серьёзной проблемой. Многие ресурсы закрывают свой доступ к комментированию для пользователей, сталкиваясь с непреодолимыми трудностями при работе модераторов. Поскольку модерация лишь в редких случаях осуществляется оперативно, справляясь с потоком сообщений, публикуемых пользователями, на протяжении всего времени работы сайта, разрабатывается комплекс мер, который позволил бы облегчить работу модераторов: система премодерации, механизмы защиты от спама, автоматическая фильтрация нежелательных слов и, наконец, искусственный интеллект, определяющий наиболее вероятный контент, нарушающий правила коммуникации на ресурсе.

Сложность работы модератора в социальных сетях, где на принятие решения о необходимости блокировки контента или его одобрении, приходится лишь несколько секунд, может приводить к тому, что часть контента будет удаляться (а пользователь может быть заблокирован) по достаточно нелепым причинам. В то же время значительная часть контента, требующая удаления, будет оставаться в сети. За последние несколько лет только на «Facebook» было замечено несколько резонансных случаев «странной» модерации: удаление фотографии статуи копенгагенской Русалочки в 2015 году из-за «сексуального подтекста», удаление аккаунта индийского пользователя за репост фотографии кота в деловом костюме. Но гораздо более важными представляются случаи политической модерации. В 2018 году «Facebook» активно закрывал учетные записи мусульманских групп рохинджа, сообщавших об этнических чистках в Мьянме [11]. Модераторы ресурсов Веб 2.0 блокируют и официальные государственные аккаунты. В декабре 2019 года «Twitter» заблокировал аккаунт Федерального агентства по делам Содружества Независимых Государств.

Нелегитимная модерация вызывает протесты пользователей. В 2005 году широкий резонанс в России получила акция «Убей натовца», которая стала причиной для обсуждения действий «конфликтной комиссии» «Живого журнала». В «Instagram» периодически проходят акции #freethenipple, которые инициируются активистками феминистского движения из-за постоянных блокировок пользовательниц, публикующих собственные фотографии с обнажённой грудью.

Проблема легитимности модерации в крупных социальных сетях усугубляется отсутствием прозрачности в политике модерации. Долгое время правила модерации контента на «Facebook» не раскрывалась под предлогом коммерческой тайны.

Уже сейчас вопросы о транспарентной политике модерации социальным сетями являются дискуссионными в американском обществе [11]. На наш взгляд, очевидно, что «суверенитет» медиакорпораций в сфере модерации контента будет пересматриваться как на законодательном уровне, так и в контексте актуализации общественного контроля. В то же время очевидно, что выработка модели правил в одной стране, может не соответствовать ценностным ориентирам и представлениям о требованиях, выдвинутых в других странах. Отдельным вопросом будет оставаться регулирование контента на международных площадках, где в коммуникации друг с другом участвуют представители разных стран. Создание универсальной глобальной системы критериев модерации контента в условиях политики постправды и усиления геополитического противостояния представляется неоправданной иллюзией.

Модерация в виртуальных сообществах

Если модерация в социальных сетях, даже если она касается блокировки персональных страниц пользователей, предполагает по сути макроуровневое явление, то модерация в виртуальных сообществах с несколькими сотнями или даже тысячами участников, осуществляется в условиях сравнительно автономной и более сплоченной группы, в которой помимо формальных и заявленных правил действуют и неформальные правила, основывающиеся на ценностях сообщества или доминирующих в нём групп, групповые поведенческих практиках, нормах и специфике дискурса.

Поскольку сообщества представляет собой группу внутри публичной сферы, его осмысление возможно через понимание таких феноменов как контрпубличные сферы, эхо-камеры и «безопасные пространства».

Являясь частью большого спектра критиков концепции публичной сферы Ю. Хабермаса, О. Негт и А. Клюге, отвергли универсальность публичной сферы и предложили концепцию «контрпубличных сфер», примером которых стала пролетарская публичная сфера, противопоставленная хабермасовской буржуазной сфере [12]. В числе других работ, говоривших о существовании множества публичных сфер в связи с тем, что публичная сфера «исключает» отдельные группы людей, эта концепция выявила неоднородность общества и конфликтность коммуникации в нём. В целом альтернативные публичные сферы воспринимались как ущемлённые и прогрессивные сообщества, способные благодаря собственному дискурсу влиять на «общую» публичную сферу.

Универсальность принципов рациональной дискуссии Хабермаса ставится под сомнение благодаря концепции «безопасных пространств». Понятие «безопасное пространство» обозначает гомогенные сообщества, которым менее свойственна рациональная дискуссия. «Безопасные пространства» становятся сообществами с общим опытом, как правило, предполагающим ситуации с дискриминацией или насилием. Для многих пользователей сети такие сообщества – возможность поделиться собственной болью с другими и почувствовать солидарность. «Безопасные пространства» также представляют собой намеренную сферу исключения «других», способных нанести вред своими словами участникам сообщества. В первую очередь такие сообщества являются сообществами поддержки и психологической помощи. Но в то же время такие места становятся полем деятельности «борцов за социальную справедливость» (social justice warrior ) – как уничижительно называют в Интернете наиболее агрессивных активистов подобных сообществ, выражающих свою точку зрения за пределами автономных сообществ.

Несмотря на указанный выше факт, связанный с ангажированностью некоторых активистов «безопасных пространств», обычно в научном дискурсе этот термин используется с положительными коннотациями, чего нельзя сказать об эхо-камерах – также автономных и гомогенных пространствах, в которых дискуссии не носят конфронтационного характера и направлены на поддержание характерных для сообщества представлений. Эхо-камеры также не являются образчиками рациональной аргументации, и коммуникация в них представляет собой примеры политики постправды или эмоправды – эффекта, достигаемого с помощью аффективного доверия (или постдоверия) [9].

Хотя и «безопасные пространства», и эхо-камеры обозначают достаточно схожие в коммуникативном смысле феномены, в плане политического дискурса они представляют собой чуть ли не полярные категории, поскольку первые используются для маркирования сообществ «реальных жертв», в то время как вторые – для доминирующего класса, которые «пытается себя выставить жертвой». Так или иначе, оба типа сообществ очевидно отличаются и от публичной сферы и даже контрпубличных сфер, которые также представляют собой открытые площадки, заинтересованные в перенесении собственного дискурса в другие сообщества.

Модерация в автономных сообществах может существенно разниться с модерацией в публичной сфере. Э. Гибсон на основании проведенного эмпирического исследования отмечает, что в «безопасных пространствах» отличается большей скоростью как удаление постов модераторами, так и самоудаление постов под групповым давлением [6]. В «безопасных пространствах» им также была выявлена тенденция к использованию менее грубой лексики, чем в пространствах «публичной сферы».

В научном сообществе декларируется и необходимость усиления модерации в связи с ростом «ненавистнических» и «опасных» сообществ, которые можно классифицировать как эхо-камеры [10].

За рамками нашего исследования остаётся вопрос о макроуправлении такими сообществами, которое возможно либо законодательными мерами (и активно применяется в России для запрета экстремистских сообществ), либо технической блокировкой со стороны администрации социальных сетей в связи с нарушениями условий их политики модерации. Разумеется, и такие меры не являются панацеей, поскольку приводят лишь к перетеканию адептов подобных сообществ на другие ресурсы.

Также мы оставляем за скобками философский вопрос о том, должны ли в принципе соответствовать условиям публичной сферы как нормативному идеалу полупубличные пространства – такие, как идеологизированные сообщества в социальных сетях.

Селективная модерация

Критика идеала публичной сферы нашла отражения в исследованиях, посвященных модерации интернет-ресурсов. Международная группа исследователей, произведших анализ практик модерирования блогосферы, [14] использовали термин «селективная модерация» для выявления «идеологически управляемой модерации». Модератор имеет возможность при помощи удаления комментариев и блокировки пользователей, которые систематически размещают информацию определённого типа, фильтровать пользовательский контент, в т.ч. по политико-идеологическим причинам.

Также широко известно исследование гонконгского профессора К.Фу, который исследовал удаление комментариев на примере цензуры в Китае, используя сравнительный анализ баз данных комментариев в микроблогах. [5]

Методологические рамки исследования

Для выявления особенностей политической коммуникации в самой популярной российской социальной сети «Вконтакте» мы провели исследование особенностей модерации в политизированных сообществах различной идеологической направленности.

Для того, чтобы иметь возможность сравнить отдельные типы ресурсов по ряду критериев, нами была сформирована выборка виртуальных сообществ сети «Вконтакте».

Выборка включила две группы ресурсов: «идеологизированные» и «институциональные». Первая группа была сформирована из сообществ значимых идеологических течений (по 5 сообществ), которые освещают проблематику социал-демократической, консервативной, феминистской, анархистской, националистической, постматериалистской (энвайронменталистской или зелёной и «пиратской») идеологий. В связи с широкой распространенностью было увеличено до 10 сообществ либеральной и либертарианской (вместе), а также коммунистической идеологий. Ещё были добавлены распространённые в сети сообщества «патриотической» (10) и нейтральной (5) политической направленности. Всего – 65 сообществ.

Для включения в выборочную совокупность конкретных «идеологических» виртуальных сообществ в социальной сети «Вконтакте» мы обратились к автоматизированным методам сбора данных, в частности, к встроенному сервису поиска групп. Для выявления релевантных ключевых слов было произведено автоматическое реферирование контента нескольких типичных идеологизированных сообществ. В дополнение к этому были отобраны слова, ассоциирующиеся с ключевыми идеологиями, с помощью использования облака ассоциаций. Затем полученный перечень был подвергнут отбраковке пятью экспертами-политологами и на основании 100 ключевых слов была произведена выгрузка сообществ, имевших в своих названиях данные ключевые слова. Из общего числа выявленных сообществ в дальнейшем были исключены страницы, не предоставлявшие возможность дискуссии, группы с численностью менее 4000 участников, и низким уровнем активности, а также случайно попавшие в выборку группы с очевидной неполитической тематикой.

Далее построение выборки по «институциональным» сообществам, мы воспользовались встроенным механизмом поиска групп в «Вконтакте» по следующим категориям: «СМИ», «хобби» (политика), «политические партии», «общественные организации» и добавили еще 50 сообществ из этих разделов. Сообщества были отобраны исходя из наибольшего числа подписчиков и политизированности данных сообществ. В общем в выборку вошло 115 виртуальных сообществ.

Исследование было проведено методами наблюдения и эксперимента. В ходе наблюдения были выявлены особенности дискурсивных практик, характера коммуникации в попавших в выборку сообществах и особенности модерации контента. На основании наблюдения были сделаны предварительные выводы о характере коммуникации.

Эксперимент является одним из немногочисленных инструментов для выявления реакции модераторов на сообщения пользователей. Эксперимент с использованием комментаторов для исследования специфики модерации был проведен, например, группой корейских исследователей, но выявлял влияние моделей политики модерации на поведение пользователей [13].

В качестве успешного примера реализации эксперимента по выявлению специфики модерации мы использовали исследование 2013 года по селективной модерации в блогосфере [14]. В связи с тем, что наше исследование было сконцентрировано на изучении виртуальных сообществ в социальных сетях, параметры проведения исследования были скорректированы.

Участники полевого эксперимента должны были вступать в дискуссии в 115 виртуальных сообществах и следуя инструкции общаться на политические темы с другими пользователями. На выполнение двух этапов уходила неделя (7 дней) в каждом из сообществ.

Все аккаунты должны были активно участвовать в интернет-дискуссиях в исследуемых виртуальных сообществах в двух основных ролях: «адепт» и «критик». Аккаунт-адепт должен активно поддерживать декларируемые сообществом ценности, тогда как аккаунт-критик – высказывать сомнения, а также скептические, критические замечания. В каждом сообществе было задействовано на два аккаунта-адепта и два аккаунта-критика разного пола.

Использование роли адепта было необходимо не только для повышения сравнимости полученных данных, но и как маркер реакции на нового участника дискуссии. Дело в том, что виртуальные сообщества даже в условиях динамичных и персонализированных социальных сетей могут представлять пространства, близкие тённисовскому «gemeinschaft» – сообществу, в котором люди знают друг друга в лицо. Таким образом, мы постарались учесть фактор реакции сообщества и его модераторов на аккаунт критика как нового участника сообщества, сопоставив в аналогичными данными по аккаунту адепта. Разница в отношении к аккаунтам критика и адепта позволила бы охарактеризовать сообщество либо как плюралистическое, в котором допускается выражение любой политической позиции, а включение новых участников происходит легко, либо гомогенное, в котором представление определённых политических взглядов является затруднительным, а в отношении пользователей, выражающих критическую позицию, механизм включения в сообщества затруднён.

Различия в стратегии для аккаунта-критика выражались в следующем:

Этап 1. Критик выражал сомнения с позиции «критической объективности». Критик должен был активно дискутировать, побуждать других участников дискуссии к взаимодействию с ним, например, к пояснению их позиции.

Этап 2. «Рациональная критика». Критик осуществлял критику идеологической системы, поддерживаемой сообществом в рамках правил данного сообщества. Критика реализовывалась как в форме отдельных высказываний в ветке дискуссии, так и в комментировании самых популярных ответов лояльных сообществу комментаторов, «лидеров мнений».

Стратегия аккаунта-адепта выражалась в следующем:

Этап 1. Короткие конструктивные реплики, выражающие общее согласие с дискурсом сообщества.

Этап 2. Развернутые рациональные сообщения в поддержку, с защитой доминирующего в сообществе дискурса по отношению к любому, высказывающемуся против принятой в сообществе точке зрения.

Всего участниками эксперимента было сделано 1570 комментариев в 115 сообществах на первом этапе и 2036 комментариев на втором этапе. После завершения полевого этапа полученные данные подверглись кодировке и обработке.

Результаты

Как мы и предполагали, аккаунты адептов не были заблокированы. Исключение составил один аккаунт, который был внесён в черный список одного из СМИ, возможно, по технической причине. Ситуация с аккаунтами критиков выглядит обратной. Приведем эти данные.

Таблица 1. Таблица сопряженности. «Идеология» * «Блокировка в сообществе»

Идеологический дискурс, обсуждаемый в сообществе

Блокировки аккаунтов на первом этапе (количество сообществ)

Блокировки аккаунтов на первом этапе (количество сообществ)

Общее количество сообществ, осуществивших блокировки

Общее количество сообществ в выборке

анархистcкий

0

1

1

5

«зелёный»

1

1

2

5

коммунистический

2

1

3

10

консервативный

1

0

1

5

либеральный

1

1

2

8

либертарианский

0

0

0

2

националистический

0

2

2

5

нейтральный

0

0

0

5

«патриотичный»

0

2

2

10

социалистический

0

1

1

5

феминистский

2

2

4

5

В основном блокировки аккаунтов-критиков не превышали 30% от числа сообществ, включенных в выборку по каждой из идеологических групп.

Была выявлена только одна «отклоняющаяся» группа идеологических виртуальных сообществ, в которых блокировки случались либо за выражение сомнений, либо за критические высказывания почти повсеместно – феминистские группы. Единственное сообщество, которое попало в выборку, т. к. осуществляло обсуждение феминистской проблематики в политическом ключе, но при этом не являлось настоящим феминистским сообществом – «Гордые лица русского феминизма» (антифеминистский ресурс), оказалось единственной группой в этом кластере, которая не осуществляла блокировку пользователей.

Таблица 2. Таблица сопряженности «Категория институционального ресурса» * «Блокировка в сообществе»

Тип ресурса по категориям Вконтакте

Блокировки аккаунтов на первом этапе (количество сообществ)

Блокировки аккаунтов на первом этапе (количество сообществ)

Общее количество сообществ, осуществивших блокировки

Общее количество сообществ в выборке

государство

0

1

1

5

общественная организация

0

1

1

5

партии

1

1

2

8

сми

0

1

1

20

хобби

0

1

1

12

В «институциональных» сообществах блокировки за «сомнения» встретились только в одном сообществе – сообществе партии «Яблоко». Рациональная критика также не является распространенной причиной блокировок в «институциональных» сообществах (единственной группой органов власти, которая блокировала пользователей, оказалось Министерство обороны РФ).

Дополнительно по результатам дискурс-анализа мы классифицировали попавшие в выборку сообщества на основании отношения сообщества к политическому режиму в России и разделили сообщества на три группы: лоялистские, антилоялистские и нейтральные (также одно сообщество не было классифицировано в связи с его закрытием).

Таблица 3. Таблица сопряженности «Лоялизм сообщества» * «Блокировка в сообществе»

Тип сообщества по отношению доминирующего дискурса к политическому режиму

Блокировки аккаунтов на первом этапе (количество сообществ)

Блокировки аккаунтов на первом этапе (количество сообществ)

Общее количество сообществ, осуществивших блокировки

Общее количество сообществ в выборке

лоялистские

0

4

4

25

антилоялистские

5

9

14

61

нейтральные

3

3

6

28

Было выявлено, что лоялистские ресурсы не только крайне редко блокируют пользователей за рациональную критику, но также и не блокируют их за выражение сомнений.

После этого цифры, полученные по результатам первого и второго этапа эксперимента, мы дополнили цифрами, полученными в результате проведённого наблюдения, и выявили сообщества, в которых производилась замеченная наблюдателем модерация, включавшая предупреждения и блокировки, а также сообщества, в которых таких мер модераторов замечено не было.

Таблица 4. Таблица сопряженности «Лоялизм сообщества» * «Наличие модерации»

Тип сообщества по отношению доминирующего дискурса к политическому режиму

Общее количество сообществ, осуществивших блокировки

Общее количество сообществ в выборке

лоялистские

15

25

антилоялистские

47

61

нейтральные

21

28

В отношении лоялистских и нелоялистских сообществ серьёзных расхождений выявлено не было. Большая часть сообществ независимо от отношения к политическому режиму модерируется.

Таблица 5. Таблица сопряженности. «Идеология» * «Наличие модерации»

Идеологический дискурс, обсуждаемый в сообществе

Общее количество сообществ, осуществивших блокировки

Общее количество сообществ в выборке

анархистcкий

4

5

«зелёный»

5

5

коммунистический

8

10

консервативный

4

5

либеральный

7

8

либертарианский

2

2

националистический

3

5

нейтральный

4

5

«патриотичный»

8

10

социалистический

5

5

феминистский

4

5

Также нет существенных различий и в осуществлении модерации в разных по идеологическому дискурсу сообществах. Практически везде процент модерируемости является очень высоким.

Таблица 6. Таблица сопряженности «Категория институционального ресурса» * «Наличие модерации»

Тип ресурса по категориям Вконтакте

Общее количество сообществ, осуществивших блокировки

Общее количество сообществ в выборке

государство

3

5

общественная организация

4

5

партии

6

8

сми

11

20

хобби

6

12

Среди «институциональных» сообществ процент заметной модерации хотя и выше 50% от общего числа сообществ в категории, но ниже, чем в идеологических сообществах. Особенно это касается СМИ, где лишь 55% модераторов заметны пользователям. Единственным исключением являются общественные организации, где процент заметных блокировок достаточно высок.

Выводы

Модерация играет очень значимую роль в политической коммуникации в российских социальных сетях и её осуществление заметно в большинстве исследованных сообществ. В то же время можно говорить, как о реализации модели «публичной сферы», предполагающей конфронтационную рациональную коммуникацию, так и о модели эхо-камер, которые имеют высокий процент исключения критически настроенных пользователей.

Исследование не выявило существенных «перекосов» в сторону одной из моделей, что свидетельствовало бы либо о неуправляемости коммуникативным пространством, либо его подконтрольности.

Наиболее последовательно модель публичной сферы реализуется в институциональных сообществах, которые представляют органы власти, средства массовой информации и политические партии – т. е. институты, которые ориентируются на общественное мнение.

Наиболее показательным случаем эхо-камер (или «безопасных мест») в российских политизированных сообществах являются феминистские группы. Это подтверждает выводы Э. Гибсона о более интенсивной модерации в автономных группах.

Библиография
1.
Балашов А. Н. . Правовое регулирование Интернет-отношений: основные проблемы и практика реализации в России // Среднерусский вестник общественных наук, 2016. № 11 (2). С. 113-118.
2.
Бодрунова С.С. Концепция публичной сферы и медиакратическая теория: поиск точек соприкосновения // Журнал социологии и социальной антропологии. 2011. Т. XIV. № 1(54). С. 110-132.
3.
Быков И. А. Управление Интернетом как одна из проблем современных международных отношений // Политическая экспертиза: ПОЛИТЭКС, Т. 4, № 2, 2008, С. 164-174.
4.
Курбалийя Й. Управление Интернетом / Й. Курбалийя; Координационный центр национального домена сети Интернет. М., 2010. 208 с.
5.
Fu, K. (2013) Assessing Censorship on Microblogs in China: Discriminatory Keyword Analysis and the Real-Name Registration Policy. IEEE internet computing. Vol. 17. Issue 3. Pp. 42-50. DOI:10.1109/MIC.2013.28
6.
Gibson, A. (2019). Free Speech and Safe Spaces: How Moderation Policies Shape Online Discussion Spaces. Social Media + Society. https://doi.org/10.1177/2056305119832588
7.
Habermas J. Between Facts and Norms: Contributions to a Discourse Theory of Law and Democracy. Cambridge, 1996.
8.
Habermas J. The Public Sphere: An Encyclopedic Article // New German Critique. 1974. Vol. 3. P. 49.
9.
Harsin J. (2017). Trump l’Œil: Is Trump’s Post-truth Communication Translatable? Contemporary French and Francophone Studies. 21(5). Pp. 512–522.
10.
Hussam H., Maaz M, Fareed Z. Rishab N. (2019). To Act or React: Investigating Proactive Strategies For Online Community Moderation. // https://arxiv.org/abs/1906.11932
11.
Langvardt, K. (2018) Regulating Online Content Moderation. Georgetown Law Journal, June 2018, Vol. 106, Issue 5. p. 1353
12.
Negt O., Kluge A. (1993) Public sphere and experience : toward an analysis of the bourgeois and proletarian public sphere. Mineapolis. University of Minnesota Press.
13.
Suh K.-S., Lee, S., Suh, E.-K., Lee, H., Lee, J. (2018) Online Comment Moderation Policies for Deliberative Discussion–Seed Comments and Identifiability, Journal of the Association for Information Systems: Vol. 19: Iss. 3, Article 2. P. 182-208. // https://aisel.aisnet.org/jais/vol19/iss3/2
14.
Yun G. W., Park S,-Y, Holody K., Yoon K. S., Xie S. (2013) Selective Moderation, Selective Responding, and Balkanization of the Blogosphere: A Field Experiment, Media Psychology, 16:3, 295-317, DOI: 10.1080/15213269.2012.75946
References (transliterated)
1.
Balashov A. N. . Pravovoe regulirovanie Internet-otnoshenii: osnovnye problemy i praktika realizatsii v Rossii // Srednerusskii vestnik obshchestvennykh nauk, 2016. № 11 (2). S. 113-118.
2.
Bodrunova S.S. Kontseptsiya publichnoi sfery i mediakraticheskaya teoriya: poisk tochek soprikosnoveniya // Zhurnal sotsiologii i sotsial'noi antropologii. 2011. T. XIV. № 1(54). S. 110-132.
3.
Bykov I. A. Upravlenie Internetom kak odna iz problem sovremennykh mezhdunarodnykh otnoshenii // Politicheskaya ekspertiza: POLITEKS, T. 4, № 2, 2008, S. 164-174.
4.
Kurbaliiya I. Upravlenie Internetom / I. Kurbaliiya; Koordinatsionnyi tsentr natsional'nogo domena seti Internet. M., 2010. 208 s.
5.
Fu, K. (2013) Assessing Censorship on Microblogs in China: Discriminatory Keyword Analysis and the Real-Name Registration Policy. IEEE internet computing. Vol. 17. Issue 3. Pp. 42-50. DOI:10.1109/MIC.2013.28
6.
Gibson, A. (2019). Free Speech and Safe Spaces: How Moderation Policies Shape Online Discussion Spaces. Social Media + Society. https://doi.org/10.1177/2056305119832588
7.
Habermas J. Between Facts and Norms: Contributions to a Discourse Theory of Law and Democracy. Cambridge, 1996.
8.
Habermas J. The Public Sphere: An Encyclopedic Article // New German Critique. 1974. Vol. 3. P. 49.
9.
Harsin J. (2017). Trump l’Œil: Is Trump’s Post-truth Communication Translatable? Contemporary French and Francophone Studies. 21(5). Pp. 512–522.
10.
Hussam H., Maaz M, Fareed Z. Rishab N. (2019). To Act or React: Investigating Proactive Strategies For Online Community Moderation. // https://arxiv.org/abs/1906.11932
11.
Langvardt, K. (2018) Regulating Online Content Moderation. Georgetown Law Journal, June 2018, Vol. 106, Issue 5. p. 1353
12.
Negt O., Kluge A. (1993) Public sphere and experience : toward an analysis of the bourgeois and proletarian public sphere. Mineapolis. University of Minnesota Press.
13.
Suh K.-S., Lee, S., Suh, E.-K., Lee, H., Lee, J. (2018) Online Comment Moderation Policies for Deliberative Discussion–Seed Comments and Identifiability, Journal of the Association for Information Systems: Vol. 19: Iss. 3, Article 2. P. 182-208. // https://aisel.aisnet.org/jais/vol19/iss3/2
14.
Yun G. W., Park S,-Y, Holody K., Yoon K. S., Xie S. (2013) Selective Moderation, Selective Responding, and Balkanization of the Blogosphere: A Field Experiment, Media Psychology, 16:3, 295-317, DOI: 10.1080/15213269.2012.75946

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

В своей статье, представленной в журнал «Социодинамика», автором ставится цель рассмотреть селективную модерацию в условиях виртуальной публичной сферы. Очерчивая значимость заявленной темы, автор отмечает, что рРегулирование публичной сферой современного Интернета осуществляется на нескольких уровнях. Хотя обычно, когда говорят об управлении Интернетом, речь идет об организации ICANN, государственных институтах, администрациях крупнейших сайтов, социальных сетей, не меньшее влияние на дискурс интернет-коммуникации оказывает администрирование относительно малых площадок коммуникации – модерация пабликов и сообществ ресурсов Веб 2.0, форумов, гостевых книг и других площадок, предназначенных для группового общения в сети. Логика предпринятого исследования состоит в том, чтобы показать как происходит развитие групповой коммуникации в Интернете в социальных сетях и виртуальных сообществах. Если последние представляют собой требующий более детального изучения лиминальный феномен, находящийся как бы между публичным и приватным, то социальные сети зачастую воспринимаются именно как публичная сфера. В связи с этим у автора статьи возникает вопрос: кто и на каком основании должен регулировать коммуникацию в публичной сфере? В данном исследовании автор утверждает, что модерация играет крайне важную роль в современной интернет-коммуникации. Именно модератор пресекает на ранних стадиях недопустимое поведение пользователей до того, как ему начнет подражать большая часть участников коммуникации. Около половины пользователей так или иначе сталкивалось с «вредоносными» комментариями на различных интернет-ресурсах. При этом отмечается, что неуправляемость коммуникации на сайте является очень серьёзной проблемой. Многие ресурсы закрывают свой доступ к комментированию для пользователей, сталкиваясь с непреодолимыми трудностями при работе модераторов. Делается обобщение: поскольку модерация лишь в редких случаях осуществляется оперативно, справляясь с потоком сообщений, публикуемых пользователями, на протяжении всего времени работы сайта, разрабатывается комплекс мер, который позволил бы облегчить работу модераторов: система премодерации, механизмы защиты от спама, автоматическая фильтрация нежелательных слов и, наконец, искусственный интеллект, определяющий наиболее вероятный контент, нарушающий правила коммуникации на ресурсе. В статье затрагивается вопрос и о сложности работы модератора в социальных сетях, где на принятие решения о необходимости блокировки контента или его одобрении, приходится лишь несколько секунд, может приводить к тому, что часть контента будет удаляться (а пользователь может быть заблокирован) по достаточно нелепым причинам. В то же время значительная часть контента, требующая удаления, будет оставаться в сети. Как отмечается, за последние несколько лет только на «Facebook» было замечено несколько резонансных случаев «странной» модерации: удаление фотографии статуи копенгагенской Русалочки в 2015 году из-за «сексуального подтекста», удаление аккаунта индийского пользователя за репост фотографии кота в деловом костюме. Но гораздо более важными автору материала представляются случаи политической модерации. Далее автор обратился к анализу модерации в виртуальных сообществах и заключил, что если модерация в социальных сетях, даже если она касается блокировки персональных страниц пользователей, предполагает по сути макроуровневое явление, то модерация в виртуальных сообществах с несколькими сотнями или даже тысячами участников, осуществляется в условиях сравнительно автономной и более сплоченной группы, в которой помимо формальных и заявленных правил действуют и неформальные правила, основывающиеся на ценностях сообщества или доминирующих в нём групп, групповые поведенческих практиках, нормах и специфике дискурса. При этом автор специально оговаривает, что за рамками исследования остаётся вопрос о макроуправлении такими сообществами, которое возможно либо законодательными мерами (и активно применяется в России для запрета экстремистских сообществ), либо технической блокировкой со стороны администрации социальных сетей в связи с нарушениями условий их политики модерации. Разумеется, и такие меры не являются панацеей, поскольку приводят лишь к перетеканию адептов подобных сообществ на другие ресурсы.. Представляется, что автор в своем материале затронул важные для современного социогуманитарного знания вопросы. Какие же новые результаты демонстрирует автор статьи? 1. Была выявлена только одна «отклоняющаяся» группа идеологических виртуальных сообществ, в которых блокировки случались либо за выражение сомнений, либо за критические высказывания почти повсеместно – феминистские группы. Единственное сообщество, которое попало в выборку, т. к. осуществляло обсуждение феминистской проблематики в политическом ключе, но при этом не являлось настоящим феминистским сообществом – «Гордые лица русского феминизма» (антифеминистский ресурс), оказалось единственной группой в этом кластере, которая не осуществляла блокировку пользователей. 2. Дополнительно по результатам дискурс-анализа были классифицированы попавшие в выборку сообщества на основании отношения сообщества к политическому режиму в России и разделили сообщества на три группы: лоялистские, антилоялистские и нейтральные (также одно сообщество не было классифицировано в связи с его закрытием). Как видим, автор выполнил поставленную цель, получил определенные научные результаты, позволившие обобщить материал. Этому способствовал адекватный выбор соответствующей методологической базы. Статья обладает рядом преимуществ, которые позволяют дать положительную рекомендацию данному материалу, в частности, автор раскрыл тему, привел достаточные аргументы в обоснование своей авторской позиции, выбрал адекватную методологию исследования Библиография отражает системный характер оценки обозначенной проблематики, позволила автору очертить научный дискурс по рассматриваемому вопросу. И в количественном (было использовано 14 источников), и в качественном смысле список источников и разнообразен, и достаточен для полноценных научных обобщений. Таким образом, статья обладает некоторой новизной, демонстрирует логику научного поиска, содержит концептуальные выводы, а значит, может претендовать на опубликование в научном издании.