Новое исследование показывает, что правительственное законодательство, направленное на выявление и умеренное использование опасного контента в социальных сетях, может быть эффективным в снижении вреда даже на таких быстроразвивающихся платформах, как X (ранее Twitter).

Сообщения в социальных сетях, такие как те, которые пропагандируют терроризм и ненависть, опасные вызовы, подвергающие риску жизни подростков, или те, которые приукрашивают самоубийства, представляют значительную угрозу для общества. И этот вред распространяется в геометрической прогрессии, подобно инфекционному заболеванию.

Доктор Мариан-Андрей Ризойу из Лаборатории поведенческих исследований данных Технологического университета Сиднея (UTS) и Филипп Дж. Шнайдер из Федеральной политехнической школы Лозанны использовали современное моделирование распространения информации для анализа динамики распространения контента.

Исследование “Эффективность модерации вредоносного онлайн-контента” было опубликовано в журнале PNAS. В нем отмечается, что даже при 24-часовом сроке выполнения работ санкционированная правительством внешняя модерация, вероятно, будет эффективной в ограничении вреда.

“У социальных сетей, таких как Facebook, Instagram и Twitter, теперь X, нет особого стимула бороться с вредоносным контентом, поскольку их бизнес-модель основана на монетизации внимания”, – говорит доктор Мариан-Андрей Ризою из Лаборатории поведенческих исследований данных Технологического университета Сиднея (UTS).

“Илон Маск приобрел Twitter с заявленной целью сохранить свободу слова на будущее. Однако наряду со свободой слова в этом нерегулируемом пространстве распространяется и процветает заблуждение и дезинформация”.

В ответ многие страны, включая Австралию, стремятся вмешаться и регулировать ситуацию. Европейский совет предпринял новаторский шаг, приняв Закон о цифровых услугах и Закон о цифровых рынках для борьбы с распространением опасного контента.

Законодательство ЕС требует, чтобы проверенные рекламодатели выявляли вредоносный контент, который платформы затем должны удалить в течение 24 часов. Однако критики предположили, что законодательство может оказаться неэффективным, учитывая скорость распространения контента в социальных сетях.

“Мы видели примеры в Twitter, когда публикация поддельного изображения взрыва возле Пентагона приводила к падению фондового рынка США за считанные минуты, поэтому были сомнения относительно того, окажут ли влияние новые правила ЕС”, – говорит доктор Ризойу.

Чтобы лучше понять взаимосвязь между задержкой модерации и вероятным снижением вреда, исследователи изучили два ключевых показателя: потенциальный вред и период полураспада содержимого.

Потенциальный вред представляет собой количество вредоносных потомков, сгенерированных одним сообщением, а период полураспада контента обозначает время, необходимое для создания половины всех потомков.

Предыдущие исследования определили период полураспада постов в социальных сетях на разных платформах. У X (Twitter) самый быстрый период полураспада – 24 минуты, за ним следует Facebook – 105 минут, Instagram – 20 часов, LinkedIn – 24 часа и 8,8 дней для YouTube.

“Меньший период полураспада означает, что наибольший вред наносится сразу после публикации контента, и модерация контента должна выполняться быстро, чтобы быть эффективной. Мы обнаружили, что время реакции, необходимое для модерации контента, увеличивается как с увеличением периода полураспада контента, так и с потенциальным вредом”, – сказал он.

Исследование имеет значение для политиков, стремящихся ввести аналогичное законодательство в других странах. Это может обеспечить основу и ценное руководство в отношении механизмов модерации контента, указывая, на чем сосредоточить усилия по проверке фактов и как быстро реагировать.

“Ключ к успешному регулированию включает в себя назначение надежных флаггеров, разработку эффективного инструмента для сообщения о вредоносном контенте на разных платформах и правильный расчет необходимого времени реакции модераторов”, – говорит доктор Ризойу.

“Понимая динамику распространения контента, оптимизируя усилия по модерации и внедряя нормативные акты, такие как Закон ЕС о цифровых услугах, мы можем стремиться к созданию более здорового и безопасного цифрового общественного пространства, где вредный контент минимизируется, а конструктивный диалог процветает”.