РОЦИТ проверил соцсети на предмет борьбы с «группами смерти»

РОЦИТ продолжает следить за работой площадок с “группами смерти” и решил на практике проверить, как быстро популярные социальные сети блокируют контент суицидальной тематики.

Результаты эксперимента показали, что из трех соцсетей, участвовавших в эксперименте, только одна оперативно удаляет такой контент.

"ВКонтакте" Источник: dixinews.ru Автор фото: Никита Белов

Москва, 3 апреля - DIXINEWS.

Организаторы эксперимента создали публичную страницу "ВКонтакте", сообщество в Facebook и аккаунт в Instagram, в названиях которых использовали характерные для «групп смерти» слова: "синий кит", "тихий дом", "blue whale". На страницах разместили мрачные иллюстрации и стихи, а посты отметили типичными для суицидальных пабликов хештегами.

После публикации оценивалась скорость реакции модераторов или системы на подобные записи, которые появлялись каждые два часа. ВКонтакте посты удалялись в течение нескольких минут, максимум — двух часов. Сообщества, размещавшие такие записи блокировались. На других площадках материалы провисели больше суток, после чего сообщества были удалены или скрыты настройками приватности.

Социальные сети активно борются с суицидальными пабликами. К примеру, ВКонтакте с начала января 2017 года заблокировала более 600 тыс. бот-аккаунтов с характерными для «групп смерти» хештегами, единственная цель которых — распространять тематические теги. По словам представителей площадки, у них есть собственные технологии на основе нейросетей и искусственного интеллекта, которые используются для анализа записей пользователей. Страницы, на которых обнаружены хештеги «групп смерти», блокируют, а автора спорного поста просят объяснить причины публикации. В зависимости от ответа, ему предлагают помощь психологов фонда «Твоя территория», дают совет по улучшению безопасности страницы или призывают не распространять опасные записи и хештеги даже в рамках борьбы с ними. Кроме того, с февраля у каждого пользователя появилась возможность пожаловаться на подозрительные сообщества и посты в службу поддержки, указав причину «Призывы к суициду».

О работе по борьбе с суицидальным контентом заявляют и зарубежные социальные сети. В марте Facebook объявил о начале внедрения алгоритмов искусственного интеллекта для поиска в постах и комментариях шаблонов на тему суицида. Найденные материалы анализируются специалистами для оперативного вмешательства в случае необходимости. Кроме того, в Facebook можно получить помощь от общественных организаций в режиме онлайн.

Пользователи Facebook могут сообщить администрации социальной сети о том, что друг находится в критической психологической ситуации — ему будет предложена профессиональная помощь. Похожая функция недавно появилась и в Instagram. Автор «подозрительного» поста после сигнала от другого пользователя или публикации опасного хэштега получит сообщение: «Кто-то увидел ваш пост и думает, что вам может быть морально тяжело в данный момент. Если вам действительно нужна помощь, мы будем рады помочь». После этого пользователь сможет узнать, как связаться с психологом, позвонить в службу поддержки или поговорить с другом.


Популярное сегодня

Общественники обсудят планы географических экспедиций посвященных году экологии в России