Rambler's Top100
Реклама
 
Все новости Новости отрасли

Как соцсети борются с «группами смерти»

03 апреля 2017

РОЦИТ продолжает следить за работой площадок с “группами смерти” и решил на практике проверить, как быстро популярные социальные сети блокируют контент суицидальной тематики. Оказалось, что из трех соцсетей, участвовавших в эксперименте, только одна оперативно удаляет такой контент.

Организаторы эксперимента создали публичную страницу ВКонтакте, сообщество в Facebook и аккаунт в Instagram, в названиях которых использовали характерные для «групп смерти» слова: синий кит, тихий дом, blue whale. На страницах разместили мрачные иллюстрации и стихи, а посты отметили типичными для суицидальных пабликов хештегами: 
 
#синий
 #разбуди
#куратор
#тихий
#море
#куратор_жду
#домтихихкитов
#жду
#тихийдон
#киты
#f52
#начатьигру
#моректов
#f48
#разбуди
#хочуиграть
#мне_не_станет_восемнадцати
#ищу_куратора
#вигре
#нуженкуратор
#разбуди_меня_в_4_20
#играначалась
#f56
 
После публикации оценивалась скорость реакции модераторов или системы на подобные записи, которые появлялись каждые два часа. ВКонтакте посты удалялись в течение нескольких минут, максимум — двух часов. Сообщества, размещавшие такие записи блокировались. На других площадках материалы провисели больше суток, после чего сообщества были удалены или скрыты настройками приватности. 
 
Социальные сети активно борются с суицидальными пабликами. К примеру, ВКонтакте с начала января 2017 года заблокировала более 600 тыс. бот-аккаунтов с характерными для «групп смерти» хештегами, единственная цель которых — распространять тематические теги. По словам представителей площадки, у них есть собственные технологии на основе нейросетей и искусственного интеллекта, которые используются для анализа записей пользователей. Страницы, на которых обнаружены хештеги «групп смерти», блокируют, а автора спорного поста просят объяснить причины публикации. В зависимости от ответа, ему предлагают помощь психологов фонда «Твоя территория», дают совет по улучшению безопасности страницы или призывают не распространять опасные записи и хештеги даже в рамках борьбы с ними. Кроме того, с февраля у каждого пользователя появилась возможность пожаловаться на подозрительные сообщества и посты в службу поддержки, указав причину «Призывы к суициду».
 
О работе по борьбе с суицидальным контентом заявляют и зарубежные социальные сети. В марте Facebook объявил о начале внедрения алгоритмов искусственного интеллекта для поиска в постах и комментариях шаблонов на тему суицида. Найденные материалы анализируются специалистами для оперативного вмешательства в случае необходимости. Кроме того, в Facebook можно получить помощь от общественных организаций в режиме онлайн. 
 
Пользователи Facebook могут сообщить администрации социальной сети о том, что друг находится в критической психологической ситуации — ему будет предложена профессиональная помощь. Похожая функция недавно появилась и в Instagram. Автор «подозрительного» поста после сигнала от другого пользователя или публикации опасного хэштега получит сообщение: «Кто-то увидел ваш пост и думает, что вам может быть морально тяжело в данный момент. Если вам действительно нужна помощь, мы будем рады помочь». После этого пользователь сможет узнать, как связаться с психологом, позвонить в службу поддержки или поговорить с другом.
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.