Facebook запустит тестирование новой системы «Оповещение о конфликтах» для снижения токсичности в комментариях сообществ, анонсировано в блоге социальной сети.
Система мониторинга будет основываться на искусственном интеллекте: она сможет анализировать комментарии, которые пользователи оставляют в сообществах Facebook. В случае обнаружения споров или потенциально конфликтных ситуаций система промаркирует их и отправит администратору сообщества уведомление. Сообщения с нецензурной или неприемлемой лексикой получат пометки «moderation alert» («оповещение модератора»).
Новый способ модерации комментариев поможет 70 млн администраторам сообществ соцсети своевременно принимать необходимые действия для предотвращения конфликтов. Администраторы также смогут настраивать модерацию по собственным критериям — их можно добавлять и редактировать в соответствии с потребностями своей группы. Кроме того, владельцы сообществ могут временно ограничить активность комментариев конкретных членов группы и контролировать частоту комментариев к определенным постам.
В апреле Facebook добавила новые методы ранжирования новостной ленты, чтобы настроить ее для каждого пользователя индивидуально. На основе отзывов соцсеть ставит наиболее интересные темы в приоритетные первые строчки ленты.