Соцсеть Facebook тестирует программу для предотвращения конфликтов в комментариях

Она может пригодится 70 миллионам пользователей, управляющим страницами. Искусственный интеллект начнет помечать оскорбительные комментарии, размещаемые в сообществах в социальной сети Facebook. В результате модераторы этих страниц будут получать уведомления о возможном конфликте среди подписчиков, пишет издание «Детали». Как сообщает CNN, записи с неприемлемой лексикой в группах получат плашки «moderation alert» («оповещение модератора»). Новый способ маркировки и оповещения позволит воевременно принимать необходимые действия для локализации конфликта в сети. Однако новые ограничения нельзя будет применить к таким темам, как вакцинация, политика, и к культурным различиям. Программный инструмент, как считают в Facebook, пригодится 70 миллионам пользователей, управляющим страницами.