TikTok введет автоматическое удаление видео с обнаженными телами и сценами насилия
TikTok будет использовать автоматизацию для обнаружения и удаления видео, на которых присутствуют изображения обнаженных тел и сцен насилия, пишет Engadget.
TikTok введет автоматическое удаление видео с обнаженными телами и сценами насилия Виктория Сафронова
Алгоритмы будут искать контент, который нарушает политику в области безопасности несовершеннолетних. Речь идет в том числе о сценах насилия, изображений наготы, секса, контента с пропагандой незаконной деятельности и запрещенных товаров.
При обнаружении нарушений система в тот же момент удалит видео. Разместивший такой контент пользователь сможет подать апелляцию.
TikTok тестировал и настраивал системы для поиска и удаления нарушающего политику контента соцсети в течение 2020 года. Автоматический режим начнет работать в США и Канаде в ближайшие несколько недель.
В TikTok сообщили, что только один случай из 20 автоматических удалений был произведен по ошибке. Компания надеется повысить уровень точности алгоритмов и отмечает, что «запросы на обжалование удаления видео остались неизменными».
Автоматизация должна освободить время сотрудников службы безопасности TikTok, и они смогут сосредоточиться на контенте, требующем более тонкого подхода — например, видео, содержащие запугивание, преследование, дезинформацию, вражду.
Введение алгоритмов особенно важно, поскольку сотрудники службы безопасности смогут смотреть меньше потенциально тревожных видеороликов — например, содержащих сцены жестокого насилия или эксплуатации детей. Engadget отмечает, что Facebook обвиняют в том, что компания делает недостаточно для защиты психического здоровья модераторов контента, которым приходится просматривать тревожный контент.
Подписывайтесь на наш TG-канал, чтобы быть в курсе всех новостей и событий!
Comments are closed.