Facebook закрыл 583m поддельные аккаунты в первые три месяца 2018 года
Опубликованно 31.08.2018 02:46
Facebook принял модерации действий против почти 1,5 млрд аккаунтов и постов, которые нарушают ее стандартов сообщества в первые три месяца 2018 года, компания показала.
В его первом ежеквартальном соблюдения стандартов доклад сообщества, Facebook сказал, что подавляющее большинство модерации акция была против спам сообщений и фейковых аккаунтов: он принял решение по 837m штук спама, и закрыли еще 583m фейковых аккаунтов на сайте в три месяца. Но Facebook также модерируемые 2,5 м шт от ненависти, 1,9 млн штук террористической пропаганды, 3,4 м шт графического насилия и 21м материалов с взрослой наготы и сексуальной активности.
“Это начало пути, а не конец пути, и мы пытаемся быть максимально открытыми, как мы можем,” сказал Ричард Аллан, вице-президент Facebook по общественной политике в Европе, на Ближнем Востоке и в Африке.
Содержание модерируется Facebook зависит от способности компании Найти и воздействовать на контрафактные материалы, а также огромного количества материалов, размещенных пользователями. Например, Алекс Шульц, вице-президент анализа данных, заявил, что количество Контента, модерируются для графического насилия почти втрое по сравнению с предыдущим кварталом. График 1
Одна из гипотез роста, Шульц сказал, что “в [квартале], кое-что случилось в Сирии. Часто, когда есть реальные плохие вещи в мире, много, что делает его на Facebook.” Он подчеркнул, что большая часть модерации в тех случаях был “просто что-то пометив как тревожную”.
Несколько категорий контент, нарушающий правила, изложенные в принципы модерации Facebook, включая снимки сексуальной эксплуатации детей, порно месть, достоверная насилия, суицидальные посты, издевательства, притеснения, нарушения конфиденциальности и авторских прав – не включены в отчет.
На снимках эксплуатации детей, Шульц сказал, что компания по-прежнему необходима, чтобы принимать решения о том, как классифицировать различные сорта материалам, например мультик эксплуатации ребенка.
“Мы гораздо больше сосредоточены в этом пространстве по защите детей, чем выясняя, какие именно категории мы собираемся выпустить во внешнем отчете”, - сказал он.
Facebook также удалось увеличить количество Контента, сняты с нового Ай-инструменты, которые он использовал, чтобы найти и умеренным содержанием без необходимости отдельных пользователей, чтобы пометить его как подозрительный. Эти инструменты особенно хорошо для Контента, таких как поддельные аккаунты и спам: компания заявила, что ей удалось использовать инструменты, чтобы найти на 98,5% фейковых аккаунтов его закрыли, а “почти 100%” спама. График 2
Автоматическая маркировка работал хорошо для поиска экземпляров наготы, поскольку, как заявил Шульц, это было легко для технологии распознавания изображений, чтобы знать, что искать. Труднее, поскольку необходимо принять контекстной подсказки во внимание, был модерации для ненависти. В эту категорию, Facebook сказал, “мы нашли и попадает около 38% содержания мы впоследствии принял решение о, до того, как пользователи сообщили об этом нам”.
Facebook предпринимает шаги по повышению прозрачности в последние месяцы. В апреле компания выпустила публичную версию своего руководства за то, что можно и нельзя делать на сайте – через год после Хранитель открыл тайну правил Facebook для модерирования Контента.
Компания также объявил о мерах, которые требуют политических рекламодателей пройти процесс аутентификации и выявить их принадлежность вместе с их рекламой.
Цифры модерации Facebook пришел через неделю после выхода из принципов Санта-Клара, попытка написать пособие, как большие платформы должен модерировать контент. В принципах говорится, что социальные сети должны опубликовать ряд постов они удалить, предоставить подробную информацию для пользователей, чей контент будет удален, объясняя, почему, и предложить шанс обжаловать решение.
“Это большой первый шаг”, - сказал Джиллиан Йорк из Фонда электронных границ. “Однако, мы не имеем представление о том, как много неверных партер бывает – сколько жалоб, что в результате содержимое восстанавливается. Мы хотели бы, чтобы лучше видеть сообщения пользователям, когда были приняты меры на их счет, поэтому они знают конкретные нарушения”.
Facebook не единственная Платформа, предпринимает шаги к прозрачности. В прошлом месяце на YouTube показали его удалить 8,3 М Видео за нарушение принципов сообщества между октябрем и декабрем.
“Я считаю, что это является прямым ответом на давление, которое они были в течение нескольких лет из различных заинтересованных сторон, включая группы гражданского общества и научных кругов”, - сказал Йорк.
14
Категория: Технологии