СМИ узнали, как "Фейсбук" модерирует посты в соцсетях / REUTERS

Утечка информации о политике, которую используют модераторы, когда решают, какой контент разрешить, скорее всего, подтолкнет к обсуждению этики гиганта социальных медиа. Об этом пишет Ник Хопкинс в статье "Раскрыты внутренние правила Facebook в отношении секса, терроризма и насилия", опубликованной на сайте газеты The Guardian.

Секретные правила Facebook и основные принципы для принятия решения о том, что его 2 миллиарда пользователей могут публиковать на сайте, впервые раскрываются в расследовании The Guardian, которое будет способствовать началу глобальных дебатов о роли и этике гиганта социальных медиа.

Журналисты The Guardian просмотрели более 100 внутренних руководств по обучению, электронные таблицы и блок-схемы, которые позволяют оценить планы, с помощью которых Facebook регламентирует такие проблемы, как насилие, ненависть, терроризм, порнография, расизм и самоповреждение.

Видео дня

Есть даже рекомендации о практике договорных матчей и каннибализму.

Файлы Facebook дают первое представление о кодексах и правилах, сформулированных сайтом, который находится под огромным политическим давлением в Европе и США.

У модератора есть "всего 10 секунд" на принятие решения / REUTERS

Они демонстрируют трудности, с которыми сталкиваются руководители, пытающиеся отреагировать на новые вызовы, такие как "порно из мести" – и проблемы для модераторов, которые говорят, что они перегружены объемами работы, а это означает, что у них часто есть "всего 10 секунд" для  принятия решения.

"Facebook не может контролировать свой контент", - сказал один источник. "Он стал слишком большим, слишком быстро".

Говорят, что многие модераторы обеспокоены в связи с непоследовательностью и своеобразным характером некоторых пунктов политики. Например, те, которые касаются контента сексуального характера, считаются наиболее сложными и запутанными.

В одном из документов говорится, что Facebook рассматривает более 6,5 млн. отчетов в неделю, касающихся потенциально поддельных учетных записей, известных как FNRP (фейк, не реальный человек).

Используя тысячи слайдов и изображений, Facebook разрабатывает рекомендации, вызывающие беспокойство критиков, которые говорят, что сеть теперь является издателем, и должна более ответственно подходить к удалению полного ненависти, вреда и жестокости контента.

Тем не менее, эти планы могут также вызвать тревогу у сторонников свободы слова, обеспокоенных фактической ролью Facebook как крупнейшего цензора в мире. Обе стороны, вероятно, потребуют большей прозрачности.

The Guardian видел документы, которые получали модераторы Facebook в течение последнего года. Файлы указывают им:

- Замечания, такие как "Кто-нибудь, пристрелите Трампа" должны быть удалены, потому что, будучи главой государства, он находится в защищенной категории. Но позволяется сказать: "Чтобы сломать шею твари, обязательно направьте все давление на середину ее горла", или "отвалить и умри", потому что они не считаются реальными угрозами.

- Видео с насильственной смертью необходимо отмечать как тревожные, но не всегда их нужно удалять, поскольку они могут помочь в осознании таких проблем, как психическое заболевание.

- Некоторые фотографии несексуального физического насилия и издевательств над детьми не должны быть удалены или "подвергнуты действиям", если только не существует садистского элемента.

- Фотографиями жестокого обращения с животными можно делиться, только крайне огорчающие изображения должны быть помечены как "тревожные".

Замечания типа "Кто-нибудь, пристрелите Трампа" должны быть удалены / REUTERS

- Все "хэндмейд"-искусство, демонстрирующее наготу и сексуальную активность, разрешено, но искусство в цифровом формате, показывающее сексуальную активность не допускается.

- Видео с абортами разрешено, если отсутствует нагота.

- Facebook позволит людям прямую трансляции членовредительства, потому что он "не хочет подвергать цензуре или наказывать людей в беде".

- Любой человек с более чем 100 000 последователей на платформе социальных медиа обозначается как общественный деятель, что лишает их полной защиты, предоставляемой частным лицам.

Другие типы комментариев, которые могут быть разрешены, согласно документам, включают в себя следующее: "Маленькая девочка не должна вмешиваться в чужие дела, чтобы папа не ударил ее по лицу" и "Я надеюсь, кто-то убьет тебя". Угрозы считаются либо общими, либо не заслуживающими доверия.

В одном из полученных документов Facebook признает, что "люди используют язык жестокости, чтобы выразить разочарование в Интернете" и чувствуют, что "это можно безопасно делать" на сайте.

В документе говорится: "Они считают, что проблема не вернется к ним, и они равнодушны к человеку, которому угрожают, из-за отсутствия эмпатии, что возникает из-за общения через устройства, а не лицом к лицу.

"Мы должны сказать, что жестокая речь чаще всего необоснована, пока специфика языка не дает нам достаточных оснований признать, что это уже не просто выражение эмоций, а переход к замыслу или планированию. С этой точки зрения, такие фразы, как "Я собираюсь тебя убить" или "Отвали и умри", не заслуживает доверия и являются жестоким выражением неприязни и разочарования".

"Люди обычно выражают пренебрежение или несогласие, угрожая или призывая к насилию, в общем, шуточным и несерьезным образом", - добавили они.

Facebook признал, что "не весь неприемлемый или тревожный контент нарушает стандарты нашего сообщества".

Моника Бикерт, глава отдела глобальной политики Facebook, заявила, что у службы почти 2 миллиарда пользователей, и очень трудно достичь консенсуса относительно того, что разрешить.

"У нас очень разнообразное глобальное сообщество, и у людей будут разные представления о том, чем допустимо делиться. Независимо от того, где вы проведете линию, всегда будут какие-то серые зоны. Например, грань между сатирой и юмором и неприемлемым содержанием иногда очень серая. Очень сложно решить, можно ли оставить какие-то вещи на сайте или нет", - сказала она.

"Мы чувствуем ответственность перед нашим сообществом, за сохранение безопасности, мы стараемся соответствовать. Мы несем полную ответственность. Это обязательства компании. Мы продолжим инвестировать в упреждающее сохранение безопасности сайта, но мы также хотим предоставить людям возможность сообщать нам о любых материалах, которые нарушают наши стандарты".

Она сказала, что некоторые оскорбительные комментарии могут нарушать политику Facebook в некоторых контекстах, но не во всех.

Политика Facebook относительно тем, включая насильственную смерть, изображения несексуального физического насилия над детьми и жестокость к животным, показывает, как сайт пытается лавировать на минном поле.

"Видео насильственных смертей вызывают тревогу, но могут помочь в повышении осведомленности. Что касается видео, мы думаем, что несовершеннолетним нужна защита, а взрослым нужен выбор. Мы отмечаем как "тревожные" видео насильственной смерти людей", - говорится в файлах.

Кадры насилия помечают как тревожные и скрывают от несовершеннолетних / REUTERS

Такие кадры должны быть "скрыты от несовершеннолетних", но не удаляться автоматически, поскольку они могут "быть ценными в повышении осведомленности о членовредительстве, психических заболеваниях или военных преступлениях и других важных вопросах".

Что касается насилия несексуального характера над детьми, Facebook говорит: "Мы не убираем фотографии насилия над детьми. Мы отмечаем как тревожные видеозаписи жестокого обращения с детьми. Мы удаляем изображения жестокого обращения с детьми, если ими делятся из-за садизма или ощущения радости".

На одном из слайдов объясняется, что Facebook не удаляет доказательства несексуального насилия над детьми автоматически, чтобы материалом можно было поделиться, и чтобы "ребенка можно было идентифицировать и спасти, но мы добавляем защиту для ограждения аудитории". Это может быть предупреждение о том, что содержимое видео вызывает беспокойство.

Facebook подтвердил, что есть "некоторые ситуации, когда мы допускаем изображения насилия несексуального характера над ребенком с целью помочь ребенку".

Его политика в отношении жестокого обращения с животными также объясняется одним из слайдов: "Мы разрешаем фотографии и видеозаписи, которые документируют жестокое обращение с животными ради информирования, но можем добавить защиту зрителей от некоторого контента, который воспринимается аудиторией как чрезвычайно тревожный.

"Как правило, изображениями жестокого обращения с животными можно делиться на сайте. Некоторые чрезвычайно тревожные фото могут быть помечены как тревожные".

Фотографии увечий животных, в том числе демонстрирующие пытки, могут быть отмечены как тревожные, но их не удаляют. Модераторы могут также оставлять фотографии жестокого обращения, когда человек пинает или бьет животное.

"Мы разрешаем людям обмениваться изображениями жестокого обращения с животными, чтобы повысить уровень осведомленности и осудить злоупотребления, но удаляем контент, который превозносит жестокость в отношении животных", - говорят в Facebook.

Файлы показывают, что Facebook выпустил новые рекомендации в вопросе наготы после прошлогоднего скандала, когда сеть удалила знаковое фото войны во Вьетнаме, потому что девочка на фотографии была голой.

В настоящее время сеть допускает "исключения, заслуживающие освещения" в рамках принципов освещения "террора войны", но проводит линию в отношении изображений "детской наготы в контексте Холокоста".

Facebook сообщил The Guardian, что использовал программное обеспечение для перехвата некоторого графического контента до того, как он попадал на сайт, но "мы хотим, чтобы люди могли обсуждать глобальные и текущие события ... поэтому иногда значение имеет контекст, в котором используется общий образ насилия".

Некоторые критики в США и Европе потребовали, чтобы компания регулировалась так же, как основные вещатели и издатели.

Но Бикерт сказала, что Facebook – это "компания нового вида". Это не традиционная технологическая компания. Это не традиционная медиа-компания. Мы создаем технологии, и мы чувствуем ответственность за то, как они используются. Мы не пишем новостей, которые люди читают на платформе".

В докладе британских парламентариев, опубликованном 1 мая, говорится, что "крупнейшие и самые богатые социальные медиа-компании позорно далеки от принятия достаточных мер для борьбы с незаконным или опасным контентом, от реализации надлежащих стандартов сообщества или обеспечения безопасности своих пользователей".

"Одно дело, когда вы – маленькое онлайн-сообщество с группой людей, разделяющих принципы и ценности, но когда у вас большой процент населения мира, и вы говорите "поделитесь собой", вы будете в полной неразберихе", - сказала Сара Т. Робертс, эксперт по модерированию контента.

"Затем, когда вы монетизируете эту практику, это превратится в катастрофу".

Facebook постоянно изо всех сил пытается оценить новости или "осведомленность" жестоких образов. Компания недавно столкнулась с жесткой критикой за то, что она не смогла удалить видео об убийстве Роберта Годвина в США, и об убийстве ребенка отцом в Таиланде, платформа также сыграла важную роль в распространении видеозаписей убийств полицейских и других злоупотреблений со стороны правительства.

В 2016 году Facebook удалил видеоролик, показывающий непосредственные последствия убийства Филандо Кастиля полицейскими, но затем компания восстановила удаленное видео, заявив, что удаление было "ошибкой".