Тоталитарный интернет

Беспощадный мир модерации

Как устроена фильтрация контента в Facebook, кто страдает за чистоту социальных сетей и почему им не дождаться избавления?

Кадр из фильма «Заводной апельсин». Режиссер Стенли Кубрик. 1971 © Warner Brothers
Текст: Дмитрий Левин

Материал подготовлен в рамках проекта «The Earth Is Flat - Kак читать медиа?», реализуемого Гёте-Институтом в Москве и порталом COLTA.RU при поддержке Европейского союза



Покрывшая планету глобальная сеть тоже началась с малого — с браузера Mosaic и веб-страниц, связанных между собой гиперссылками. Этой своеобразной надстройки на первичный интернет хватило, чтобы открыть человеку новые грани свободы. В дальнейшем принципы Web 2.0 серьезно упростили механизмы коммуникации в интернете. Блоги, форумы, а чуть позже социальные сети предоставили куда больший простор для общения. На заре новой эпохи интернет обещал только хорошее: абсолютную децентрализацию и множество сообществ, каждое из которых функционировало бы по своим правилам — или без правил вообще. Сегодня эта идея канула в пучину.

Обладающие почти бесконечными ресурсами корпорации потеснили частные сайты и форумы. Они больше. Они красивее. Они удобнее. Хотелось бы сказать, что они попросту лучше — не получается. Когда общество сделало выбор в пользу социальных сетей, оно принесло в жертву децентрализацию. А вместе с ней, так вышло, пожертвовать пришлось и свободой. Тогда и государство вдруг осознало потребность в регуляции интернета. Кажется, еще недавно намерения цензурировать воспринималось в штыки и осуждались, но вот основатель крупнейшей социальной сети в мире заявляет, что интернету нужны «новые правила» и приглашает к их разработке государственные регуляторы.

«Фундаментальная причина существования модерации контента — оправдание ее существования — связана с необходимостью защиты бренда и снятия ответственности с платформы, — объясняет Сара Робертс, доцент Калифорнийского университета в Лос-Анджелесе. — Модерация принципиально служит целям самой платформы. Это охранительный механизм, позволяющий контролировать распространяющийся внутри пользовательский контент».

Корпоративные гиганты настолько влиятельны сами по себе, что могут позволить установить вполне тоталитарные правила цензурирования на своих площадках и привлечь для этого необходимое количество ресурсов. Одной из самых крупных, сложных и беспощадных систем модерации контента обладает Facebook.

Обычный день в офисе

Стажеры по очереди выходят к закрепленному на стене экрану. Никто из них заранее не знает, что именно сейчас увидит. Уже три с половиной недели Хлоя проходит обучение. И сейчас ей не везет: на видео, которая она воспроизводит, убивают человека. Кто-то выложил это в Facebook. Мужчину десятки раз бьют ножом, пока он отчаянно молит о пощаде. Изображение убийства одного и более человек запрещено размещать в соцсети. Хлоя знает об этом и дрожащим голосом проговаривает вслух перед другими стажерами. Когда она возвращается на место, то уже не сдерживает эмоций и срывается в плач. Так журналист The Verge Кейси Ньютон описывает тренинг в компании Cognizant, которой полностью посвящен его обширный материал «The Trauma Floor: The secret lives of Facebook moderators in America».

Представители Facebook и кураторы компаний-подрядчиков в один голос утверждают, что тщательно подготавливают кандидатов и подробно объясняют, с чем им предстоит столкнуться в процессе работы. Как показывает практика, быть полностью готовым невозможно. Ни в реакции девушки, ни в увиденном ею видеоролике для модераторов Facebook нет ничего необычно. Такова работа, на которую они согласились. Следующий стажер вынужден смотреть, как беспилотник методично расстреливает людей, и они один за другим падают замертво. Те из кандидатов, которые пройдут обучение и получат работу, будут зарабатывать 15$ в час. Немногим удастся продержаться дольше года.

Цензура на аутсорсе

Аудитория Facebook — огромна. Более 2,3 миллиарда человек ежеминутно наполняют социальную сеть текстами, картинками и видеороликами. Нет ничего удивительного в том, что отношением социальной сети к модерации контента недовольны буквально все. Консерваторы ругают за подыгрывание либеральной идеологии, либералы — за безразличие к белому национализму и отрицающим Холокост группировкам, государственные структуры — за засилье fake news, правозащитники — за недостаточное внимание к гендерным проблемам и возможность выводить в прямой эфир убийства и самоубийства.

Два года назад Марк Цукерберг объявил о грядущем увеличении штата модераторов. Всего компания планировала нанять 3 тысячи человек — вдобавок к тем 4,5 тысячам, которые уже занимались чисткой соцсети. Судя по всему, пополнения оказалось недостаточно. К концу 2018 года число модераторов снова выросло, на этот раз почти вдвое — до 15 тысяч человек. Количество цензоров увеличилось, а критика, кажется, только усилилась.

© mkhmarketing / CC BY 2.0

Фильтрацию контента Facebook практически целиком отдает на глобальный аутсорс. Вице-президент по операциям компании Эллен Сильвер объясняет такое решение потребностью работать круглосуточно и ориентироваться в различных культурных и языковых контекстах. На самом деле, содержать армию низкоквалифицированного персонала еще и намного дешевле. Зарплата работника на аутсорсе примерно в 8 раз ниже дохода среднего сотрудника Facebook.

Штатные сотрудники компании также участвуют в процессе на правах «первой и последней инстанции». Например, они регулярно вносят поправки во внутренние инструкциям. Им же принадлежит решающий голос в спорной ситуации. По данным The Atlantic, за разработку внутренних правил для модераторов в Facebook отвечает полноценный отдел из 60 человек. Долгое время никто не знал, как устроен свод недоступных широкой публике правил — и возможно, не знали бы до сих пор, но в мае 2017 года издание Guardian опубликовало эти документы.

Точность превыше всего

По словам руководителя управления глобальной политикой Facebook Моники Берт, новая итерация правил выходит еженедельно. Содержащиеся в ней изменения могут быть как глобальными, так и самыми незначительными. Когда единственное слово, которое ранее считалось оскорбительным, меняет свое значение, в документ вносятся коррективы. Конечная задача составителей этого руководства — не оставить никакого простора для интерпретации. Таким образом, во главе идеологии фильтрации контента поставлен единственный параметр — точность (accuracy).

Согласно этому параметру компания оценивает эффективность каждого отдельного сотрудника. Значение, удовлетворительное или нет, зависит от того, какое количество принятых подрядчиками решений будут одобрены штатными сотрудниками Facebook, а сколько из них будут отклонены. Сумасшедший упор на точность (рекомендуемое значение — 95 процентов) сделан вполне сознательно. Изо всех сил социальная сеть стремится искоренить вариативность решений и предвзятость среди модераторов. Свод правил в результате получается невероятно подробным и часто обновляется.

© Cornelius Hasselblatt / CC BY-SA 4.0

В своей работе модераторы вольны опираться на несколько источников. Первый и основной — принципы Facebook, которые состоят из общедоступной и внутренней частей, внутренняя – это так называемая «Known Questions». В отдельных случаях сотрудники обсуждают решения между собой — по их словам, чаще всего достигнутый консенсус отклоняется руководством. Есть и еще один источник — внутренний инструмент для распространения информации Workplace. Его люди, занятые в работе на компании-подрядчики, искренне ненавидят. Посты администраторов появляются там ежедневно и отображаются не в хронологическом порядке, из-за чего во время крупных инцидентов модераторы получают конфликтующие между собой указания и ошибаются.

Принять верное решение все еще не так просто, если случайно начать думать. Пост со словами «людей с аутизмом нужно стерилизовать» не нарушает правила социальной сети, но текст «мужчин нужно стерилизовать» оценивается как хейт-спич. Дело в том, что «аутизм», в отличие от пола или расы, не является характеристикой, защищенной правилами социальной сети. Каждое следующее обновление усложняет процесс модерации. По словам сотрудника Cognizant Мигеля, с недавних пор они должны оценивать предшествующие романтические потрясения. «Я ненавижу всех мужчин» — это все еще нарушение, но «я только что рассталась со своим парнем, и я ненавижу всех мужчин» — уже нет. Модераторы на местах могут считать эти указания бессмысленными, однако вынуждены слепо следовать инструкциям — в противном случае они будут уволены.

Сложно не ошибиться, но ошибаться нельзя. Каждое неверное решение влияет на показатель точности. По итогам недели вышестоящий сотрудник Cognizant наобум проверит около 60 постов, которыми занимался модератор. Работу проверяющего, в свою очередь, перепроверит штатный сотрудник Facebook. И поскольку планка точности задрана неоправданно высоко, всего несколько ошибок могут поставить модератора на грань увольнения.

Труд в суровых условиях

В Cognizant некогда перевести дух. На отдых у модераторов есть один 30-минутный перерыв и еще ровно два перерыва по 15 минут. Этого мало. Сотрудники не успевают сходить в туалет, куда обычно выстраиваются длинные очереди: писсуаров и кабинок не хватает на всех. Раньше, чтобы облегчиться, персонал мог использовать время, выделенное на эмоциональное восстановление (wellness time). Руководство прознало об этом и запретило распоряжаться дополнительным перерывом не по назначению. Сотрудники Cognizant считают это ужасным. В феврале 2019 года на схожие бесчеловечные условия жаловались работники другой нанятой Facebook конторы — Accenture. Помимо строгих ограничений во времени, модераторы вынуждены мириться с зашкаливающим количеством запретов. Им запрещено пользоваться мобильными телефонами, делать заметки и говорить о своей работе внутри семьи.

«Несмотря на то, что мы гордимся своей работой, в корпоративной иерархии модераторы обладают статусом “людей второго сорта”. Этот статус подкрепляется директивами, которые строго ограничивают нас и противоречат заявленным ценностям Facebook. Мы считаем необходимым пролить свет на рабочую политику, которая нарушает нашу автономность, и надеемся, что сможем восстановить наше достоинство», — говорилось в открытом письме, опубликованном сотрудниками Accenture на внутреннем форуме Workplace.

Ситуация с модерацией в Facebook — не особенный случай и не исключение из правил. В технологической индустрии проверка и оценивание контента по праву считается худшей из возможных профессий. И не только потому, что выбравшие ее люди получают низкую заработную плату и, к тому же, вынуждены трудиться в малоприятных условиях. Причина, главным образом — в последствиях для психики и организма.

Худшая работа в IT

Неназванный сотрудник Cognizant в процессе работы смотрел много конспирологических видео, уверовал в теорию плоской Земли и занялся агитацией остальных. Его коллега больше не верит, что за события 11 сентября ответственны террористы, и убежден, что уничтожение башен Всемирного торгового центра — дело рук правительства США. Еще один, никогда ранее за тем не замеченный, вдруг начал отрицать Холокост. Ежедневный просмотр материалов, которые большинство пользователей посчитают, по меньшей мере, отвратительными, глупыми или недостойными внимания, в конце концов сказывается на модераторах.

«Люди действительно начинают верить в то, что должны были модерировать, — говорит Хлоя. — Начинают изучать конспирологические теории вместо того, чтобы делать свою работу. Мы им говорим: “Ребята, это же сумасшедшая фигня, с которой мы должны бороться. Что вы делаете?”»

© Editor GoI Monitor / CC BY-SA 2.0

Будни модератора чреваты не только помешательством на конспирологии, но и весьма реальным шансом заработать психическое расстройство. Чтобы не допустить этого, в штате компаний-подрядчиков работают психологи. Однако, по словам опрошенных, встретиться с ними удается не всегда и пользы они приносят совсем немного. Несколько сотрудников рассказали журналисту The Verge, что заработали вторичное травматическое стрессовое расстройство, возникающее в результате наблюдения за травмами других. В прошлом году уволившаяся из фирмы-подрядчика Pro Unlimited женщина подала на Facebook в суд. Поводом стало обнаружение у нее посттравматического расстройства. По словам Хлои, некоторые стажеры переживают все то же самое, однако решают не устраиваться на работу и уходят с подорванной психикой, не получив никакой помощи.

Само собой, находясь в состоянии постоянного напряжения, сотрудники ищут любые способы снять стресс. Персонал Cognizant попадался за занятиями сексом в туалетных кабинках, на лестничных клетках, парковках и комнатах для кормления грудью. Кроме того, сотрудники пьют и употребляют наркотики внутри кампуса и за его пределами. В конце концов, люди просто черствеют. Шутки становятся все мрачнее. Ответ «пью, чтобы забыть» на привычное «как дела?» уже никого не удивляет.

Бывшая сотрудницей MySpace на заре индустрии модерации контента, Розалин Боуден вспоминает, что не могла спокойно пожимать руки в течение трех лет.

«Я поняла, что люди отвратительны, и просто не могла прикасаться к ним. — признается она. — Большинство нормальных людей в мире просто сраные чудаки. Меня воротило от людей. И мои коллеги испытывали то же самое. Все мы уходили, унося с собой самое посредственное мнение о человечестве».

Зарегулированное будущее

Зачем страдают все эти люди? На этот вопрос существуют вполне убедительные ответы. Куда труднее найти объяснение тому, почему в процессе тотальной чистки социальных сетей должны страдать самые обычные пользователи.

Цензура неразборчива и становится тем чувствительнее к любым отклонениям от неустойчивой нормы, чем более мягкотелыми и обидчивыми становятся люди. Facebook удаляет посты с обнаженными частями тела — даже если это картины Рубенса. Банит за критику политики блокировок, за слова «палестинцы — дураки» и за осуждение тех, кто пользуется услугами проституток. Неудержимое желание освободить интернет от спорного контента порождает чудовищ.

Неясные ощущения вызывает факт, что самое репрезентативное чудовище — это продукт отечественной IT-сферы. Социальная сеть «Аура» от «Яндекса» приоткрывает окно в убогое будущее, которое стараниями разработчиков наступило почему-то уже сегодня. Эта социальная сеть изначально придумана максимально скучной и зарегулированной. Ее правила запрещают мат, оскорбления и жаргон: запрещается, например, называть полицейских «мусорами». Пока Цукерберг только размышляет над «новыми правилами» для интернета и готовится плотнее сотрудничать с государством, «Яндекс» уже на шаг — а то и на несколько — впереди.