sprite

Концепция управления и контроля за контентом

2018-12-28

Уважаемые партнеры Mobytize!

Недавно Марк Цукерберг опубликовал свою статью «Концепция управления и контроля за контентом», а мы уже подготовили для вас качественный перевод :)

В 2018 году мое внимание было обращено на наиболее важные вопросы, стоящие перед Facebook. По мере того как год подходит к концу, я пишу серию заметок об этих проблемах и о прогрессе, которого мы добились. Первая заметка была о Подготовке к Выборам, а данная заметка является второй из этой серии.

•••

Многие из нас занимаются развитием технологий, потому что мы считаем, что это может демократизировать общество путем передачи власти людям. Я всегда заботился об этом, и поэтому наш лозунг - «дать людям власть». Я считаю, что мир станет лучше, когда больше людей будут иметь право на голос, чтобы делиться своим опытом, и когда традиционные гейткиперы, такие как правительства и медиа-компании, не будут иметь контроль над идеями, которые могут быть выражены.

В то же время мы несем ответственность за обеспечение безопасности людей при использовании наших услуг - будь то терроризм, домогательства или другие угрозы. У нас также есть социальная ответственность в оказании помощи людям сблизиться – мы против поляризации и экстремизма. Последние два года показали, что без достаточных гарантий люди будут злоупотреблять этими инструментами, чтобы вмешиваться в выборы, распространять дезинформацию и подстрекать к насилию. Один из самых болезненных уроков, который я извлек для себя, заключается в том, что когда вы соедините два миллиарда человек, вы увидите всю красоту и уродство человечества.

Важным вопросом для нас является то, как сбалансировать идеал предоставления голоса каждому с реалиями обеспечения безопасности людей и их объединения. Какими должны быть пределы того, что люди могут выразить? Какой контент должен быть распространен и что должно быть заблокировано? Кто должен определять эту политику и принимать решения? Кто должен привлекать этих людей к ответственности?

Как и с большинством проблем, с которыми мы сталкиваемся, не существует абсолютного согласия о правильном подходе, и вдумчивые люди приходят к совершенно разным выводам о том, какие компромиссы являются приемлемыми. Еще более затрудняет это тот факт, что культурные нормы разных стран сильно отличаются и быстро меняются.

За последние пару лет меня в большей степени интересовали вопросы управления и контроля за контентом. Хотя потребовалось определенное время понять сложность задач, нам удалось добиться значительного прогресса. Тем не менее, у нас впереди большая работа, направленная на то, чтобы все наши системы работали на том уровне, которого от нас ожидают.

Но проблемы будут возникать всегда. В свободном обществе всегда будет иметь место преступность, и наши ожидания от правительства - это не устранение всех преступлений, а эффективное управление и сокращение их количества. Наше сообщество также всегда будет сталкиваться со своей долей злоупотреблений. И наша задача заключается в том, чтобы не допускать злоупотреблений и нарушений, постоянно улучшая свою работу, прогнозируя возникновение новых угроз.

В этой заметке я опишу подход, который мы используем. Вся система требует решения вопросов, как управления, так и контроля. Я опишу, как мы активно реализуем политику для удаления вредного контента, предотвращения распространения подозрительного контента, предоставления людям большего контроля над своим опытом, и создания независимого надзора и прозрачности в системе.

Стандарты сообщества

Прежде чем перейти к вопросу о том, что нам нужно улучшить, важно понять, как мы до сих пор подходили к этим проблемам. У каждого сообщества есть стандарты, и с самого начала у нас также были Стандарты Сообщества - правила, которые определяют, какой контент допустим, а какой нет на Facebook. Наша цель состоит в том, чтобы действовать в интересах людей, предоставляя им голос и в то же время предотвращая причинение вреда, чтобы люди чувствовали себя в безопасности в нашем сообществе. 

В апреле мы сделали еще один шаг и опубликовали наши внутренние рекомендации, которые использует наша команда для обеспечения соблюдения этих стандартов. Эти рекомендации предназначены для снижения субъективности и обеспечения того, чтобы решения, принимаемые рецензентами, были максимально последовательными. Например, наши Стандарты Сообщества относительно насилия и графического содержания гласят: «Мы удаляем контент, который прославляет насилие, страдания или унижение других людей». Иногда есть смысл делиться этим тревожным контентом, например, для того, чтобы привлечь внимание к нарушениям прав человека или к новостной организации, освещающей важные события. Но, безусловно, должны быть ограничения, и наши рекомендации включают 18 конкретных типов контента, которые мы удаляем, включая внутренние органы человека, а также горящие или обгорелые тела людей.

Команда, отвечающая за эту политику, работает на глобальном уровне в более чем 10 офисах в шести странах. Их задача - отражать различные культурные нормы нашего сообщества. Многие из сотрудников, в том числе юристы по правам человека или прокуроры, посвятили свою деятельность таким вопросам, как безопасность детей, борьба с ненавистническими высказываниями и терроризмом.

Наш процесс выработки политических решений предполагает регулярное привлечение внешних экспертов и организаций для обеспечения понимания различных перспектив, которые существуют в области свободы выражения и безопасности, а также влияния нашей политики на различные сообщества во всем мире. Каждые несколько недель команда проводит совещание для обсуждения возможных изменений в нашей политике на основе новых исследований или данных. Для каждого изменения команда приглашает специалистов извне - ученые и журналисты привлекаются к таким встречам с целью лучшего понимания этого процесса. Начиная с сегодняшнего дня, мы также будем публиковать протоколы этих встреч для повышения прозрачности и ответственности.

Команда, ответственная за соблюдение этой политики, состоит из 30,000 человек, включая рецензентов контента, которые говорят почти на всех языках, широко используемых в мире. У нас есть офисы во многих часовых поясах, чтобы мы могли быстро реагировать. Мы вкладываем значительные средства в обучение и поддержку каждого человека и команды. В общей сложности они просматривают более двух миллионов единиц контента каждый день. Мы публикуем отчет о прозрачности с более подробной разбивкой контента, который мы блокируем.

На протяжении большей части нашей истории процесс анализа контента был ручным - люди сообщали о контенте, который они считали проблематичным, а затем наша команда просматривала этот контент. Такой подход позволил нам удалить много вредоносного контента, но он имеет серьезные ограничения в том, что мы не можем удалить вредоносный контент, прежде чем люди его увидят.

Точность также является важным вопросом. Наши рецензенты упорно работают с целью обеспечения соблюдения наших правил, однако многие суждения требуют нюансированного подхода и исключений из общих правил. Например, наши стандарты сообщества запрещают изображения наготы, но мы делаем исключение для изображений, которые исторически значимы. Мы не разрешаем продажу регулируемых товаров, таких как огнестрельное оружие, но их трудно отличить от изображений пейнтбольного или игрушечного оружия. При рассмотрении ненавистнических высказываний лингвистические нюансы становятся еще более трудными – как, например, понимание того, когда кто-то осуждает расовую ненависть, а не использует ее для нападения на других. 

Подавляющее большинство ошибок, которые мы совершаем, связаны с ошибками нюансирования наших правил, а не разногласий относительно того, каковы должны быть эти правила. Сегодня, в зависимости от типа контента, наши группы по рассмотрению контента делают неправильный вывод более чем в 1 из каждых 10 случаев.

Сокращение количества этих ошибок является одним из наших самых важных приоритетов. Чтобы сделать это, за последние несколько лет мы значительно активизировали усилия по активному внедрению нашей политики, используя комбинацию искусственного интеллекта, выполняющего самую повторяющуюся рутинную работу, и гораздо более многочисленную группу людей, которые рассматривают более частные случаи. Учитывая размер нашего сообщества, даже если бы мы смогли сократить ошибки до 1 из 100, это все равно будет очень большим количеством ошибок.

Проактивное определение вредоносного контента.

Самое важное улучшение в обеспечении соблюдения наших правил - использование искусственного интеллекта для предоставления оперативного отчета о потенциально проблемном контенте нашей команде рецензентов, а в некоторых случаях - для принятия мер по автоматическому удалению контента.

Этот подход помогает нам выявлять и удалять гораздо больший процент вредоносного контента. И очень часто мы удаляем подобный контент до того, как кто-то его увидит и сообщит. Переход к активной обработке контента в полном объеме начался в последнее время из-за успехов в искусственном интеллекте, и из-за многомиллиардных годовых инвестиций, которые мы можем теперь осуществлять. Современное состояние искусственного интеллекта все еще недостаточно для самостоятельного решения этих проблем. Таким образом, мы используем компьютеры для тех задач, с которыми они хорошо справляются – быстрое принятие решений по основному контенту. При решении более сложных и тонких задач, мы полагаемся на людей.

Обучая наши системы искусственного интеллекта, мы обычно уделяем приоритетное внимание проактивному обнаружению наиболее вредоносного контента. Например, мы уделяем первоочередное внимание удалению террористического контента. 99% террористического контента, который мы удаляем сейчас, определяется системами прежде, чем какая-либо из наших служб сообщает нам о нем. В настоящее время в нашей команде работает более 200 человек, занимающихся борьбой с терроризмом.

Другая категория, которую мы определили по приоритетности, - причинение себе вреда и членовредительство. После того, как кто-то трагически транслировал самоубийство, мы обучили наши системы помечать рискованный контент - в этом случае мы могли бы помочь человеку. Мы создали команду из тысяч людей во всем мире, чтобы можно было реагировать на эти сигналы в течение нескольких минут. В прошлом году мы помогли первым респондентам быстро охватить около 3500 человек во всем мире, которым нужна была помощь.

Одни категории вредоносного контента поддаются лучшему идентифицированию Искусственым интеллектом, другие требуется больше времени для обучения наших систем. Например, визуальные проблемы, такие как изображения наготы, легче выявить, чем ньюансированные лингвистические проблемы, такие как ненавистнические высказывания. Наши системы уже проактивно идентифицируют 96% изображений наготы, которые мы блокируем, несколько лет назад этот показатель был равен практически нулю. Мы также добиваемся прогресса в отношении блокирования разжигания ненависти - теперь 52% идентифицированы проактивно. Эта работа требует дальнейших достижений в области технологий, а также найма большего количества языковых экспертов для достижения необходимого уровня.

В прошлом году мы определили приоритетность идентификации людей и контента, связанного с распространением ненависти в странах с такими кризисами, как в Мьянме. В третьем квартале 2018 года мы проактивно идентифицировали около 63% ненавистнических высказываний, которые мы удалили в Мьянме, по сравнению с 13% в последнем квартале 2017 года. Это результат инвестиций, которые мы сделали как в технологии, так и в людей. К концу этого года у нас будет не менее 100 экспертов со знанием бирманского языка, которые проверяют контент.

В своей записке о наших усилиях «Подготовка к выборам» я обсуждал нашу работу по борьбе с дезинформацией. Это включает в себя проактивную идентификацию фиктивных учетных записей, которые являются источником большей части спама, дезинформации и скоординированных информационных кампаний. Этот подход работает во всех наших сервисах, включая зашифрованные службы, такие как WhatsApp, поскольку он фокусируется на шаблонах активности, а не на самом контенте. За последние два квартала мы удалили более 1,5 миллиарда фальшивых учетных записей. 

В ходе осуществления нашего трехлетнего курса в конце 2019 года мы ожидаем, что наши системы будут активно отслеживать подавляющее большинство проблемного контента. И хотя мы никогда не будем совершенными, мы ожидаем продолжения совершенствования. Мы сообщим о своем прогрессе в наших отчетах о прозрачности и контроле.

Важно отметить, что проактивное правоприменение не изменяет наши правила относительно того, какой контент должен остаться, а какой удален. Это все еще определяется нашими Стандартами Сообщества. Проактивное правоприменение просто помогает нам быстрее удалять вредоносный контент. Другие улучшения, над которыми мы работаем, будут влиять на типы контента, против которого мы будем принимать меры. Но об этом в следующий раз. 

Противодействие контенту «на грани»

Одна из самых больших проблем, с которой сталкиваются социальные сети, заключается в том, что люди увлекаются сенсационным и провокационным контентом. Подобный контент не новое явление. Сегодня он широко распространен в новостях по кабельным каналам, и уже более века является основой таблоидов. Это может подорвать качество публичного дискурса и привести к поляризации. В нашем случае это может также ухудшить качество наших услуг.

 

Natural Engagement Pattern (Схема естественного взаимодействия), Engagement (Взаимодействие), Allowed Content (Разрешенный контент)

Наши исследование показывает, что независимо от того, где мы проводим линии разрешённого, когда часть контента приближается к этой линии, люди будут увлечены им больше, даже если они говорят нам, что им не нравится контент. 

Это основная проблема стимулирования, которую мы можем решить, наказывая граничащий контент, чтобы он получал меньшее распространение. Из-за того, что кривая распределения выглядит как график ниже, где распространение уменьшается, поскольку контент становится более сенсационным, люди не желают создавать провокационный контент, максимально приближенный к пограничной линии.

 

Adjusted to Discourage Borderline Content (Скорректировано для дестимуляции граничащего контента), Engagement (Взаимодействие), Allowed Content (Разрешенный контент)

Этот процесс корректировки кривой аналогичен описанному выше для проактивной идентификации вредоносного контента, но теперь он ориентирован на определение граничного контента. Мы тренируем системы искусственного интеллекта для обнаружения граничащего контента, чтобы мы могли меньше распространять его.

Больше всего мы заинтересованы в категории, где есть реклама-приманка (назойливая баннерная реклама, сообщающая некую "сенсационную" новость и провоцирующая человека кликнуть на неё) и дезинформация. Люди постоянно говорят нам, что эти виды контента ухудшают наши услуги, даже если они реагируют на них. Как я уже упоминал выше, самым эффективным способом остановить распространение дезинформации является удаление фиктивных учетных записей, которые его генерируют. Следующей наиболее эффективной стратегией является сокращение его распространения и виральности. (Я писал об этих подходах более подробно в своей записке «Подготовка к выборам»).  

Наше исследование показало, что эта естественная структура контента «на грани», привлекающего пользователей, относится не только к новостям, но и к почти каждой категории контента. Например, фотографии, близкие к пограничной линии обнаженной натуры, с вызывающей одеждой или непристойными позами, в среднем привлекали больше внимания, прежде чем мы изменили кривую распределения, чтобы препятствовать этому. То же самое касается сообщений, которые не входят в наше определение ненавистнических высказываний, но все же являющихся оскорбительными.

Этот шаблон относится к группам, к которым присоединяются люди, и к страницам, которые они просматривают. Это важно, поскольку, в то время как социальные сети в целом открывают для людей более разнообразные точки зрения, разделяющие группы и страницы могут вызывать поляризацию. Чтобы справиться с этим, нам необходимо внести изменения в процессы распространения не только для ранжирования, но и для всех наших систем рекомендаций относительно того, к каким группам людям желательно присоединяться, а к каким нет.

Вместо сокращения распространения контента мы должны просто перемещать линию, определяющую то, что является допустимым. В некоторых случаях это стоит учитывать, но помнить, что это не устранит основную проблему стимулирования, которая часто является большей проблемой. Эта схема взаимодействия, кажется, существует независимо от того, где мы проводим линии, поэтому нам нужно изменить этот стимул, а не просто удалять контент.

Я считаю, что эти усилия по основным стимулам в наших системах - это одна из самых важных работ, которые мы проводим в компании. Мы добились значительного прогресса в прошлом году, но впереди еще много работы.

Мы полагаем, что исправление этой проблемы стимулирования создаст эффективный цикл: уменьшив сенсационность всех форм, мы создадим более здоровый, менее поляризованный дискурс, в котором больше людей будут чувствовать себя в безопасности.

Давать людям контроль и предоставлять им больше контента

Как только у нас появится технология, которая сможет достаточно хорошо понимать контент, чтобы заблаговременно удалять вредоносный и сокращать распространение граничащего контента, мы также можем использовать ее для того, чтобы давать людям больше контроля над тем, что они видят.

Первый элемент управления, который мы создаем, заключается в обеспечении более безопасного опыта пользователей, который мы описали выше. Он будет включен по умолчанию, и это означает, что вы увидите меньше контента близкого к пограничной линии, даже если он не нарушает наши стандарты. Для тех, кто хочет принимать эти решения самостоятельно, мы считаем, что у них должен быть такой выбор, так как этот контент не нарушает наши стандарты.

Со временем эти меры контроля могут также позволить нам иметь более гибкие стандарты в таких категориях, как обнаженная натура, где культурные нормы во всем мире сильно различаются, а личные предпочтения также различны. Конечно, мы не собираемся предлагать элементы управления, которые позволили бы любой контент, который может причинить реальный вред. И мы не будем рассматривать возможности добавления большего количества спорного контента, пока наш искусственный интеллект не станет достаточно точным, чтобы удалить его для всех тех, кто не хочет его видеть. Поэтому мы будем осторожно вводить новые элементы управления.

Предоставляя людям возможность индивидуального контроля, мы можем лучше сбалансировать свои принципы относительно свободы слова и безопасности для всех.

Решение проблемы алгоритмического отклонения

Все, что мы обсуждали до сих пор, зависит от создания систем искусственного интеллекта, которые могут заблаговременно идентифицировать потенциально опасный контент для того, чтобы мы могли оперативно на него реагировать. Хотя я ожидаю, что эта технология значительно улучшится, она никогда не будет доведена до совершенства. Имея это в виду, далее я сосредоточу свое внимание на процессах управления и контроля, в том числе на том, как мы обрабатываем ошибки, устанавливаем правила и, самое главное, повышаем прозрачность и независимое рецензирование.

Фундаментальный вопрос заключается в том, что нужно сделать, чтобы наши системы не были искажены, и к людям не было несправедливого отношения. На стыке этики и искусственного интеллекта появляется новая академическая область связанная с алгоритмической справедливостью, и в этом году мы предприняли серьезные усилия для проработки этих вопросов. Наша цель - разработать строгие аналитические рамки и вычислительные инструменты для того, чтобы изменения, которые мы вносим, вписывались в четкое определение справедливости.

Однако, это не просто вопрос искусственного интеллекта, потому что на философском уровне люди в целом не имеют единого мнения о том, как определить справедливость. Чтобы продемонстрировать это, рассмотрим два общих определения: равенство обращения и равенство воздействия. Равенство обращения направлено на то, чтобы правила применялись в равной степени ко всем, в то время как равенство воздействия направлено на то, чтобы правила были определены и применены таким образом, чтобы оказывать равное воздействие. Часто бывает трудно и даже невозможно гарантировать и то и другое. Сосредоточение внимания на равном обращении часто приводит к разным результатам, а сосредоточение внимания на равном воздействии часто требует разного обращения. В любом случае систему можно обвинить в предвзятости. Это не просто вычислительная проблема - это проблема этики. В целом, эта работа важна и мы будем информировать вас по мере ее развития.

Построение апелляционного процесса

Любая система, которая работает в масштабе, будет делать ошибки, поэтому важно, как мы будем их устранять. Это важно как для обеспечения того, чтобы мы ошибочно не подавляли голоса людей или не могли обеспечить их безопасность, а также для формирования чувства легитимности в том, как мы осуществляем управление сообществом.

В этом году мы запустили процесс подачи апелляций относительно контента. Мы начали с того, что позволили пользователям обжаловать решения, которые привели к удалению их контента. Далее мы работаем над расширением возможностей подачи апелляций, чтобы вы могли обжаловать любое решение. Мы также работаем над тем, чтобы обеспечить большую прозрачность того, были нарушены или нет наши правила.

На практике одна проблема, которую мы обнаружили, заключается в том, что если в первый раз контент было трудно правильно оценить, то и во второй раз его также трудно правильно оценить. Тем не менее, процесс подачи апелляций уже помог нам исправить значительное количество ошибок, и мы будем продолжать улучшать его точность с течением времени.

Независимое управление и контроль

Размышляя об этих проблемах связанных с контентом, я все больше склоняюсь к тому, что Facebook не должен принимать столько важных решений о свободе слова и безопасности самостоятельно.

В следующем году мы планируем создать новый способ обжалования решений о контенте в независимом органе, решения которого будут прозрачными и обязательными. Целью этого органа будет обеспечение принципа предоставления людям права голоса при одновременном признании реальности обеспечения безопасности людей.

Я считаю, что независимость важна по нескольким причинам. Во-первых, это предотвратит то, что большинство решений будут принимать наши команды. Во-вторых, это создаст необходимый контроль. В-третьих, это будет гарантией того, что решения принимаются в интересах всего нашего сообщества, а не по коммерческим причинам.

Это невероятно важная задача - и мы все еще находимся на ранних стадиях определения того, как все это будет работать на практике. Начиная с сегодняшнего дня, мы приступаем к консультациям для решения самых сложных вопросов, таких как: как выбирать членов данного органа? Как мы можем гарантировать их независимость от Facebook, а также их приверженность принципам, которые они должны соблюдать? Каким образом подавать апелляции в данный орган? Как этот орган принимает решения, какие запросы рассмотреть из миллионов подобных? Во время периода консультаций мы начнем апробировать эти идеи в различных регионах мира в первой половине 2019 года с целью создания этого независимого органа к концу года.

Я считаю, что со временем этот орган будет играть важную роль в нашем общем управлении. Так же, как наш совет директоров подотчетен акционерам, этот орган будет ориентирован только на наше сообщество. И то, и другое важно, и я верю, что это поможет нам лучше служить интересам всех наших пользователей в долгосрочной перспективе.

Обеспечение прозрачности и стимулирование исследований

Помимо формального надзора, важным способом обеспечения подотчетности является гарантирование прозрачности того, как работают наши системы для того, чтобы ученые, журналисты и другие эксперты могли анализировать прогресс и помогать нам совершенствоваться. Мы сосредоточим свои усилия на составлении квартальных отчетов о прозрачности и соблюдении правил, а также на расширении научных исследований.

Чтобы улучшить наши системы, мы многое сделали для определения присутствия вредоносного контента в наших сервисах и отслеживания эффективности с течением времени. Когда мы начинали создавать и отлаживать свои системы измерения, мы использовали данные только для внутреннего пользования. Поскольку мы приобрели уверенность в измерении большего количества своих систем, мы начали публиковать эти показатели для того, чтобы отчитаться перед пользователями за нашу работу. В этом году мы выпустили наш первый отчет о прозрачности и соблюдении правил, и сегодня мы выпускаем второй отчет.

Эти отчеты посвящены трем ключевым вопросам:

1. Насколько распространенным является контент, который нарушает наши Стандарты Сообщества? Мы считаем, что наиболее важным показателем нашей эффективности в управлении категорией вредоносного контента является то, как часто человек сталкивается с ним. Например, мы обнаружили, что в третьем квартале этого года от 0,23 до 0,27% просматриваемого контента нарушает нашу политику в отношении сцен насилия и графического контента. Сосредоточив внимание на распространении этого контента, мы утверждаем, что лучше удалить фрагмент вредоносного контента, который увидят многие люди, чем удалить несколько фрагментов контента, которые не будут так широко просматриваться. Мы считаем, что распространенность контента должна быть отраслевым стандартом для измерения того, как платформы управляют вредоносным контентом.

2. Каков должен быть объем контента, на который мы должны реагировать? Хотя этот показатель и менее важен, чем фактор распространенности, он демонстрирует масштаб проблем, с которыми мы сталкиваемся. Например, в третьем квартале мы удалили более 1,2 миллиарда единиц контента за нарушение нашей политики в отношении спама. Даже несмотря на то, что мы обычно удаляем их до того, как многие люди видят их, это показывает масштаб потенциальной проблемы, если наши противники развиваются быстрее, чем мы развиваем свои средства защита.

3. Сколько нарушений контента мы обнаруживаем, прежде чем люди сообщают об этом? Это самая четкая мера нашего прогресса в активной идентификации вредоносного контента. В идеале наши системы должны обнаружить его раньше, чем люди, но для нюансированных категорий мы считаем, что показатель 90% + является более чем приемлемым. Например, 96% контента, который мы удаляем из-за изображений наготы, идентифицируется нашими системами еще до того, как кто-либо сообщает об этом, и этот показатель составляет 99% для террористического контента. Эти показатели колеблются в зависимости от того, совершенствуемся ли мы быстрее, чем люди, которые ищут слабые места в наших системах.

Наш приоритет состоит в том, чтобы эти измерения были достаточно стабильными по каждой категории вредоносного контента. Далее мы планируем добавить больше показателей, в том числе по ошибкам, которые мы совершаем, и скорости нашего реагирования.

Мы ожидаем, что к концу следующего года наши системы будут оснащены инструментами для подготовки отчетов о прозрачности и мерах контроля за каждый квартал. Я думаю, что важно сообщать об этих проблемах сообщества с той же периодичностью, что и о наших доходах и результатах ведения бизнеса - поскольку эти проблемы имеют такое же значение. Для повышения подотчетности мы начнем проводить телеконференции, так же как и в случаях телеконференций о наших отчетах по прибыли и прозрачности.

В дополнение к отчетам о прозрачности, мы также работаем с членами академического сообщества, чтобы изучить наши системы и их влияние. Эта работа направлена на удаление некачественного контента из наших сервисов. Мы также планируем расширить эту работу, чтобы делиться дополнительной информацией о процессах разработки правил и подачи апелляций, а также о работе над дополнительными исследовательскими проектами. Эти партнерские отношения имеют решающее значение для обучения внешних экспертов по всем важным направлениям.

Совместная работа по регулированию

Хотя создание независимого надзора и прозрачности является необходимым, я считаю, что правильные нормативные положения станут важной частью полной системы управления контентом. Службы должны соблюдать местные законы о контенте, и я думаю, что все стороны выиграют от большей ясности о правилах контента в разных странах.

Я считаю, что идеальная долгосрочная нормативная база будет сосредоточена на борьбе с распространением вредоносного контента с помощью упреждающего правоприменения. Это будет означать определение приемлемых показателей для разных типов контента. Без четких определений люди полагаются на отдельные примеры плохого контента, чтобы понять, выполняет ли служба свои общие обязанности. В действительности вредоносное содержание будет всегда, поэтому для общества важно договориться о том, как свести его к минимуму и где следует проводить границу между свободой выражения и безопасностью.

Хорошей отправной точкой было бы требование, чтобы интернет-компании сообщали о распространении вредоносного контента на своих сервисах, а затем работали над его снижением. Как только все основные службы сообщат об этих показателях, мы, как общество, будем лучше понимать, к каким целям мы все должны стремиться.

Чтобы начать двигаться в этом направлении, мы работаем с несколькими правительствами для установления правил. Например, как президент Макрон объявил ранее на этой неделе, мы работаем с правительством Франции над новым подходом к регулированию контента. Мы также будем работать с другими правительствами, в том числе, с Европейской комиссией, для создания норм для Европы на ближайшую пару лет.

Конечно, существуют определенные риски в установлении правил. Было бы нежелательно, если бы нормативные положения в конечном итоге были сосредоточены на показателях, которые не помогают снизить вредное воздействие, или если нормативные положения являлись чрезмерно предписывающими в отношении того, как мы должны технически регулировать контент, не давая нам возможности выполнять эффективную работу. Также важно, чтобы эти правила не были сложными для соблюдения.

Несмотря на эти риски, я не верю, что отдельные компании могут или должны решать многие проблемы свободы выражения и общественной безопасности самостоятельно. Это потребует совместной работы всей отрасли и правительства для того, чтобы найти правильный баланс и выработать совместные решения.

Выводы

Вопросы о том, что мы хотим от Интернета, являются одними из самых важных проблем, стоящих перед нашим сообществом сегодня. С одной стороны, предоставление людям права голоса согласуется с нашими демократическими идеалами и философией просвещения о свободе мысли и свободе выражения мнений. Мы видели много примеров, когда предоставление людям возможности делиться своим опытом поддерживало важные общественные движения и объединяло людей. Но с другой стороны, мы также видели, что некоторые люди всегда будут стремиться использовать эту силу, чтобы подорвать те же самые идеалы [чтобы разделить нас]. Мы видели, что, если их не контролировать, они будут пытаться вмешиваться в выборы, распространять дезинформацию и даже подстрекать к насилию.

Единого решения этих проблем не существует, и это не те проблемы, которые вы когда-либо полностью можете решить. Но со временем мы можем улучшать наши системы, как мы показали за последние два года. Мы будем продолжать добиваться прогресса, повышая эффективность нашего проактивного контроля и разрабатывая более открытый, независимый и строгий процесс разработки правил. Мы будем продолжать работать над тем, чтобы наши услуги были позитивной силой для сближения людей. 
 

Ссылка на оригинал: https://www.facebook.com/notes/mark-zuckerberg/a-blueprint-for-content-governance-and-enforcement/10156443129621634/

Надеемся этот материал был полезен для вас.

Ваша команда Mobytize :)

Make Money & Have Fun!

Закрыть
Авторизация
Привязать сессию к IP

Нет аккаунта? Зарегистрироваться