Даже самая благородная технология может использоваться не по назначению. Должны ли создатели задумываться об этических вопросах её использования?
Facebook нанимает еще больше модераторов
За последние недели в социальной сети Facebook было зафиксировано несколько случаев размещения видео с элементами жестокости. Вначале американец Стив Стивенс (Steve Stephens) убил пожилого мужчину и разместил видео убийства в Facebook. А через короткое время житель Таиланда транслировал в Facebook убийство своего 11-месячного ребенка. В первом случае ролик был доступен пользователям социальной сети несколько часов, во втором – около суток. Очевидно, что Facebook столкнулась с обвинениями в неспособности модерировать видеоконтент в социальной сети. После этих двух инцидентов генеральный директор Facebook Марк Цукерберг (Mark Zuckerberg) заявил о том, что его компания готовится нанять 3 тыс. модераторов. Их задача – просматривать видеоролики, которые получили пометку недопустимых. Кроме того, в задачу таких специалистов войдет просмотр прямых Facebook-трансляций с той же целью – не допустить появление видео с элементами жестокости или другими запрещенными вещами.
Новые сотрудники присоединятся к 4,5 тысячам других сотрудников Facebook, занимающихся аналогичной работой. Facebook платит им за то, что они смотрят видео, помеченное другими пользователями как недопустимое. Их работа состоит в том, чтобы блокировать недопустимый контент на сайте.
Технологии во благо, технологи для зла
Реакция Facebook достойна похвалы, хотя она и выглядит как пример грубой силы, использованной постфактум.
Тем не менее, возникает вопрос: неужели руководство социальной сети не задумывалось о том, что ее инструменты, в том числе сервис прямых трансляций, может использоваться не только во благо? Тем более, что подобные прецеденты были и не один раз.
Поэтому возникает вопрос: должна ли компания предвидеть неизбежность того, что кто-то будет использовать Facebook для трансляции актов насилия? И, как результат, принять более решительные меры для того, чтобы заблокировать саму возможность такого использования Facebook? Такие действия требуют тщательного анализа всех вариантов использования социальной сети и последующей реакции руководства, в частности, изменения функционала.
Однако тщательность – это черта, которая совсем не характерна для Facebook и Силиконовой долины в целом. “Двигайтесь быстро и ломайте шаблоны” — под таким девизом работает Facebook и другие технологические компании. Они создают нечто новое, предлагают его миру и наблюдают за тем, что происходит потом.
Если что-то не работает, они исправят это. Неудача является частью процесса. И так бывает до тех пор, пока не произойдет самокорректирующаяся итерация и проблема не решится сама собой. Однако такой алгоритм решения проблемы никуда не годится, когда люди используют ваш продукт для трансляции убийства.
Модераторские полумеры
На первый взгляд, новые три тысячи сотрудников помогут ускорить процесс удаления неприемлемого видео. Но если копнуть глубже, то становится понятно, что их появление — ни что иное как перекачка дополнительной рабочей силы в порочную по своей сути систему. Систему, которая зависит от обычных пользователей Facebook, которые, в первую очередь, должны сообщать о неприемлемом видео.
В первом кейсе никто из смотревших не пометил видео как неприемлемое, хотя преступник явно сказал, что собирается убить другого человека. Ни один из его друзей не видел этого ролика. А это означает, что пока пользователи Facebook не поставят пометку о недопустимости видео, новые модераторы даже не увидят его. То есть просто будут сидеть, сложа руки, ожидая этой пресловутой пометки.
Возможно, Facebook стоило задуматься не о новых сотрудниках, а об изменениях функциональности своего видеосервиса. Например, сделать пометку для маркировки недопустимого видео более заметной. И еще сильнее ее выделить для прямых трансляций.
По большому счету, такого рода глобальные сервисы, как Facebook, должны учитывать вероятность того, что их инструменты будут использоваться со злым умыслом. И думать об этом еще на этапе проектирования. А помочь им может собственная команда по этике, принимающая участие в разработке продукта на самых ранних этапах.
Технологии без этики: нонсенс в 2017 году
Несколько предыдущих кейсов говорят о том, что в Facebook не задумывались об этической стороне использования технологий.
Например, когда репортеры обнаружили, что раздел Trending Topics с наиболее популярными новостями стал заангажированным, чаще публикуя новости только одной политической силы, Facebook просто избавился от редакторов и стал полагаться только на алгоритмы. А те, в свою очередь, не отличали фейков от правдивых новостей. На претензии по этому поводу в Facebook просто предпочли не отвечать. При этом сотрудники и руководство постоянно подчеркивали, что Facebook – это не медиакомпания, и она не отвечает за распространяемый ею контент. Эта риторика сохранялась, пока не стало ясно, что распространение фейковых новостей могло повлиять на президентские выборы США 2016 года. Тогда в Facebook стали думать, что же делать с засильем фейков и уже анонсировали несколько новинок для борьбы с интернет-ложью.
Только после того, как люди начали транслировать свои самоубийства с помощью видео, компания начала обучать свои алгоритмы распознаванию признаков суицидальных идей в онлайн-активности людей. Теперь компания пообещала нанять модераторов для таких видео. И снова, Facebook начинает реагировать на проблему только после того, как был нанесен ущерб. А этические вопросы применения ее сервисов интересуют Facebook только тогда, когда об этом уже слишком много говорят вокруг.
«В компаниях могут работать специалисты по этике. Команда, занимающаяся этими вопросами, не должна быть большой, но она должна быть», – считает Сьюзан Лиато (Susan Liautaud), бизнес-консультант и преподаватель деловой этики в Стэнфорде.
Очевидно, что Марк Цукерберг обладает интуицией и умением понимать человеческую психологию. Благодаря этому чувству он и создал сервис, который так много людей считает навязчиво полезным. Но он часто просто не думает об этических проблемах.
«Видео с элементами жестокости – это не проблема Facebook. Это проблема 2017 года», – считает Сьюзан Лиато. Она уверена, что сегодня этические проблемы стоят перед каждой технологической компанией в мире: «Все они должны помнить об этических проблемах и думать о них в режиме реального времени».
Возможно, сейчас – лучшее время для того, чтобы в Facebook появились специалисты по этим вопросам. Не исключено, что 2-3 таких специалиста будут эффективнее трех тысяч модераторов-спартанцев, которых бросили на неравную борьбу с жестокими видеороликами.