В феврале Facebook объявил о небольшом эксперименте. В рамках него, объем политического контента, показываемого группе пользователей в нескольких странах, включая США, должен был быть сокращен. Затем, пользователи могли поделиться своим опытом.
“Наша цель ー сохранить для людей возможность находить политический контент и взаимодействовать с ним на Facebook, уважая при этом желаемый объем такого контента” ー пояснила в своем блоге Ааста Гупта, директор по управлению продуктом.
Недавно компания представила обновленную информацию. Результаты опроса показывают, что пользователи хотят реже видеть политические материалы в своих лентах. Теперь Facebook намерен повторить эксперимент в большем количестве стран уже в ближайшие месяцы. Такая “деполитизация” ленты особенно важна для компании, которая постоянно обвиняется в возможном влиянии на политику.
Дело не в политике
Основной принцип любой социальной сети, управляемой ИИ, заключается в том, что вам не нужно сообщать ей, что вы хотите видеть. Наблюдая за тем, что вам нравится, чем вы делитесь, что комментируете или просто на чем задерживаете свой взгляд, алгоритм узнает, какой материал вас привлекает. Затем он показывает вам больше подобных вещей. Это удобно и пользователям, и платформе, но в то же время, такая ориентация на вовлеченность пользователя часто подвергается критике.
Алгоритм, который слишком сосредоточен на вовлечении пользователя, может подтолкнуть его к привлекательному, но социально неприемлемому контенту. Таким образом социальные сети способствуют вирусному распространению ложных или вредных материалов, потому что система предлагает пользователям то, что вызовет реакцию, а не то, что стоит посмотреть.
Например, люди чаще смотрят контент, который граничит с запрещенным в той или иной социальной сети. “Независимо от того, где мы проводим границы дозволенного, люди будут в среднем больше взаимодействовать с той частью контента, что приближается к этой черте, даже если позже они сообщают, что им не нравятся такие посты” ー заявил Марк Цукерберг.
В этой связи особенно важным является признание крупной платформой того, что “то, чем интересуются люди”, не всегда синонимично “тому, что люди ценят”, и что это явление не ограничивается запрещенным контентом. То что кто-то что-то комментирует или даже делится этим, не означает, что это то, что они предпочли бы видеть в своей ленте. Как следствие, единственный способ узнать что реально нравится людям ー спросить их. Ответы могут отличаться от того, что усваивает алгоритм машинного обучения, молча отслеживая поведение пользователей.
Что изменится?
Как и в случае с любым заявлением Facebook, остается неясным, как данное ограничение политических постов будет реализовано. Какой вообще контент стоит считать политическим? При этом многие пользователи скептически относятся к возможным изменениям. Они считают, что Facebook просто пытается снизить собственные политические риски, и вовсе не заинтересован в улучшении пользовательского опыта.
Таким образом, последствия новой политики еще предстоит увидеть. В конце концов, есть разница между тем, что кто-то говорит, и тем, что он делает. По крайней мере, Facebook, похоже, усвоил этот урок.