бесконечная прокрутка

Эпоха алгоритмической тревожности

Сегодня взаимодействовать в Интернете - значит быть осажденным рекомендациями, генерируемыми системами. А хотим ли мы того, что говорят нам машины?

Перевод статьи The New Yorker
В конце прошлого года Валери Питер, двадцатитрехлетняя студентка из Манчестера, Англия, поняла, что у нее проблема с онлайн-шопингом. Дело было скорее в том, что она покупала, чем в том, сколько. Модный тренд на шерстяные гетры проник в ее социальные сети - во вкладку TikTok "Для Вас", на ее страницу Instagram Explore, в ее рекомендации Pinterest. Недавно она сказала мне, что всегда считала гетры "уродливыми, отвратительными, нелепыми", но вскоре "каким-то волшебным образом у нее появилась пара таких гетр", которые она купила онлайн одним нажатием кнопки, по почти подсознательному капризу. (Она надевала их всего несколько раз. "Они лежат в глубине моего шкафа", - сказала она). То же самое позже произошло с украшениями Van Cleef & Arpels, после того как одна из участниц британского реалити-шоу "Остров любви" надела ожерелье этого бренда на экране. Цветочные браслеты Van Cleef в стиле модерн попали в ленту Петры в TikTok, и она стала просматривать продукцию бренда. Эта бомбардировка заставила ее задаться вопросом: "Это я? Это мой стиль?" - сказала она.

В растерянности Питер написала письмо, в котором попросила совета у Рейчел Ташджиан, модного критика, которая пишет популярную информационную рассылку под названием "Опулентные советы". "Я нахожусь в Интернете последние 10 лет и не знаю, нравится ли мне то, что нравится мне, или то, что алгоритм хочет, чтобы мне нравилось", - написала Питер. Она стала воспринимать алгоритмические рекомендации социальных сетей как своего рода психическое вторжение, скрытно изменяющее то, что ей показывают в Интернете, и, таким образом, ее представление о собственных склонностях и вкусах. "Я хочу то, что мне действительно нравится, а не то, что мне просто продают", - говорится в ее письме.
Конечно, потребители всегда были мишенью манипулятивной рекламы. Вездесущая реклама на билбордах или телевизионная реклама может проложить свой путь в ваш мозг, заставляя вас думать, что Вам нужно немедленно купить, скажем, новый тренажер с поддержкой видео. Но социальные сети всегда стремились показать нам то, что нам нравится - вещи, к которым мы, возможно, сами тяготели. Почему же тогда возникает ощущение, что вся экосистема контента, с которым мы взаимодействуем в Интернете, была создана для того, чтобы влиять на нас таким образом, который мы не можем разобрать, и который имеет лишь отдаленное отношение к нашим собственным подлинным предпочтениям? Ни один бренд не рекламировал Питер гетры. Ни один из спонсоров не отвечал за продажу ей ювелирных изделий Van Cleef. Скорее, "алгоритм" - та смутная, теневая, нечеловеческая сущность, на которую она ссылалась в своем электронном письме, - решил, что теплые гетры и украшения - это то, что она должна увидеть.

Дилемма Питер заставила меня вспомнить термин, который в последние годы используется для описания ощущения современного пользователя Интернета: что Вам приходится постоянно бороться с машинными оценками Ваших желаний - алгоритмическая тревожность. Осажденные автоматическими рекомендациями, мы вынуждены гадать, как именно они влияют на нас, чувствуя себя в одни моменты неправильно воспринятыми или введенными в заблуждение, а в другие - рассчитанными с жуткой точностью. Временами кажется, что компьютер контролирует наш выбор больше, чем мы сами.

Алгоритм в математике - это просто набор шагов, используемых для выполнения вычислений, будь то формула площади треугольника или строки сложного доказательства. Но когда мы говорим об алгоритмах в Интернете, мы обычно имеем в виду то, что разработчики называют "рекомендательными системами", которые используются с момента появления персональных компьютеров, чтобы помочь пользователям индексировать и сортировать потоки цифрового контента. В 1992 году инженеры Xerox Palo Alto Research Center создали алгоритмическую систему под названием Tapestry, которая оценивала входящие электронные письма по релевантности, используя такие факторы, как то, кто еще открывал сообщение и как они на него отреагировали (так называемая "коллаборативная фильтрация"). Два года спустя исследователи из M.I.T. Media Lab создали Ringo - систему рекомендаций по музыке, которая работает путем сравнения вкусов пользователей с другими, которым нравятся похожие музыканты. (Они назвали это "социально-информационной фильтрацией"). Первоначальный поисковый инструмент Google, созданный в 1998 году, был основан на PageRank - раннем алгоритме измерения относительной важности веб-страницы.

Однако только в середине прошлого десятилетия системы рекомендаций стали повсеместной частью жизни в сети. Facebook, Twitter и Instagram перешли от хронологической ленты, показывая сообщения в порядке их публикации, к более алгоритмически упорядоченной, отображая то, что, по мнению платформ, будет наиболее интересным для пользователя. Spotify и Netflix представили персонализированные интерфейсы, которые стремятся удовлетворить вкусы каждого пользователя. (Лучшие подборки для Кайла!) Такие изменения сделали платформы менее предсказуемыми и менее прозрачными. То, что видели Вы, никогда не совпадало с тем, что видели другие. Вы не могли рассчитывать на то, что лента будет работать одинаково от месяца к месяцу. Только на прошлой неделе Facebook ввел в своем приложении новую вкладку "Главная" по умолчанию, в которой приоритет отдается рекомендуемому контенту в духе TikTok, его главного конкурента.
Почти каждая другая крупная интернет-платформа использует ту или иную форму алгоритмических рекомендаций. Google Maps рассчитывает маршруты движения, используя неопределенные переменные, включая прогнозируемую схему движения и эффективность использования топлива, перенаправляя нас в середине поездки по более удобным или сбивающим с пути маршрутам. Приложение для доставки еды Seamless заранее загружает в меню блюда, которые, по его прогнозам, могут Вам понравиться, основываясь на Ваших недавних предпочтениях в заказе, времени суток и том, что "популярно вблизи Вас". Системы электронной почты и текстовых сообщений предсказывают, что Вы собираетесь набрать. ("Понял!") Может показаться, что каждое приложение пытается угадать, чего Вы хотите, прежде чем Ваш мозг успеет придумать собственный ответ, как надоедливый гость на вечеринке, который заканчивает ваши предложения, пока Вы их произносите. Мы постоянно ведем переговоры с назойливой фигурой алгоритма, не зная, как бы мы себя повели, если бы были предоставлены сами себе. Неудивительно, что мы испытываем тревогу. В недавнем эссе для Pitchfork Джереми Д. Ларсон описал ноющее чувство, что алгоритмические рекомендации и автоматизированные плейлисты Spotify вытягивают радость из прослушивания музыки, сокращая процесс органического открытия: "Несмотря на то, что здесь есть вся музыка, которую я когда-либо хотел, ни одна из них не кажется мне полезной, эмоциональной или личной".

Ученые придумали различные термины для определения наших неустойчивых отношений с алгоритмическими технологиями. В работе 2017 года профессор Университета Осло Тайна Бухер собрала твиты с жалобами на ленту Facebook как запись того, что она назвала "алгоритмическим воображением". Одна из пользовательниц задалась вопросом, почему ее поиск подарка для праздника для будущей мамы привел к появлению рекламы приложений для отслеживания беременности. Музыкант был расстроен тем, что его посты о новых песнях привлекают мало внимания, несмотря на все его попытки оптимизировать их продвижение, например, путем включения восклицательных фраз типа "Вау!". Вокруг алгоритма развивалась "структура чувств", сказал мне Бучер, добавив: "Люди замечали, что в этих системах есть что-то, что влияет на их жизнь". Примерно в то же время Тарлетон Гиллеспи, ученый, работающий в исследовательском филиале Microsoft, описал, как пользователи учились формировать свои публикации, чтобы максимизировать их "алгоритмическую узнаваемость". Он сравнил эти усилия с тем, как оратор "поворачивается к микрофону", чтобы усилить свой голос. Контент жил или умирал благодаря S.E.O., или поисковой оптимизации, и те, кто научился использовать ее правила, приобрели особые способности. В качестве примера Гиллеспи приводит случай, когда обозреватель Дэн Сэвидж в 2003 году провел успешную кампанию, чтобы заполнить результаты поиска Google для Рика Санторума, сенатора от правых сил, вульгарным сексуальным неологизмом.
Однако "алгоритмическая тревожность" - это наиболее точная фраза, которую я нашла для описания тревожного опыта навигации сегодняшних онлайн-платформ. Шагун Джавер, ученый в области социальных вычислений, помог определить это выражение, проводя исследования и интервью в сотрудничестве с Airbnb в 2018 году. Из пятнадцати человек, с которыми он беседовал, большинство беспокоились о том, где их объявления появляются в результатах поиска пользователей. Они чувствовали "неуверенность в том, как работают алгоритмы Airbnb, и ощущали отсутствие контроля", - сообщил Джавер в статье, написанной в соавторстве с двумя сотрудниками Airbnb. Один из хозяинов объявлений сказал Джаверу: "Многие объявления, которые хуже моего, находятся на более высоких позициях". Помимо того, что хозяева пытались повысить свой рейтинг, перекрашивая стены, переставляя мебель или делая более лестные фотографии, они также разрабатывали то, что Джавер назвал "народными теориями" о том, как работает алгоритм. Они неоднократно заходили на Airbnb в течение дня или постоянно обновляли информацию о наличии свободных квартир, подозревая, что это поможет алгоритму обратить на них внимание. Некоторые неточно отмечали свои объявления как "безопасные для детей", полагая, что это даст им преимущество. (По словам Джавера, Airbnb не может подтвердить, что это имело какой-либо эффект). Джавер стал воспринимать хозяев Airbnb как работников, за которыми следит компьютер, а не люди. Чтобы заработать на жизнь, они должны были угадывать, чего хочет их капризный босс, и эти тревожные догадки, возможно, сделали систему в целом менее эффективной.

Беспокойство хозяев квартир в Airbnb было связано с проблемами продажи продукта через интернет, но меня больше всего интересуют похожие чувства, которые мучают тех, кто, подобно Валери Питер, пытается понять, что потреблять. С этой целью я недавно разослала опрос об алгоритмах своим друзьям и подписчикам в Интернете; ответы, полученные от более чем ста человек, составили каталог алгоритмических тревог. Отвечая на вопрос о "странных столкновениях" с автоматическими рекомендациями, один пользователь сообщил, что после того, как он расстался с девушкой, Instagram начал рекомендовать аккаунты моделей, а другой был озадачен тем, что песня Soundgarden "Black Hole Sun" появилась на всех платформах сразу. Многие жаловались, что алгоритмические рекомендации, похоже, грубо упрощают их вкусы, предлагая "худшие версии того, что мне нравится, которые имеют определенное поверхностное сходство", как выразился один человек. Все, кроме пяти человек, ответили "да" на вопрос: "Занимает ли "алгоритм" или алгоритмическая лента с годами все большую часть вашего онлайн-опыта?". Один написал, что проблема стала настолько распространенной, что "перестала их волновать", но только потому, что они "не хотят жить с тревогой".

Патриция де Врис, профессор-исследователь из Gerrit Rietveld Academie, которая писала об алгоритмической тревоге, сказала мне: "Как страх высоты не связан с высотой, так и алгоритмическая тревога связана не только с алгоритмами". Алгоритмы не обладали бы той силой, которую они имеют, если бы не потоки данных, которые мы добровольно производим на сайтах, использующих наши личности и предпочтения для получения прибыли. Когда реклама бюстгальтеров или матрасов преследует нас по всему Интернету, виновником является не только алгоритм рекомендации, но и вся бизнес-модель социальных сетей, основанных на рекламе, в которых ежедневно участвуют миллиарды людей. Когда мы говорим об "алгоритме", мы, возможно, смешиваем рекомендательные системы с онлайн-наблюдением, монополизацией и захватом цифровыми платформами всего нашего свободного времени - другими словами, со всей индустрией добывающих технологий XXI века. Бучер сказал мне, что идея алгоритма - это "прокси для технологий и отношений людей с машинами". Она стала метафорой окончательного цифрового Другого, представлением всей нашей тревожности по поводу жизни в сети.

Пользователей нельзя винить в непонимании границ алгоритмов, потому что технологические компании сделали все возможное, чтобы их системы оставались непрозрачными, как для управления поведением пользователей, так и для предотвращения утечки коммерческих секретов конкурентам или кооптирования ботами. Кришна Гаде устроился на работу в Facebook сразу после выборов 2016 года, работая над улучшением качества новостной ленты. Там он разработал функцию "Почему я вижу этот пост?", которая позволяла пользователю нажать кнопку на любом элементе, появившемся в его ленте Facebook, и увидеть некоторые алгоритмические переменные, которые привели к появлению этого элемента. Например, фотография собаки может оказаться в ее ленте, потому что она "комментировала посты с фотографиями собак чаще, чем другие типы медиа" и потому что она состоит в группе под названием Woofers & Puppers. Гейд сказал мне, что, на его взгляд, эта функция способствует развитию чувства прозрачности и доверия. "Я считаю, что пользователи должны иметь право спрашивать о том, что происходит", - сказал он. По крайней мере, это давало пользователям возможность увидеть, как их воспринимает система рекомендаций. Однако сегодня на сайте Facebook кнопка "Почему я вижу этот пост?" доступна только для рекламы. В приложении она есть и для постов без рекламы, но, когда я недавно попробовал ее на горстке постов, большинство из них сообщили только, что они "популярны по сравнению с другими постами, которые Вы видели".
В отсутствие надежной прозрачности многие из нас придумали домашние средства для управления влиянием алгоритма. Подобно хозяевам Airbnb, мы используем уловки, которые, как мы надеемся, могут обеспечить нам продвижение в социальных сетях, как это было несколько лет назад, когда пользователи предваряли свои публикации в Facebook фальшивыми объявлениями о помолвке или свадьбе. Мы пытаемся научить системы рекомендаций нашим предпочтениям, ставя "большой палец вниз" на фильмы, которые нам не нравятся на Netflix, или быстро пролистывая нежелательные видео на TikTok. Это не всегда срабатывает. Валери Питер вспоминает, что после того, как она последовала за кучей аккаунтов, посвященных астрологии, в Твиттере, ее лента начала рекомендовать огромное количество астрологического контента. Ее интерес к этой теме быстро угас - "я стала опасаться за свою жизнь каждый раз, когда Меркурий становился ретроградным", - говорит она, - но Twitter продолжал предлагать соответствующий контент. На сайте есть кнопка, которую пользователи могут нажать, чтобы сообщить, что их "не интересует этот твит", с грустным лицом эмодзи, но когда Питер попробовала это сделать, она обнаружила, что предлагаемые Твиттером альтернативы тоже связаны с астрологией. "Я уже месяц или два пытаюсь, но продолжаю их видеть", - сказала она. Алгоритм собирает информацию и молча принимает за нас решения, но не предоставляет практически никакой возможности для обратной связи". В разгар моей работы над этой статьей алгоритм сортировки Gmail решил, что письмо с материалами для проверки фактов, которое я отправила своему редактору, является спамом, и удалил его из папки "Отправленные", с чем я никогда раньше не сталкивалась и не хотела бы, чтобы это повторилось.

В последнее время меня тянет в те уголки Интернета, которые не управляются алгоритмическими рекомендациями. Я зарегистрировалась на Glass, приложении для обмена фотографиями, которое ориентировано на профессиональных фотографов, но открыто для всех желающих. Моя лента там спокойная, чистая и полностью хронологическая, в ней представлены в основном черно-белые городские снимки и цветные пейзажи - смесь, напоминающая ранние дни Flickr (даже если преобладающая эстетика фотографии сегодня сформирована алгоритмами оптимизации камеры iPhone). Я не могу себе представить, что в наши дни у меня будет приятный опыт в Instagram, где сейчас мою ленту заполонили раздражающие рекомендуемые видео, так как платформа пытается подражать TikTok. (Почему алгоритм думает, что мне нравится смотреть трюки мотоциклистов?) Единственная проблема с Glass заключается в том, что там недостаточно контента, который я могу посмотреть, потому что мои друзья еще не присоединились к ней. Гравитационное притяжение основных социальных сетей трудно преодолеть. С тех пор как Twitter отказался от десктоп версии TweetDeck, которую я использовала для доступа к хронологической версии своей ленты, я больше полагаюсь на Discord, где мои друзья собираются в чатах, чтобы обменяться личными рекомендациями и новостями. Но реальность такова, что большая часть того, с чем я сталкиваюсь в Discord, была собрана из лент традиционных платформ. Эти новые пространства в Интернете - буфер для влияния алгоритмов, а не блокада.

В информационной рассылке Ташджиан посоветовала Питер изучить свои вкусы за пределами социальных сетей. "Вы должны принять менталитет кроличьей норы! Читайте сноски, и пусть одна сноска ведет к другой", - написала Ташджиан. Может быть, Вы найдете фильм, который Вам нравится, предложила она, и посмотрите все остальные фильмы этого режиссера. Может быть, Вы обнаружите, что Вам нужна ночная рубашка, и "найдете довольно хорошую имитацию" великолепной рубашки на Etsy. Конечно, многие пути исследования культуры также являются посредниками алгоритмов. Когда я на днях зашла на главную страницу Etsy, меня встретил дисплей автоматически созданных рекомендаций с надписью "Новинки, которые нравятся нашим редакторам". Возможно, благодаря каким-то странностям моей истории просмотра Интернета, среди них были сумки-тоут с лозунгами на немецком языке и дорожные кружки с монограммами. Есть ли на свете человек-куратор, которому действительно нравятся эти вещи? Когда они начнут появляться в моей ленте Instagram, стану ли я тоже их любить? Можно подумать, что алгоритм уже лучше меня знает.
Подпишись на наш Telegram, чтобы знать больше
© 2022 All Rights Reserved