входрегистрация
философытеорииконцепциидиспутыновое времяматематикафизика
Поделиться статьей в социальных сетях:

Поисковые системы и этика

Ссылка на оригинал: Stanford Encyclopedia of Philosophy

Впервые опубликовано 27 августа 2012 г.; существенно переработано 11 августа 2020 г.

Что такое поисковая система или поисковый движок? Почему поисковые системы проблематичны с точки зрения этики? В этой статье мы дадим критический обзор существующих философских размышлений по данной теме. Относительно небольшое количество научных работ по ней было написано с философской точки зрения. И лишь немногие из существующих публикаций, посвященных этическим аспектам поисковых систем, принадлежат перу философов (см., напр., Nagenborg 2005). 

Введение и обзор

Сегодняшний мир сложно представить без поисковых систем. Кто из старшеклассников не пользовался поиском в интернете, чтобы найти ответ на вопрос по какой-либо теме или предмету?

Конечно, вполне возможно, что многие пользователи Интернета, – как молодые, так и пожилые, – не делают сознательного различия между поисковыми системами, которые они используют, и веб-браузерами, в интерфейс которых поисковые системы интегрированы как функции.

Но практически все пользователи Интернета привыкли и даже впали в зависимость от мгновенных результатов, которые они получают в ответ на свои различные поисковые запросы. Хотя у нас уже есть достаточно определений понятия "поисковая система", ни одно из них не было принято в качестве стандартного или общепризнанного. Однако для целей данной статьи мы примем определение (веб-) поисковой системы, данное Халавайсом (Halavais 2009, 5–6), —

это "информационно-поисковая система, позволяющая осуществлять поиск по ключевым словам в распределенном цифровом тексте".

Обращаем внимание, что это определение включает ряд важных технических терминов и понятий, которые, в свою очередь, нуждаются в определении и дальнейшем разъяснении. Наше рассмотрение ключевых технических понятий, лежащих в основе поисковых систем, призвано предоставить нужный контекст для анализа этических следствий. В этом смысле Бланке (Blanke 2005, 34) прав, что адекватный анализ этических аспектов поисковых систем "требует знаний о технологии и ее функционировании".

Мы начнем с краткого очерка истории и эволюции поисковых систем, начиная с их зарождения в эпоху до появления интернета и заканчивая разработкой и внедрением современных (эпохи "веб 2.0") поисковых систем, таких как Google. Наше рассмотрение ключевых исторических вех в развитии этой технологии призвано ответить на первый вопрос, отмеченный выше: "Что такое поисковая система?". Он также служит основой для анализа нашего второго вопроса — "Почему поисковые системы проблематичны с этической точки зрения?", — в фокусе которого будет группа этических проблем, связанных с технологией поисковых систем. В эту группу входят различные вопросы: от предвзятости поисковых систем и проблемы прозрачности/непрозрачности до проблем, затрагивающих неприкосновенность частной жизни и слежку, а также ряд вопросов, связанных с цензурой и демократией. Мы также описываем возникающие этические проблемы, влияющие на (кибер)безопасность — на уровне данных, системы и (меж)государственного уровня — порождаемые использованием "обнаруживаемых поисковых систем" в контексте Интернета вещей. Кроме того, мы задаемся вопросом, есть ли у компаний-создательниц поисковиков особые моральные обязательства, в частности, в свете их "привилегированного" положения в обществе как "привратников Веба" (Hinman 2005, 21), за который они в ответе. Анализируя этот вопрос, мы также рассмотрим ключевую роль, которую играет доверие для пользователей, впавших в зависимость от поисковых систем и разрабатывающих их компаний (в плане доступа к точной информации).

Наконец, в заключительном разделе мы кратко упомянем о некоторых аспектах влияния поисковых систем на более обширные философские проблемы (особенно в области эпистемологии), которые могут быть не только этическими по своей природе. Впрочем, полноценный анализ этих вопросов выходит за рамки данной статьи.

Развитие и эволюция поисковых систем: краткая история

Поскольку поисковые системы предоставляют пользователям интернета доступ к важной информации, выдавая ссылки на открытые онлайн-ресурсы по разным темам, большинство людей скорее положительно оценивают технологию поисковых систем; можно даже предположить, как отмечают Ноубл (Noble 2018) и другие, что эта технология является "ценностно-нейтральной". Тем не менее, поисковые системы могут приводить к ряду этических противоречий. Однако, прежде чем рассмотреть эти противоречия, сначала мы кратко обсудим историю технологии поисковых систем с разбивкой на категории, отражающие четыре разные эры:

(i) до интернета,

(ii) интернет (до всемирной паутины),

(iii) ранний веб (всемирная паутина) и

(iv) веб 2.0.

Мы увидим, как техническое развитие в каждую эпоху имело определенные последствия для группы этических проблем, рассмотренных в  разделе 3 далее.

Доинтернетная эпоха вычислений и информационного поиска (1940-е — 1970-е)

Сегодня мы привыкли ассоциировать поисковые системы с компьютерными технологиями, и, возможно, более конкретно — с вычислительными и электронными устройствами с доступом к интернету. Тем не менее, первые работы в области поисковых/информационно-поисковых систем проводились независимо от развития электронной вычислительной техники. Если первый электронный компьютер (общего назначения) — ЭНИАК (электронный числовой интегратор и вычислитель) — был завершен в ноябре 1945 года и анонсирован в феврале 1946 года (Palfreman and Swade, 1991), то до появления первых интернет-поисковиков прошло несколько десятилетий. Поскольку ЭНИАК и другие первые компьютеры были разработаны в основном для "обработки чисел", относительно мало внимания уделялось информационно-поисковым системам, которые можно было бы использовать для поиска среди большого количества данных, находящихся в этих не связанных сетью (или "автономных") компьютерах.

Однако, как мы увидим, некоторые теоретики информационно-поисковых систем уже начинали задумываться о том количестве информации, которая становилась доступной в этот период и, по всей вероятности, которая будет лишь увеличиваться с появлением компьютеров. В частности, их волновал вопрос о том, как можно практично организовать и извлекать информацию из постоянно расширяющегося хранилища. Халавайс (Halavais 2009, 13) отмечает, что в вопросе организации хранимой информации, доступной для получения, первые компьютеры "были вдохновлены идеями библиотекарей и делопроизводителей". Но некоторые из ведущих мыслителей зарождающейся области информационного поиска, – которую Ван Куверинг (Van Couvering 2008) описывает как "гибридную" академическую дисциплину, сочетающую элементы теории информации и информатики, – поняли, что традиционные методы поиска информации станут неэффективны в эпоху электронных вычислительных систем.

Одним из визионеров, увидевших необходимость в новых видах схем организации и поиска информации для управления растущим объемом информации, был Ванневар Буш: возможно, самая важная фигура в истории информационно-поисковых машин в период до появления интернета. В своей классической статье " Как мы можем мыслить " (Atlantic Monthly, июль 1945 года), опубликованной примерно за шесть месяцев до официального заявления о создании ЭНИАК, Буш заметил следующее:

Совокупность человеческого опыта увеличивается с непомерной скоростью, а способы, которыми мы продвигаемся в этом лабиринте к искомым нам [данным] те же, что во времена парусников.

Однако Буш считал, что техническое решение этой проблемы возможно с помощью системы, которую он назвал мемекс и описал как

устройство, в котором человек хранит все свои книжки, все свои записи и все свои переписки с другими людьми, и которое является механическим, что обеспечивает быстрый и гибкий [доступ к данным].

Буш представлял себе мемекс как "запутанную сеть маршрутов", подобную работе человеческого мышления, – которое, по его мнению, работает по методу "ассоциации", а не как алфавитный указатель (обычно используемый в библиотеках и других схемах каталогизации).

Согласно Леви (Levy 2008, 508), самой "инновационной особенностью" мемекса было создание ассоциативных указателей между частями запечатленного на микрофильм текста — то, что мы сегодня назвали бы гипертекстовыми ссылками — для того, чтобы исследователи могли проследить путь и движение релевантной информации в массиве литературы.

С помощью разработанной Бушем схемы "ассоциативного указателя (индексирования)", различные фрагменты данных могли быть связаны друг с другом, "так как любой отдельный элемент может быть вызван по желанию, чтобы немедленно и автоматически выбрать другой". Таким образом, Бушу часто приписывают заслугу в том, что он предвосхитил те виды функций поисковых систем, которые в конечном итоге будут использоваться в Интернете и Всемирной паутине.

Двумя другими важными фигурами в истории теории поисковых систем эпохи до появления интернета были Джеральд Салтон и Тед Нельсон. Салтон, которого некоторые считают "отцом современных поисковых технологий", разработал систему поиска информации SMART (“Магический автоматический поисковик Салтона” – Salton’s Magic Automatic Retriever of Text). А Нельсон, придумавший в 1963 году гипертекст, оказал значительное влияние на теорию поисковых систем благодаря своему проекту Xanadu (Wall 2011). Хотя прошло несколько лет, прежде чем вклад Салтона и Нельсона был воплощен в современных поисковых системах, стоит отметить, что отдельные "элементарные" функции поиска были встроены в операционные системы некоторых компьютеров до появления интернета. Например, Халавайс указывает, что операционная система UNIX поддерживала поисковую утилиту под названием "Finger".

С помощью команды "Finger" пользователь UNIX мог найти одного или нескольких пользователей, которые также имели активные учетные записи в конкретной UNIX-системе. Например, чтобы узнать о пользователе UNIX по имени "Джонс", можно было просто ввести команду "Finger Jones" в командной строке.

Однако эта функция была очень ограниченной, поскольку единственным видом информации, которую можно было получить, была информация о том, вошел ли один или несколько пользователей в систему в данный момент и в какое время это случилось. Но, как отмечает Халавайс, эта элементарная возможность поиска также позволяла пользователям UNIX организовывать небольшое социальное взаимодействие — например, пользователи могли "искать" друг друга, чтобы назначить время для игры в теннис после работы (при условии, конечно, что пользователи в это время входили в свои учетные записи UNIX).

Некоторые концептуальные/технологические прорывы, произошедшие в доинтернетовскую эпоху развития поисковых систем, породили два вида этических проблем, рассмотренных в разделе 3.

Во-первых, в отличие от более традиционных схем каталогизации, основанных на прямых правилах и методах вывода, схема "ассоциативного указания" Буша для поиска информации позволила (пусть и непреднамеренно) создать некоторые типы "пристрастности", влияющие на результаты поиска пользователей; их мы рассматриваем в разделах 3.1 и 4.1.

Во-вторых, возможный благодаря UNIX-утилите "Finger" поиск, позволяющей пользователям UNIX получать информацию о пребывании в системе других пользователей UNIX, – а также собирать информацию о том, в какое время эти пользователи входили и выходили из системы, – породил некоторые проблемы, касающиеся конфиденциальности и отслеживания; мы рассматриваем их среди этических проблем в разделах 3.2 и 3.3.

Ранняя (до Web) интернет-эпоха (1980-е)

К 1960-м годам планы по созданию обширной сети компьютерных сетей (т.е. того, что в конечном итоге станет интернетом) были на этапе реализации. К 1970 году началась работа над сетью ARPANET (сеть управления перспективных исследовательских проектов), которую принято считать предшественницей интернета. Этот американский проект финансировался DARPA (управление перспективных исследовательских проектов Министерства Обороны США) до конца 1980-х годов, пока не перешел под управление сети Национального фонда науки США (NSFnet) (Spinello 2011). Хотя в этот период уже существовало множество компьютерных сетей, они не могли легко поддерживать связь и обмениваться данными друг с другом; для различных сетей требовался общий протокол обмена данными между системами. Архитектура TCP/IP (TCP – протокол управления передачей/ IP – протокол интернета) была выбрана в качестве стандартного протокола для только что появившегося интернета. С внедрением этого стандарта был связан значительный оптимизм (особенно среди многих представителей академического исследовательского сообщества) насчёт возможности обмена данными, размещёнными в различных образующих ранний интернет компьютерных системах. Однако оставалась одна очень важная проблема: как пользователям интернета искать нужные данные в этих обширных, открытых для доступа информационных ресурсах? Для этого была необходима сложная поисковая программа/утилита с надежной системой индексирования, которая указывала бы на существующие компьютерные базы данных и идентифицировала их содержание. Первые индексы в интернете были весьма примитивными, и, как отмечает Халавайс (2009), "их приходилось создавать вручную".

С появлением TCP/IP частные компьютерные сети, включая LAN (локальные сети) и WAN (глобальные сети), получили возможность взаимодействовать друг с другом и, – по крайней мере, в принципе, – обмениваться огромными объемами информации по сети. Однако для достижения этой цели требовался другой протокол, который надстраивался бы над TCP/IP. В ответ на эту потребность на основе клиент-серверной системы был разработан и внедрен FTP (протокол передачи файлов). Для обмена файлами с другими пользователями интернета по этой схеме сперва нужно было настроить FTP-сервер‹1› . Затем пользователи могли загружать файлы на FTP-сервер и получать их с него с помощью FTP-клиента. Возможно, важнее было то, что теперь они могли искать файлы с помощью одной из новейших поисковых систем, первая из которых называлась ARCHIE.

Поисковая система ARCHIE позволяла пользователям осуществлять поиск при помощи ограниченного набора параметров — преимущественно по "именам файлов". Поисковая база данных имен файлов ARCHIE состояла из списков директорий сотен систем, доступных на публичных FTP-серверах (а со временем и на "анонимных" FTP-серверах). В начале 1990-х годов обрели широкую известность две другие поисковые системы: VERONICA (Very Easy Rodent-Oriented Net-Wide Index to Computer Archives) и JUGHEAD (Jonzy's Universal Gopher Hierarchy Excavation and Display). Преимущество VERONICA и JUGHEAD перед ARCHIE заключалось в том, что они могли искать обычные текстовые файлы в дополнение к поиску по именам файлов. Эти две поисковые системы также работали в связке с протоколом под названием GOPHER. По словам Халавайса (Halavais 2009, 22), "поиск через меню" в GOPHER помог навести "порядок в интернете", поскольку пользователи "теперь могли перемещаться по меню, которые упорядочивали документы".

Некоторые технологические прорывы, произошедшие на заре эры раннего интернета в развитии поисковых систем, обострили этическую проблему приватности, рассмотренную в 3-м разделе. В частности, возможный благодаря соответствию протоколам TCP/IP и FTP поиск по всему интернету резко увеличил масштаб проблем, связанных с конфиденциальностью и отслеживанием (первоначально возникших в предшествующую интернету эпоху в приложениях вроде UNIX-утилиты "Finger"), которые будут рассмотрены разделах 3.2 и 3.3. Кроме того, "анонимные" FTP-серверы, также разработанные в этот период, сделали возможным для технически подкованных пользователей загружать (анонимнно) в интернет файлы, защищенные авторским правом, – например, программное обеспечение. А механизмы индексации данных, поддерживаемые поисковыми системами ARCHIE и GOPHER, позволили пользователям искать и загружать/обмениваться этими защищенными авторским правом файлами в условиях относительной анонимности. Хотя вопросы интеллектуальной собственности не входят в число этических проблем, рассматриваемых в 3-м разделе, стоит отметить: разработка некоторых связанных с поисковыми системами приложений в эту эпоху подготовила почву для незаконного обмена файлами с музыкой, защищенной авторским правом, связанного с сайтом Napster в конце 1990-х годов. (Неоднозначный веб-ресурс Napster был одним из первых и наиболее популярных в то время у молодежи сайтов для обмена музыкой, защищенной авторским правом, со своими друзьями в режиме онлайн).

(Ранний) Web (1990-е)

Первый веб-сайт был создан в 1991 году (в европейской лаборатории физики частиц CERN) Тимом Бернерсом-Ли, который также основал консорциум Всемирной паутины (W3C) в Массачусетском технологическом институте в 1994 г. Всемирная паутина была построена на основе протокола передачи гипертекста (HTTP) и использовала формат под названием HTML (язык разметки гипертекста) для создания и отправки документов; многие неискушенные пользователи нашли навигацию по Всемирной паутине гораздо более дружественной и универсальной, чем использование GOPHER и FTP для обмена файлами. Однако для того, чтобы Веб (основанный на HTTP) полностью реализовал свой потенциал и стал удобным для широкого числа пользователей, был необходим интуитивно понятный пользовательский интерфейс. Веб-браузер Mosaic (позже названный Netscape Navigator) появился в 1993 г. и стал первым интернет-приложением с графическим пользовательским интерфейсом (GUI); этот интерфейс с его интуитивно понятными функциями, позволяющими пользователям нажимать на гиперссылки, значительно упростил навигацию в сети для неискушенных пользователей. Хотя Netscape Navigator был веб-браузером, а не поисковой системой, он предоставил площадку, где могли развиваться компании, специализирующиеся на поисковых системах. Вскоре появилось множество поисковых систем, большинство из которых были посвящены определенным предметным областям или конкретным видам поиска. Среди поисковых систем, которые были особенно популярны в этот период, стоит упомянуть Excite (появилась в 1993 г.), Lycos и Infoseek (обе появились в 1994 г.). Среди других были Looksmart и Alta Vista, представленные в 1995 г., и Ask.com (исходное название AskJeeves) в 1997 г. (Wall 2011).

Хотя внутренняя структура поисковой системы довольно сложна и включает в себя, помимо проч их компонентов, программы, называемые "веб-пауками" (поисковые роботы), которые "прочесывают" всемирную паутину, с точки зрения пользователя процесс поиска достаточно прост и может быть сведен к двум шагам: (1) пользователь вводит поисковый термин/фразу или "ключевое слово" в "поисковую строку"; и (2) поисковая система выдает список соответствующих "страниц", которые обычно содержат гиперссылки на искомые страницы. Многие ранние поисковые системы были узкоспециализированными, поэтому их рассматривают как "вертикальные" (т.е., в современной технической терминологии, – касающейся поисковых систем). Например, Ask.com был разработан для приема запросов в форме конкретных вопросов и поэтому может рассматриваться как вертикальная поисковая система. Халавайс определяет вертикальную поисковую систему как систему, которая ограничивает себя "в плане темы, среды, региона, языка или какого-то другого набора параметров, глубже сканирую искомую область". (В этом смысле вертикальные поисковые системы помогают углубляться в конкретные области, нежели охватывать смежные). Однако несколько популярных поисковых систем, которые процветали в ранний период существования веба, были более универсальными, или "горизонтальными", по своей природе. Например, Alta Vista была одной из первых поисковых систем, относящихся к этой категории. Сегодня большинство крупных поисковых систем являются горизонтальными, самой известной из которых, пожалуй, является Google. Однако следует отметить, что вертикальные поисковые системы и сегодня играют важную роль. Рассмотрим пример, когда пользователь использует Google или альтернативную горизонтальную поисковую систему, такую как Yahoo! или Bing (от Microsoft), чтобы найти веб-сайт колледжа Бейтс. После того, как пользователь успешно перейдет на главную страницу сайта Бейтса, он может использовать локальную — вертикальную — поисковую систему на самом сайте Бейтса, чтобы получить информацию о преподавателях и сотрудниках, работающих в колледже, или о различных академических программах и совместных мероприятиях, спонсируемых колледжем, и так далее. Однако в рамках вертикальной поисковой системы пользователь не может получить более обширную информацию о преподавателях и академических программах в соседних колледжах и университетах или по смежным темам в целом (как это возможно при использовании горизонтальной поисковой системы).

Другой тип систем — метапоисковая система, которая, как следует из названия, использует результаты нескольких (специальных) поисковых систем, а затем объединяет и реорганизует выдачу результатов. Одной из первых и, возможно, самой популярной метапоисковой системой в середине и конце 1990-х гг. была HotBot (Wall 2011).

Метапоисковые системы играли гораздо более важную роль в первые годы существования веба. По мере того, как поисковые системы совершенствовались и становились все сложнее, потребность в метапоиске резко снизилась.

Сегодня большинство поисковых систем общего назначения (горизонтальных), вроде Google и Bing, способны выдавать результаты того же порядка (как это когда-то делали метапоисковые системы) благодаря своим схемам агрегации. Фактически, основатели Google назвали свою поисковую систему "агрегатором информации" (Brin and Page 1998).

Некоторые технологические достижения эпохи "раннего веба" в развитии поисковых систем породили два вида этических проблем приватности, которые рассматриваются в 3-м разделе.

Во-первых, огромное количество информации об обычных людях, ставшее доступным для поисковых систем в эту эпоху, сделало этих людей "объектами" онлайн-поиска для любого, кто имеет доступ к интернету; эта проблема рассматривается в разделе 3.2. Во-вторых, практика сбора личной информации, – чем регулярно занимались крупные поисковые компании и их рекламодатели, – в значительной степени способствовала возникновению связанных с обработкой данных проблем конфиденциальности, которые рассматриваются в разделе 3.3.

Эра «Web 2.0» (с 2000 года по настоящее время)

Хотя словосочетание "Веб 2.0" сегодня часто используется для обозначения современно веб-среды от предшествующей, критики отмечают, что оно несколько расплывчато и неточно. Если ранний веб (иногда называемый "Веб 1.0") был описан как онлайн-среда, которая была по сути пассивной или статичной в той мере, в какой можно было просто просматривать содержимое веб-сайта, созданного организацией или отдельным человеком (например, когда человек посещал чью-то "домашнюю страницу"), то Веб 2.0 более динамичен, поскольку поддерживает множество интерактивных функций или функций "участия". Например, в среде Веб 2.0 пользователи могут взаимодействовать и сотрудничать с другими людьми так, как раньше было невозможно. Этими видами совместной деятельности являются wiki (наиболее известным примером является Википедия), а также блоги и приложения социальных сетей (такие как Facebook и Twitter). Конечно, актуальным для нас является вопрос о том, как изменяет или влияет среда Веба 2.0 на функции поисковых систем и, что более важно, какие этические проблемы это вызывает.

Неясно, можно ли точно назвать современные поисковые системы "поисковыми системами версии Веб 2.0", даже если они работают в среде Веб 2.0.

Например, многие инструменты и функции для совместной активности, используемые на таких платформах, как социальные сети, блоги и вики, не обязательно применимы к современным поисковым системам. Поэтому, возможно, более уместно использовать фразу Хинмана "поисковые системы второго поколения". Однако О'Рейли (2005) предполагает, что практика Google по включению в выдачу пользовательского контента для обеспечения "лучшей" среды веб-поиска для пользователей совместима с уровнем интерактивности Веба 2.0. Но, несмотря на интерпретацию О'Рейли, можно все же усомниться в оправданности формулировки "поисковые системы Веб 2.0", поэтому мы будем называть современные поисковые системы (второго поколения) "поисковыми системами эпохи Веб 2.0".

Что именно отличает поисковую систему эпохи Веб 2.0 от предшествующих? Хинман отмечает, что традиционные критерии ранжирования сайтов, которые использовали компании, занимающиеся поисковыми системами, основывались на двух атрибутах: (1) количество посещений страницы (т.е. "популярность") и (2) "количество других страниц, ссылающихся на данную". Что касается второго критерия, Диас (Diaz 2008) и другие проводят аналогию с ранжированием важности научных статей. Например, они отмечают, что академическая статья обычно считается важной, если на нее ссылаются в других статьях. И, пожалуй, статья считается еще более важной, если на нее ссылаются высокоцитируемые статьи. Хинман считает, что переход к (так называемым) поисковым системам эпохи Веб 2.0 произошел, когда компании вроде Google "внимательнее присмотрелись к тому, что же хотели найти пользователи" (и это, как он также отмечает, не всегда популярнейший сайт). Он отмечает, например, что в алгоритме Google используется следующая стратегия: "Потребности пользователей → Условия поиска → Желаемый сайт" (Hinman 2005, 22). Он также отмечает, что в этой схеме

желание пользователя становится ключевой составляющей как алгоритма, так и набора поисковых терминов, обычно используемых для выражения желания пользователя

Хинман и другие считают, что успех Google как ведущей современной поисковой системы связан с собственным алгоритмом компании под названием PageRank.

Циммер (Zimmer 2008, 77) считает, что конечной целью Google является "создание «идеальной поисковой системы», которая будет выдавать только интуитивно понятные, персонализированные и релевантные результаты". Халперн (Halpern 2011) указывает, что процесс поиска уже "стал персонализированным", т.е. "вместо того, чтобы быть универсальным, он является идиосинкразическим и до странного категоричным". Паризер (Pariser 2011), утверждающий, что "стандартного Google больше не существует", также отмечает, что при "персонализированном поиске" результат(ы), предложенный алгоритмом Google, вероятно, лучше всего соответствует поисковому запросу. Некоторые этические следствия в связи с персонализацией поисковых алгоритмов рассматриваются в разделе 3.4

Прежде чем идти дальше, стоит упомянуть еще два типа современных поисковых систем. Во-первых, это DuckDuckGo (альтернатива Google и Bing), который считает своим преимуществом отсутствие профилирования пользователей, и создатели которого утверждают, что он не персонализирует результаты поиска. Таким образом, пользователи обычно получают одинаковые результаты поиска и одинаковое ранжирование результатов по заданному запросу. Во-вторых, появился новый тип поисковых систем, способных "обнаруживать" устройства "интернета вещей". Два примера такой "обнаруживающей поисковой системы", Shodan и Thingful, рассматриваются в последнем разделе статьи.

Этические следствия

Большинству пользователей Интернета хорошо известны достоинства поисковых систем. Как уже отмечалось ранее, многие из нас сегодня полагаются на них в поиске информации, затрагивающей почти все аспекты нашей повседневности — информацию о работе, путешествиях, отдыхе, развлечениях, финансах, политике, новостях, спорте, музыке, образовании и так далее. Однако использование поисковых систем породило и целый ряд этических проблем.

В разделе 3 мы сгруппировали эти проблемы в пять обширных категорий:

(i) предвзятость поисковых систем и проблема прозрачности/непрозрачности,

(ii) приватность и осознанное согласие,

(iii) мониторинг и слежка,

(iv) цензура и демократия,

(v) вопросы (кибер)безопасности, "обнаружимые поисковые системы" и интернет вещей.

В разделе 4 рассматривается другой, но также связанный с этим блок этических проблем, а именно: вопросы, касающиеся моральной и социальной ответственности компаний-поисковиков.

Предвзятость поисковых систем и проблема прозрачности/непрозрачности

Что такое предвзятость поисковых систем и почему она вызывает споры? Из исследований по этой теме можно сделать вывод, что термин "предвзятость поисковых систем" используется для описания по крайней мере трех различных, иногда пересекающихся проблем:

(1) технология поиска не является нейтральной, а, наоборот, имеет встроенные в ее конструкцию особенности, которые отдают предпочтение одним ценностям перед другими;

(2) ключевые поисковые системы систематически дают приоритет одним сайтам (и некоторым разновидностям сайтов) перед другими в выдаче в ответ на поисковые запросы пользователей; и

(3) алгоритмы поиска не используют объективные критерии при формировании поисковой выдачи.

Пристрастность поисковых систем

Хотя некоторые пользователи полагают, что поисковые системы "нейтральны" или свободны от ценностей, критики утверждают, что технология поисковых систем, как и информационные технологии в целом, ориентирована на ценности и, следовательно, предвзята из-за тех особенностей, которые обычно заложены в их дизайн. Например, Брей (Brey 1998, 2004) и другие (см., например, Friedman and Nissenbaum 1996) утверждают, что информационные технологии имеют определенные встроенные функции, которые, как правило, отдают приоритет одним ценностям перед другими. Брей опасается, что в некоторые из этих технологических особенностей заложены "морально непрозрачные" ценности. Поскольку такие ценности не всегда очевидны для технических специалистов, разрабатывающих вычислительные системы, Брей считает, что для выявления или раскрытия "скрытых" ценностей на стадии проектирования необходима методологическая основа, расширяющая т.н. "стандартную" модель прикладной этики, обычно используемую в "массовой компьютерной этике". Он называет свою модель "раскрывающей компьютерной этикой" (Brey 2004, 55–56).

Выявление ценностей, скрытых в технологическом проектировании и разработке, стало основной целью движения, названного Value Sensitive Design – Дизайн, чувствительный к ценностям – или VSD, которое Фридман, Кан и Борнинг (Friedman, Kahn and Borning 2008, 70) определяют как

теоретически обоснованный подход к проектированию технологий, который открыто принципиально и в полном объеме учитывает ценности на протяжении всего процесса проектирования.

Фридман иллюстрирует свою модель на примере интернет-куки - т.е. небольших текстовых файлов, которые веб-браузер помещает в устройство пользователя с целью отслеживания и фиксации действий пользователя на веб-сайте. В частности, он рассматривает дизайн куки в связи с осознанным согласием при использовании веб-браузеров. Далее он утверждает, что встроенные в дизайн куки функции ставят под сомнение ценность такого согласия и что эта ценность важна, поскольку она защищает другие ценности, такие как приватность, автономия и доверие.

Технология куки не только встроена в дизайн современных веб-браузеров, но и используется крупнейшими поисковыми компаниями для получения информации о пользователях. Постольку, поскольку эти компании размещают куки на устройствах пользователей без их предварительного согласия, постольку они способствуют, и, возможно, даже обостряют, по крайней мере, одну разновидность предвзятости — т.е. предвзятости, подрывающей такие ценности как приватность и автономия, в то время как предпочтение отдается ценностям, связанным с наблюдением и мониторингом. Однако, поскольку этот тип предвзятости относится к проблемам дизайна веб-браузеров, он не связан с поисковыми системами как таковыми.

Манипуляция результатами поиска

Некоторые критики, в том числе Интрона и Ниссенбаум (Introna and Nissenbaum 2000), склонны рассматривать схемы, используемые для манипулирования результатами поиска, как парадигмальный случай предвзятости в контексте поисковых систем. В своей достаточно известной статье на эту тему они утверждали, что поисковые системы

систематически исключают одни сайты или виды сайтов в пользу других, систематически делая заметными одни за счёт других.

Существует множество предположений о том, почему так происходит, но мы кратко обсудим две наиболее значимые причины: (а) интересы рекламодателей, спонсирующих поисковые системы; и (б) схемы, используемые специалистами и организациями для манипулирования порядком ранжирования сайтов в поисковой выдаче. (Третья причина, которая также иногда упоминается, связана с характером алгоритмов, используемых создателями поисковиков; этот вопрос рассматривается здесь в п. 3.1.3).

Рекламные стратегии в интернете и предвзятость поиска

Некоторые критики, включая Хинмана (Hinman 2005) и Ноубла (Noble 2018), указывают на то, что компании-создатели поисковых систем "подотчетны" рекламодателям, которые их спонсируют. Поэтому для многих из этих критиков проблемы, связанные с предвзятостью, влияющие на включение/исключение определенных сайтов, могут быть объяснены интересами рекламодателей. Основатели Google Брин и Пейдж (Brin and Page 1998, 18), которые изначально выступали против идеи платной рекламы в поисковиках, отметили, что кажется разумным

ожидать, что поисковые системы, финансируемые за счет рекламы, будут неизбежно пристрастны интересам рекламодателям и далеки от нужд потребителей... Поскольку даже специалистам очень трудно анализировать поисковые системы, пристрастность этих систем особенно коварна... [и], вероятно, менее вопиющие виды предвзятостирынок стерпит.

Рекламные схемы, используемые поисковыми системами, со временем эволюционировали. Например, Диас (Diaz 2008, 21) указывает, что баннерная реклама, распространённая в Интернете в эпоху Веб 1.0, была заменена "платным размещением объявлений". Он также отмечает, что "платное размещение объявлений" (в отличие от предшествующих им баннеров) не всегда визуально отличается от обычных результатов поисковой выдачи.

Элгесим (Elgesem 2008) указывает, что такие поисковые системы, как GoTo, чья выдача была полностью составлена из "платных объявлений" рекламодателей, якобы потерпели неудачу из-за недовольства пользователей результатами, которые они получали. Однако в конечном итоге GoTo была поглощена компанией Google, которая продолжила использовать метод GoTo для формирования выдачи на основе платной рекламы, но физически отделила эти результаты от "органических" результатов, которые появляются в центре страниц с результатами поиска (Elgesem 2008); эта схема, которая подчеркивает различие двух видов результатов, по-видимому, получила одобрение пользователей Google.

Диаз описывает два других типа проблем предвзятости, которые влияют на рекламные механизмы в поисковиках: (i) произвольные (и кажущиеся непоследовательными) критерии, используемые компаниями при размещении рекламы, и (ii) неточные (и иногда запутанные) критерии, используемые для отделения редакторских материалов (одобренных поисковой компанией) от платной рекламы. (Хотя дискриминация в отношении рекламы, которую Google принимает или отклоняет, может показаться произвольной в безобидном смысле, Диаз отмечает, что Google также отказался принимать рекламу от некоторых организаций, которые критиковали корпорации, уже являющиеся спонсорами Google). Что касается (ii), Диаз объясняет, как озабоченность предвзятостью в отношении платной рекламы иногда путают с редакционными или собственными материалами, которые отображаются компаниями-поисковиками на своих веб-страницах. В то время как в газетах редакционные статьи и реклама могут выглядеть совершенно по-разному, Диаз отмечает, что в поисковых системах это не всегда так. (Мы также рассматриваем некоторые аспекты предвзятости поисковиков в отношении онлайн-рекламы при анализе вопросов моральной ответственности их владельцев в 4-м разделе).

Некоторые критики предполагают, что по мере того, как конфликты, затрагивающие онлайн-рекламу в контексте поисковых систем, будут в конечном итоге разрешены, количество предвзятости в результатах поисковых систем также уменьшится или, возможно, исчезнет совсем. Однако для влияния на приоритет в выдаче одних сайтов перед другими могут использоваться и другие схемы, как в плане их включения (или исключения), так и в плане их ранжирования.

Технологические схемы, используемые для манипуляции результатами поиска

Мы уже отмечали, что некоторые специалисты разработали различные стратегии "игры с системой", то есть позиционирования своих сайтов выше в схемах, используемых поисковыми системами для получения результатов (см., например, Goodwin 2018). "Инсайдеры" обычно называют такие случаи SEO, или поисковой оптимизации (Search Engine Optimization), и мы кратко рассмотрим то, что сегодня можно считать классической SEO-уловкой. Некоторые организации и частные лица эффективно использовали метатеги HTML и ключевые слова (встроенные в исходный код HTML), чтобы повлиять на компании поисковых систем и заставить их сайты занять более высокие места в схемах упорядочивания для соответствующих категорий поиска. В конце концов, однако, компании поисковых систем признали манипулятивные аспекты этих HTML-функций и начали игнорировать их в своих алгоритмах ранжирования (Goldman 2008).

Многие организации сейчас используют другую стратегию для достижения более высокого рейтинга своих сайтов — ту, которая использует преимущества (общих) формул, используемых в настоящее время основными компаниями поисковых систем. Бланке (Blanke 2005, 34) отмечает, что в алгоритме Google веб-страницы "достигают более высокого рейтинга, если они оптимизируют свои отношения в системе узлов и авторитетов". В то время как "авторитеты" - это веб-страницы, на которые "ссылаются многие другие", хабы "сами связывают себя со многими страницами". Диас (Diaz 2008) отмечает, что узлы с высоким уровнем ссылок будут иметь самый высокий Page Ranks. Поэтому те владельцы и дизайнеры веб-сайтов, которые знают, как использовать эти факторы (а также как использовать различные схемы, связанные с SEO) для манипулирования ранжированием в результатах поисковых систем, будут иметь сайты с самым высоким рейтингом. Диаз также отмечает, что эти сайты "как правило, принадлежат крупным, известным технологическим компаниям, таким как Amazon и eBay", в то время как "миллионы типичных страниц... будут иметь самый низкий рейтинг". Таким образом, представляется, что вид предвзятости поисковых систем, выявленный Интроной и Ниссенбаумом, при котором определенные веб-сайты систематически включаются/исключаются в пользу других, не обязательно будет устранен простым разрешением конфликтов, связанных с платной рекламой в контексте компаний поисковых систем. По всей вероятности, организации будут продолжать искать способы использования методов, связанных с SEO, чтобы добиться более высокого рейтинга для своих сайтов и таким образом получить более широкую известность в поисковых системах, особенно в Google. Как сказал Хинман (Hinman 2005), "Esse est indicato in Google (существовать — значит быть проиндексированным в Google)".

Проблема объективности

Обеспокоенность предвзятостью поисковых систем по отношению к вопросам, связанным с "объективностью", имеет два различных аспекта:

(А) объективность в отношении критериев, используемых в алгоритмах поиска; и

(В) объективность в отношении результатов, возвращаемых конкретной поисковой системой в ее ответах нескольким пользователям, вводящим один и тот же поисковый запрос.

Что касается (А), то мы видели, что традиционные критерии, используемые компаниями поисковых систем для ранжирования сайтов, основаны на двух факторах: количестве посещений страницы и количестве других страниц, ссылающихся на данную страницу; Хинман (Hinman 2005) считает, что эта техника, казалось бы, дает пользователю "некоторое подобие объективных критериев". Он указывает, например, что даже если поисковые системы "ошибаются", возвращая далеко не лучшие результаты по определенному поисковому запросу, существует "объективный факт того, что они ошибаются". И даже если ранние поисковые системы ранжировали сайты по "популярности", то, по выражению Хинмана (Hinman 2005, 22), у популярности было "техническое и объективное значение". Но мы также видели, что эта формула резко изменилась в случае поисковых систем эпохи Веб 2.0, где все более "персонализированные алгоритмы" стремятся адаптировать результаты поиска в соответствии с профилем пользователя, вводящего запрос.

Эта тенденция к "персонализации" алгоритмов напрямую связана с проблемами, затрагивающими пункт (В). Несмотря на то, что многие искушённые пользователи могут подозревать, что их поисковая выдача необъективна по любому количеству возможных причин — например, платная реклама, несправедливое влияние крупных корпораций, редакционный контроль и т.д. — многие пользователи поисковых систем все еще склонны, возможно, наивно, полагать, что когда два пользователя вводят один и тот же поисковый запрос в крупной поисковой системе, такой как Google, они получат одинаковые списки ответов. Другими словами, даже если используемая формула искажена или предвзята таким образом, что одним сайтам отдается предпочтение перед другими, поисковый алгоритм, тем не менее, возвращает результаты, основанные на внутренне последовательной формуле, которая стандартна или в некотором смысле "объективна". Однако в эпоху, когда основанные на "персонализации" формулы генерируют результаты поиска в соответствии с профилем пользователя, это уже не так. Например, если я введу в поисковую строку термин "орлы", то список и порядок результатов, которые я получу, скорее всего, будут зависеть от профиля, который компания-поисковик составила обо мне. Если компания определит, что я интересуюсь, например, биологией, я могу быть направлен на сайт, спонсируемый обществом Audubon. Но если вместо этого она определит, что я любитель спорта, живущий в районе Филадельфии, меня могут направить сначала на сайт Philadelphia Eagles. Напротив, если мой профиль предполагает, что мне нравится рок/поп-музыка, я могу быть направлен сначала на сайт музыкальной группы Eagles. Таким образом, нет никакой общей "объективной" формулы, используемой поисковой системой.

Некоторые сомневаются, что отсутствие объективности результатов поиска обязательно является проблемой. Например, Бланке (Blanke 2005, 34) считает, что мы не должны "ни требовать, ни ожидать от поисковых систем объективной информации" (т.е. информации, которая является "нейтральной или полной"). Таким образом, он утверждает, что любая критика поисковых систем как необъективных "бьет мимо цели", потому что не следует ожидать от поисковых систем только нейтральных и объективных результатов. Его аргументация этого утверждения, однако, кажется основанной на том, что технология поисковых систем "не предназначена для этого". Но этот анализ, скорее, заставляет задаться вопросом – если, конечно, Бланке не имеет в виду, что технология поисковых систем в принципе не может быть разработана для получения нейтральных и объективных результатов.

Проблемы объективности поисковых систем также рассматриваются Голдманом (Goldman 2008), который, похоже, защищает — а иногда, возможно, даже приветствует — предвзятость поисковых систем в этом отношении. Во-первых, он отмечает, что поисковые системы "сами судят о том, какие данные собирать и как их представлять" (Goldman 2008, 122). Однако он также считает, что предвзятость поисковых систем "необходима и желательна" — т.е. это "неизбежное следствие того, что поисковые системы осуществляют редакционный контроль над своими базами данных" (с. 127). Поэтому он готов признать, что "поисковые системы, как и все другие медиакомпании, искажают результаты". Но хотя многие считают, что предвзятость поисковых систем нежелательна, Голдман рассматривает ее как "полезное следствие того, что поисковые системы оптимизируют контент для своих пользователей". Он также считает, что “следствие вида «победитель получает все», вызванное размещением на первых местах в результатах поиска, будет сведено на нет технологиями персонализированного поиска” (стр. 121). Далее он утверждает, что "персонализированные алгоритмы ранжирования" "уменьшат эффект предвзятости поисковых систем, потому что, скорее всего, будет несколько «лучших» результатов поиска по определенному поисковому запросу вместо одного победителя [и] персонализированные алгоритмы устранят многие из нынешних опасений по поводу предвзятости поисковых систем" (с. 130). Таким образом, Голдман, как это ни парадоксально, предполагает, что любые проблемы, влияющие на объективность, будут решены за счет увеличения субъективности в виде персонализации результатов, достигаемой персонализированными алгоритмами поиска. Однако такое направление эволюции поисковых систем может иметь серьезные негативные последствия для демократии и демократических идеалов (подробнее об этом говорится в разделе 3.4).

Вопросы объективности и предвзятости в контексте поисковых систем также тесно связаны с противоречиями, касающимися отсутствия "открытости" или "прозрачности" (см., например, Noble 2018). Некоторые критики указывают на то, что поисковые системы не являются полностью открытыми или прозрачными как в отношении того, почему они (а) включают одни сайты, а не другие (в списки результатов по запросам пользователей), так и (б) ранжируют одни страницы в списке результатов поиска выше, чем другие. Эти виды проблем, связанных с непрозрачностью/непрозрачностью, обычно подпадают под описание, которое Хинман (Hinman 2005) называет "проблемой алгоритма". Хинман отмечает, что управляющие поиском алгоритмы являются хорошо оххраняемыми секретами (что, по его мнению, также уместно). Поскольку алгоритм PageRank компании Google является "запатентованной и тщательно охраняемой частью интеллектуальной собственности" (Halpern 2011, 4), мы не знаем формулы алгоритма. И этот фактор, разумеется, затрудняет оценку объективности алгоритма.

Еще одна проблема, связанная с размытостью/непрозрачностью, возникает из-за того, что занимающиеся поисковыми системами компании не всегда полностью или четко раскрывают свою практику в отношении двух важных моментов: (i) собирают ли они (и в каком объеме) информацию о пользователях; и (ii) что они делают с этой информацией после ее сбора. Подобные проблемы размытости/непрозрачности, касаются создателей поисковых систем, которые также связаны с вопросами конфиденциальности, затрагивающими мониторинг и наблюдение, подробно рассматриваются в разделе 3.3.

Приватность, согласие и недобровольное раскрытие личной информации

В контексте поисковых систем возникают, по крайней мере, два различных вида проблем, связанных с конфиденциальностью. Один из них возникает потому, что использующие поисковые системы компании могут собирать личную информацию о пользователях поисковых систем; в этой схеме пользователи, по сути, являются "субъектами данных" для создателей поисковых систем и их рекламодателей. Однако сами пользователи поисковых систем – действуя от своего имени или от имени нанявших их организаций — могут использовать технологию для онлайн-поиска людей. В этом случае объектом поиска являются люди (некоторые из которых, возможно, никогда не пользовались поисковыми системами, а возможно, даже не слышали о них). В обоих случаях проблемы конфиденциальности возникают в связи с вопросами о справедливости для соответствующих субъектов данных. Учтите, что многие из т.н. субъектов поисковых запросов не дают явного согласия ни на сбор определенных видов личной информации о них, ни на то, чтобы личная информация о них (которая была собрана в каком-то другом контексте) также была доступна в Интернете, ни на то и другое.

В этом разделе мы рассмотрим связанные с поисковыми системами проблемы конфиденциальности, затрагивающие людей, которые стали объектами, или "целями" поисковых запросов. Подобные проблемы с конфиденциальностью усугубляются постоянно растущим объемом личной информации об обычных людях, которая в настоящее время может быть обнаружена поисковыми системами и, таким образом, доступна пользователям Интернета. Но почему, собственно, это проблематично с точки зрения конфиденциальности? С одной стороны, неясно, что большинство людей добровольно согласились на размещение информации о них в базах данных или на онлайн-форумах, доступных поисковым системам (и, таким образом, потенциально доступных любому пользователю Интернета). И мы отметили, что пользователи поисковых систем, независимо от того, действуют ли они просто по собственному желанию или как представители бизнеса и корпораций, могут и часто получают доступ к огромному количеству информации о многих из нас через поисковые системы. Сторонники приватности задаются вопросом, является ли такая практика честной, – особенно по отношению к людям, которые не давали явного согласия на включение личной информации о них в онлайн-форумы и базы данных, столь легко обнаружимые сегодня благодаря сложной технологии поисковых систем.

Проблемы конфиденциальности, возникающие в ситуациях, когда люди становятся объектами поисковых запросов, можно дополнительно разделить на две отдельные категории, т.е. когда поисковые системы используются для: (i) отслеживания местонахождения людей, иногда с целью их домогательства или инфо-преследования (stalking); и (ii) получения личной информации о людях. Мы кратко рассмотрим каждую практику.

Что касается (i), можно задаться вопросом, почему использование поисковых систем для отслеживания и определения местонахождения людей является спорным с точки зрения конфиденциальности. Во-первых, следует учитывать, что некоторые организации разработали специализированные поисковые системы для сомнительных целей, таких как преследование людей. Например, одна поисковая система (Gawker-Stalker Maps, представленная в 2006 году) была разработана специально для преследования известных людей, включая знаменитостей. Представьте себе случай, когда знаменитость была замечена во время ужина в одном из элитных ресторанов Сан-Франциско. Человек, заметивший знаменитость, может отправить "наводку" через текстовое сообщение или электронную почту на Gawker-Stalker, информируя пользователей сайта о ее местонахождении. После этого сайт Gawker с помощью точной GPS-программы предоставляет своим пользователям информацию о том, где и в какое время ее видели в последний раз. Пользователи, заинтересованные в преследовании знаменитости, могут следить за ее передвижениями в электронном виде через сайт Gawker, а могут найти и следить за ней в физическом пространстве, если окажутся в то же время в том же районе, что и знаменитость (Tavani 2016). В настоящее время Gawker-Stalker, похоже, находится в переходном состоянии. Хотя gawker.com, дочерняя компания Gawker Media, прекратила свою деятельность после иска о банкротстве в 2016 году, сайт Gawker был приобретен компанией Bustle Digital Group в 2018 году (Kelly 2019).

Во-вторых, отметим, что не только знаменитости и "высокопоставленные" общественные деятели могут быть жертвами преследования, как и не только о них можно получить доступ к личной информации о них через поисковики. Рассмотрим случай Эми Бойер, двадцатилетней жительницы Нью-Гэмпшира, которую преследовал в Интернете бывший "поклонник" по имени Лиам Юэнс и которая в итоге была убита им в 1999 году. Используя стандартные средства поиска по интернету, Юэнс смог получить всю информацию о Бойер, необходимую ему для преследования — т.е. информацию о том, где она жила, работала и т.д. (см., например, Tavani and Gridzinsky, 2002). Инциденты, подобные делу Бойер, заставляют нас задаться вопросом о текущей политике — или, в отсутствие четкой и ясной политики, о наших стандартных позициях и предположениях — в отношении объема и вида личной информации об обычных людях, которая в настоящее время доступна пользователям поисковых систем. Сегодня кажется вполне вероятным, что Эми Бойер не имела ни малейшего представления о том, что такое количество личной информации о ней так легко найти в сети.

Далее рассмотрим пункт (ii), использование поисковиков для поиска информации о людях — не об их местонахождении, а об их деятельности, интересах и биографии. Как и в деле Эми Бойер, вопросы приватности в связи с поисковыми системами возникают, когда обычные люди становятся объектами поиска. Подумайте о том, что работодатели все чаще используют методы онлайн-поиска для получения информации о потенциальных и нынешних сотрудниках. Хорошо известно, что многие работодатели пытаются получить доступ к информации в Facebook, Twitter и Instagram потенциальных кандидатов на работу. Такая информация в некоторых случаях используется работодателями при решении вопроса о приеме на работу конкретных кандидатов (а также, возможно, при решении вопроса о продвижении по службе действующих сотрудников). Так, например, студент колледжа, разместивший на Facebook одну или несколько фотографий, на которых он употребляет алкогольные напитки или, возможно, ведет себя буйно на вечеринке, может поставить под угрозу возможность своего будущего трудоустройства в компании, которая в противном случае могла бы принять его на работу по окончании колледжа. В защиту подобной практики "скрининга", используемой компаниями при найме сотрудников, можно сказать, что компания просто использует доступные в настоящее время инструменты для поиска информации о лицах, которые добровольно разместили материалы (например, в виде фотографий и т.д.) о себе на Facebook.

В первую очередь мы имеем дело с личной информацией, которая не была добровольно разглашена человеком, но, тем не менее, доступна в интернете. Подобные проблемы, связанные с доступом к личной информации на онлайн-форумах, не являются чем-то новым. Подумайте, что в течение десятилетия, предшествовавшего появлению Facebook, работодатели могли получить доступ к информации о соискателях с помощью инструментов онлайн-поиска — например, они могли (и делали это) использовать поисковые системы для выполнения этой задачи, просто вводя имя человека в поле поисковой системы. Представьте себе гипотетический сценарий, в котором некая Ли подает заявление на получение должности на полный рабочий день в корпорации Х. Также представьте, что кто-то из комитета корпорации по поиску кандидатов на эту должность решает провести онлайн-поиск о Ли вскоре после получения ее заявления. Далее представьте, что в ответ на запрос о Ли поисковая система выдает три результата. Один результат включает ссылку на организацию геев/лесбиянок, в которой Ли указана как человек, внесший вклад в недавнее мероприятие, организованное этой организацией. Далее представьте, что Ли отказали в приеме на работу в корпорацию Х. Далее представьте, что Ли стало любопытно, почему ее не выбрали на эту работу, и она решила впервые провести поиск в Интернете по своему имени. Затем Ли обнаруживает результат поиска, связывающий ее с организацией геев/лесбиянок (Tavani 1998). Должна ли Ли сделать вывод, что ей отказали в работе из-за ее очевидной связи с этой организацией? Разумно ли такое умозаключение? Возможно, нет. Тем не менее, возникает важный вопрос: Справедливо ли, что кто-то разместил эту информацию о Ли в Интернете, без ее согласия, в источнике, доступном для одной или нескольких поисковых систем? Становится ли теперь эта информация о Ли "честной игрой", и следует ли ее рассматривать просто как информацию, которая "выставлена на продажу" (Nissenbaum 2004) и, следовательно, подходит для использования потенциальными работодателями?

Чем сценарий с участием Ли отличается от случая, когда работодатель использует информацию из учетной записи Facebook для отбора кандидатов на работу? Во-первых, пользователи Facebook обычно размещают информацию о себе, которая может быть видна другим людям, и, таким образом, они добровольно согласились на то, чтобы эта информация была доступна другим людям (предполагается, что они не указали свои настройки конфиденциальности в Facebook). Более того, они также знают, что такая информация о них существует на этом онлайн-форуме. Но как быть с соискателями, у которых нет аккаунтов в Facebook или на других сайтах социальных сетей? Являются ли они менее уязвимыми для онлайн-контроля со стороны потенциальных работодателей? Многие люди могут даже не подозревать о том, что их личная информация о них доступна работодателю или любому человеку, использующему поисковую систему.

Далее рассмотрим гипотетический сценарий, похожий на сценарий Ли, где Фил, недавно получивший докторскую степень, претендует на должность преподавателя в университете Х. Но предположим, что несколько недовольных бывших студентов разместили несколько весьма критических и негативных отзывов о Филе на сайте RateMyProfessor.com. Далее, предположим, что член комиссии по поиску преподавателей в университете X проводит онлайн-поиск Фила и обнаруживает пренебрежительные замечания, сделанные студентами. Наконец, Филу сообщают, что он не был выбран на должность преподавателя. Вскоре после получения письма с отказом Фил случайно обнаруживает комментарии о нем недовольных студентов, проведя поиск в Интернете по его имени. Будет ли неразумным для Фила сделать вывод, что комментарии этих студентов на сайте RateMyProfessor.com повлияли на решение комитета по найму не выбирать его?

В одном смысле положение Фила очень похоже на положение Ли — ни один из соискателей не мог контролировать то, что другие люди, кроме них самих, разместили о них на интернет-форумах, доступных поисковым системам. Однако негативная информация, размещенная о Филе, была напрямую связана с теми критериями, которые обычно используются при рассмотрении кандидата на должность преподавателя. Информация, размещенная о Ли, хотя и не имела прямого отношения к работе, на которую она претендовала, тем не менее, также могла навредить ее шансам получить эту должность. Однако ни в одном из этих случаев Ли и Фил не имели даже возможности обсуждать, какого рода информация о них – как и насколько она вообще точна – может быть так легко найдена в интернете и использована потенциальным работодателем при принятии решения о приеме на работу.

С одной стороны, мы можем спросить, на какие средства правовой защиты могут рассчитывать люди, подобные Филу и Ли, в подобных ситуациях – например, могут ли они обоснованно рассчитывать на контроль над любой информацией о них, которая в настоящее время доступна поисковым системам? Но, с другой стороны, не кажется совершенно необоснованным, что они могут рассчитывать хотя бы на ограниченный контроль над своей личной информацией, – например, для того, чтобы иметь возможность оспорить законность неточной информации (особенно если они не давали согласия на ее включение в онлайновые форумы и базы данных, доступные поисковым системам‹2›) . Таким образом, возможно, возникающее в этих сценариях напряжение можно рассматривать как современную вариацию извечного спора о частной и публичной природе личной информации. Эта напряженность еще более осложняется тем фактом, что в США большинство людей, как субъектов онлайн-поиска, пользуются незначительной, если вообще какой-либо, нормативной защитой в отношении личной информации о них, которая теперь доступна онлайн – в основном из-за предполагаемого "публичного характера" этой личной информации (Tavani 2005). (Как мы увидим в разделе 4.2.1, граждане стран ЕС пользуются гораздо большей нормативной защитой своих персональных данных в онлайн-контексте, чем граждане США).

Некоторые формы личной информации пользуются нормативной защитой через специальные политики и законы о конфиденциальности, поскольку они квалифицируются как информация о лицах, которая считается либо чувствительной, либо интимной, либо и той, и другой. Мы можем назвать этот вид личной информации непубличной личной информацией (или НЛИ). Однако многие аналитики по вопросам конфиденциальности сегодня обеспокоены тем, как другой вид личной информации — публичная личная информация (или ПЛИ), которая является неконфиденциальной и неинтимной по своему характеру, — легко собирается и обменивается через Интернет. Как можно отличить ПЛИ от НЛИ? НЛИ, которая, как отмечалось выше, рассматривается как информация о лицах, являющаяся по сути конфиденциальной или чувствительной по своему характеру, включает информацию о финансах и истории болезни человека. ПЛИ, хотя также понимается как информация личного характера, отличается от НЛИ по крайней мере в одном важном отношении: она не является ни чувствительной, ни конфиденциальной.

Например, информация о том, где человек работает или посещает школу, а также о том, каким автомобилем он владеет, может считаться личной информацией в том смысле, что это информация о каком-то человеке как о конкретной личности. Однако такая личная информация, как правило, не пользуется теми же видами защиты конфиденциальности, которые были предоставлены НПИ (Tavani 2016).

Первоначально озабоченность по поводу личной информации, которая может собираться и обмениваться в электронном виде, была сосредоточена в основном на НЛИ. В ответ на эти опасения были приняты некоторые конкретные законы и политики в области конфиденциальности для защиты НЛИ. Однако сейчас многие защитники неприкосновенности частной жизни также обеспокоены тем, как ПЛИ регулярно собирается и анализируется с помощью цифровых технологий. Они утверждают, что ПЛИ заслуживает большей правовой и нормативной защиты, чем та, которую она имеет в настоящее время. Ниссенбаум (Nissenbaum 1997, 1998) назвал проблему, с которой мы сталкиваемся в отношении защиты (вида информации, которую мы называем ПЛИ), "проблемой защиты частной жизни на публике".

Некоторые защитники приватности утверждают, что наши прежние предположения о том, какие виды общедоступной информации о нас нуждаются в явной правовой защите (или, возможно, в какой-то менее формальной "нормативной" защите, на уровне регулирования), больше не являются адекватными из-за того, что большая часть этой информации теперь может обрабатываться с помощью цифровых технологий, особенно в коммерческой сфере.

Например, безобидная на первый взгляд информация о людях, основанная на их деятельности в общественной сфере, может быть "добыта" для создания профилей пользователей на основе неявных паттернов в данных, и эти профили (независимо от того, точны они или нет) могут быть использованы для принятия важных решений, затрагивающих людей.

Мониторинг и слежка

Далее мы рассмотрим проблемы приватности, в которых субъектами данных являются сами пользователи поисковых систем (т.е. создатели поисковиков). Циммер (Zimmer 2008, 83) отмечает, что личная информация о пользователях "регулярно собирается", когда они используют поисковые системы для своей "деятельности по поиску информации". Но почему, собственно, это проблематично с точки зрения приватности? Во-первых, поисковые компании вроде Google создают запись каждого поиска, сделанного пользователями, и эти записи также архивируются. В запись включается тема поиска, а также дата и время, когда пользователь сделал конкретный поисковый запрос. До недавнего времени многие люди не знали, что их поисковые запросы записываются и отслеживаются.

В январе 2006 года многие пользователи Google узнали, что поисковая компания хранила журнал всех их предыдущих поисков. По меньшей мере четыре крупные поисковые компании получили повестку в суд от администрации Буша в 2005 году с требованием предоставить записи о поисковых запросах, сделанных в течение одной недели летом 2005 года (см., например, Nissenbaum 2010). Это были Google, Yahoo, AOL и Microsoft (MSN). Google отказался предоставить информацию. Другие поисковые компании не сообщили, как они отреагировали; многие, однако, предположили, что эти компании выполнили правительственную повестку. От Google требовалось передать два элемента:

(1) результаты поисковых запросов/запросов, полученных в течение одной недели, и (2) случайный список из примерно одного миллиона URL-адресов.

Google утверждал, что передача этой информации:

(а) нарушит неприкосновенность частной жизни пользователей (и подорвет их доверие к поисковой компании), и

(б) раскроет информацию о (запатентованном) алгоритме и процессах, которые использует Google, и это потенциально нанесет ущерб ее конкурентным преимуществам как поисковой службы.

Суд постановил, что Google не обязан выполнять требования (1), но достиг компромисса в отношении (2), постановив, что Google должен передать правительству 50 000 URL-адресов (Nissenbaum 2010, 29–30).

Собранная информация о поисковых запросах пользователя может показаться относительно безобидной — в конце концов, кому интересно знать о том, какие поисковые запросы мы выполняем в интернете, и кто захочет использовать эту информацию против нас? Однако, с другой стороны, кажущаяся безобидной личная информация может быть добыта торговцами информацией и использована для создания персональных профилей о нас, а эти профили, в свою очередь, могут быть основаны на неточной информации и использоваться для принятия несправедливых решений.

Например, представьте случай, когда студент пишет работу о порнографии в интернете и использует поисковую систему для поиска ссылок для своего исследования. Записи поисковых запросов этого пользователя могут содержать запросы о порнографических веб-сайтах, что, в свою очередь, может значить, что этот пользователь заинтересован в просмотре порнографии.

Таким образом, отдельные поисковые запросы, сделанные конкретным пользователем, теоретически могут быть проанализированы так, что будет составлен ложный профиль этого пользователя. Кроме того, записи поисковых запросов этого и других пользователей могут быть впоследствии затребованы в суде (Tavani 2016).

Как уже отмечалось, информацию о поисковых запросах пользователей собирают создатели поисковых систем, а также множество различных видов "торговцев информацией" в коммерческой сфере. Халперн (Halpern 2011, 8) отмечает, что существует около 500 компаний, способных отслеживать все наши перемещения в Интернете, тем самым "добывая сырье из сети и продавая его... компаниям, добывающим данные". Паризер (Pariser 2011) указывает, что при отслеживании наших действий Google использует 57 сигналов —

все — от того, где вы вошли в систему, каким браузером пользовались, что искали раньше, чтобы сделать запросы, до того, кто вы и какие сайты вам нравятся.

А Циммер (Zimmer 2008, 77) отмечает, что Google аккумулирует информацию, полученную от

Веб-куки, подробных журналов сервера и учетных записей пользователей... [из приложений Google, таких как Gmail, Google + и Google Chrome]... что обеспечивает мощную инфраструктуру наблюдения за данными для мониторинга, записи и агрегирования действий пользователей в Интернете.

Более того, Паризер отмечает, что Google и другие крупные поисковые компании используют "системы прогнозирования" для построения и уточнения теорий о том, кто мы такие (и что мы хотим делать дальше). Он также отмечает, что многие торговцы информацией рассматривают каждый "сигнал клика", создаваемый пользователем, как "товар", который может быть "продан на аукционе в течение микросекунд тому, кто предложит самую высокую цену". Паризер указывает, что один из продавцов информации, компания под названием Acxiom

накапливает в среднем 1500 различных данных о каждом человеке в своей базе данных — персональные данные, начиная от кредитного рейтинга и заканчивая используемыми лекарствами.

Конечно, некоторые пользователи могут ответить, что они не чувствуют угрозы от такой практики; например, они могут быть склонны чувствовать себя в безопасности от потери личной конфиденциальности, поскольку они предполагают, что данные, собранные о них, анонимны в том смысле, что они идентифицируются только как IP-адрес, а не как имя человека. Однако Циммер (Zimmer 2008, 83) отмечает, что в 2005 году одного из пользователей AOL удалось идентифицировать по имени, "потому что веб-поиски, которые она выполняла по различным темам, были записаны и позже опубликованы AOL". Оказалось, что компания AOL Research опубликовала данные личного поиска 650 000 пользователей за три месяца (Wall 2011, 18). Ниссенбаум (Nissenbaum 2010, 30) отмечает, что в этом случае AOL использовала процесс, в котором

определенные личности могут быть извлечены из множества обезличенных поисковых запросов, которые AOL регулярно размещает в интернете для использования научным сообществом.

Циммер считает, что инцидент с участием AOL не уникален, а является еще одним случаем использования наблюдения за данными или "dataveillance" (термин, введенный Роджером Кларком в 1988 году) — т.е. надзор, применённый в контексте поисковых запросов.

Также важно рассмотреть, можно ли в данном контексте провести значимое различие между мониторингом и надзором (surveillance). Отмечая, что эти два термина часто используются как взаимозаменяемые, Ниссенбаум (Nissenbaum 2010, 22) проводит между ними следующее различие. Если надзор — это "форма мониторинга "сверху" политическими режимами и власть имущими", то мониторинг используется в более широких социальных и "социотехнических" контекстах. В схеме Ниссенбаум и мониторинг, и надзор являются примерами того, что она называет "социотехническими контекстами", но обычно они используются по-разному. Например, Ниссенбаум отмечает, что мониторинг может осуществляться системами, "чья явная цель - надзор" (например, системами видеонаблюдения). Но она также отмечает, что сама информация может представлять собой "модальность мониторинга". Например, она указывает, что понятие Кларка "дата-надзор" включает в себя практику мониторинга, в состав которой входят как взаимодействие, так и транзакции. Однако в целом мы можем рассматривать виды практик, осуществляемых торговцами информацией в потребительской сфере, как случаи мониторинга (нежели надзора) в понимании Ниссенбаум.

Далее мы сместим акцент с проблем конфиденциальности, связанных с мониторингом в коммерческом секторе, на беспокойство по поводу слежки со стороны государственных структур в отношении информации, полученной в результате поисковых запросов пользователей. Ранее в этом разделе мы отметили, что в 2005 году администрация Буша сообщила компании Google, что она должна передать список всех запросов пользователей, введенных в ее поисковую систему в течение одной недели (точные даты не были указаны компанией Google). Решение администрации Буша запросить информацию о поисковых запросах обычных пользователей вызвало серьезную критику со стороны многих защитников неприкосновенности частной жизни. Хотя администрация Буша утверждала, что у нее есть право запрашивать электронную информацию для ведения "войны с терроризмом" и предотвращения еще одного теракта, подобного 11 сентября, некоторые критики опасались, что правительство пытается использовать полученную по повестке информацию не для целей национальной обороны или борьбы с терроризмом, а для получения данных в поддержку своей позиции по Закону о защите детей в Интернете, который был оспорен в окружном суде США и пересматривался Конгрессом (Nissenbaum 2010, 29). Эти критики также обеспокоены тем, какие последствия это имеет для приватности (как важной человеческой ценности) в продолжающемся противостоянии интересов безопасности и приватности. И даже если приватность не является абсолютной ценностью, а иногда перевешивается соображениями безопасности, как утверждает Химма (Himma 2007), некоторые критики ставят под сомнение обоснованность получения записей о поисковых запросах, сделанных обычными гражданами.

Хинман (Hinman 2005) отмечает, что Патриотический акт, принятый после 11 сентября, позволил правительственным чиновникам США получать от библиотек информацию о том, какие книги брали члены их семей. Затем он показывает, как размышления о библиотеках могут быть легко распространены на поисковые системы — например,

Если правительство видит, кто какие книги берет в библиотеке, почему оно не может также узнать, какие запросы мы делаем в поисковых системах?

Хинман также отмечает, что существует еще несколько способов установления поисковых запросов пользователя благодаря практике, используемой крупными поисковыми компаниями вроде Google. Он также опасается, что такая практика в итоге может привести к слежке и подавлению политического инакомыслия (как это произошло в Китае).

Хинман задается вопросом, мог ли Google находиться под политическим давлением извне (например, администрации Буша), чтобы убрать фотографии замученных заключенных в центре Абу-Грейб (использовавшемся США во время войны в Ираке в 2004 году), которые были размещены, но затем вскоре удалены без видимых объяснений со стороны этой поисковой компании.

(Некоторые связанные с этим, а также дополнительные вопросы, касающиеся моральной ответственности поисковых компаний, подробно рассматриваются в разделе 4).

Демократия, цензура и угроза свободе

В этом разделе мы рассмотрим некоторые последствия, которые может иметь для свободного и открытого общества слежка за запросами пользователей со стороны компаний-поисковиков. На заре развития Интернета многие полагали, что технология поисковых систем благоприятствует демократии и демократическим идеалам. Например, Интрона и Ниссенбаум (Introna and Nissenbaum 2000, 169) отмечают, что поисковые системы рассматривались как технология, которая позволит

...дать возможность высказаться различным социальным, экономическим и культурным группам, членам общества, которых не часто слышат в публичной сфере [и] расширить возможности традиционно бесправных, предоставив им доступ как к обычно недоступным способам власти, так и к ранее недоступным массивам информации.

Однако Интрона и Ниссенбаум также описывают то, что можно рассматривать как "антидемократический" аспект современной поисковой технологии, когда поисковые системы "систематически исключают" определенные веб-сайты, а также "определенные типы сайтов" по сравнению с другими. И Диас (Diaz 2008, 11) вторит этой озабоченности, отмечая, что крупные поисковые компании вроде Google направляют "сотни миллионов пользователей на одни материалы, а не на другие, на одни источники, а не на другие". Поэтому, следуя Диасу (стр. 15), мы можем спросить, способны ли необходимые для демократии "независимые голоса и разнообразные точки зрения" быть "услышанными через фильтр поисковых систем".

Поисковые системы часто называют "привратниками киберпространства", и некоторые критики отмечают, что это имеет значительные последствия для демократии. Например, Диас (Diaz 2008, 11) отмечает, что

если мы верим в принципы совещательной демократии — и, в особенности, если мы верим, что интернет является открытой "демократической" средой — тогда мы должны ожидать, что наши поисковые системы будут средством распространения широкого спектра информации по любой заданной теме.

Хинман (Hinman 2005, 25) высказывает аналогичную мысль, когда отмечает, что "расцвет совещательной демократии зависит от свободного и неискаженного доступа к информации". А поскольку поисковые системы "все чаще становятся главными привратниками знаний", Хинман утверждает, что "мы оказываемся в философски опасном положении". (Мы кратко вернемся к этой теме в заключительном разделе данной статьи).

Морозов (Morozov 2011) также описывает некоторые опасения демократии по отношению к современным поисковым системам, обращая внимание на фильтрацию информации, которую поисковые системы делают возможной. В частности, он согласен с Санштейном (Sunstein, 2001), который беспокоится о том, что обеспечиваемая фильтрацией в Интернете избирательность может легко заманить нас в "информационный кокон". А Лессиг (Lessig, 2000) предполагает, что любой вид фильтрации в интернете эквивалентен цензуре, поскольку блокирует некоторые формы выражения. Морозов отмечает: в то время как Санстейн беспокоится, что люди могут использовать интернет-технологии для "избыточной фильтраци того, что они читают", реальность такова, что современные поисковые компании уже незаметно сделали это за них. Опасения Морозова по поводу того, что поисковые компании сейчас делают с помощью схем фильтрации и персонализации, и почему это проблематично для демократии, разделяет и Паризер (Pariser 2011, 13).

Он отмечает, что "фильтры персонализации служат своего рода невидимой автопропагандой, внушая нам наши собственные идеи, усиливая наше стремление к привычным вещам и оставляя нас в неведении относительно опасностей, таящихся в тумане неизвестного".

Паризер отмечает, что хотя демократия и "требует от граждан смотреть на вещи с чужой точки зрения", вместо этого мы все больше "замыкаемся в своих собственных пузырях". Далее он отмечает, что демократия также "требует опоры на общие факты", но вместо этого нам представляют "параллельные, но отдельные вселенные". Чтобы проиллюстрировать, насколько опасной для демократии может быть эта тенденция отхода граждан от общих фактов, Паризер использует пример дебатов об изменении климата в США в последнее десятилетие. Он обращает внимание на результаты исследований: в период с 2001 по 2010 год убеждения многих людей о том, происходит ли потепление климата, значительно изменились в зависимости от принадлежности к одной из основных политических партий. Паризер отмечает, что поиск в Интернете по запросу "изменение климата" даст совершенно разные результаты для человека, которого поисковый алгоритм определит как демократа, и для человека, которого он определит как республиканца. Кроме того, алгоритм поиска выдаст разные результаты для человека, которого он определит как руководителя нефтяной компании и активиста экологического движения.

Аналогично Паризеру, Халперн (Halpern 2011, 5–6) отмечает, что поисковые системы типа Google направляют нас к материалам, которые, скорее всего, укрепят наше собственное "мировоззрение, идеологию и предположения", и таким образом "отрезают нас от инакомыслия и противоречивых точек зрения". Паризер отмечает, что с помощью Google пользователь получает результаты, которые, по мнению поисковика, являются самыми подходящими для данного пользователя. Он описывает случай, когда два человека ввели ключевое слово "BP" (British Petroleum) в период аварии на нефтяной платформе Deep Water Horizon в Мексиканском заливе. В ответ на запрос одного пользователя в качестве основного результата была выдана инвестиционная информация о компании BP, в то время как другой пользователь получил информацию о разливе нефти.

Мало того, что некоторые действия поисковых компаний представляют угрозу для демократии и демократических идеалов, другие действия (к которым поисковые компании, возможно, причастны) ужесточают схемы цензуры, используемые в настоящее время недемократическими странами.

Например, хорошо известно, что Китай преуспел в блокировании доступа к политическим сайтам, которые он считает угрожающими. Можно считать, что он блокирует доступ обычным китайским пользователям к таким сайтам, как "Площадь Тяньаньмэнь", "Свободный Тибет" и "Далай-лама". Критики отмечают, что Google согласился соблюдать китайские законы о цензуре, когда поисковая компания вышла на китайский рынок в 2006 году. Спинелло (Spinello 2012) считает, что это соглашение нарушило принцип Google "Не будь злом" — основной принцип поисковой компании, поскольку Google "способствовал и поддерживал" режим цензуры в Китае. Однако некоторые защитники Google утверждают, что выход поисковой компании на китайский рынок позволил жителям Китая получить более широкий доступ к информации в целом (т.е. сверх того, что иначе было бы доступно через Baidu (www.Baidu.com), китайскую поисковую систему, основанную в 2000 году). Другие защитники Google отмечают, что гигант поисковых систем действовал не в одиночку, поскольку крупные американские компании, такие как Yahoo и MSN, также соблюдали китайские законы о цензуре. Хинман отмечает, что китайское правительство также получало помощь от других американских компаний, таких как Cisco Systems, в создании инфраструктуры или магистральных компонентов своего интернет-брандмауэра.

В 2010 году компания Google изменила свою политику работы в Китае и направила пользователей сайта Google.cn на сайт в Гонконге, который в то время не подвергался цензуре. Тем не менее, Хинман считает, что мы все еще должны беспокоиться о готовности Google подчиниться строгим законам китайского правительства о цензуре, когда он только начинал свою деятельность в Китае.

Он считает, что если этот гигант поисковых систем так легко поддается влиянию правительства, которое оказывает относительно небольшое экономическое воздействие на его бизнес в целом, то он может быть гораздо более подвержен влиянию правительства США, где политическое и экономическое воздействие будет гораздо более значительным.

Некоторые опасаются, что этот фактор также дал Google значительную власть над компаниями, которые полагаются на него в вопросах интернет-трафика (Spinello 2012). Они также опасаются, что Google, стремясь сохранить свое экономическое влияние в США в будущем, может поддаться давлению и подчиниться правительственной политике (в США и, возможно, в других демократических странах), которая может поддерживать цензуру на определенном уровне.

Хотя многие изначально считали, что интернет будет способствовать развитию демократии, отсеивая тоталитарные общества, поскольку они "неэффективны и расточительны" (Chorost 2011), Бернерс-Ли (Berners-Lee 2010) считает, что веб, "который мы узнали", теперь находится под угрозой, поскольку как тоталитарные, так и демократические правительства "следят за привычками людей в интернете, ставя под угрозу ключевые права человека". Возможно, Хинман (Hinman 2005, 25) лучше всего выражает это беспокойство, замечая, что

Мы рискуем тем, что наш доступ к информации будет контролироваться все более могущественными, все менее прозрачными и почти полностью нерегулируемыми поисковыми системами, которые могут формировать и искажать наше будущее в значительной степени без нашего ведома. Ради свободного общества мы должны стремиться к развитию структур подотчетности поисковых систем.

Если Бернерс-Ли, Хинман и другие правы, то нам действительно есть о чем беспокоиться, когда мы пытаемся сохранить наши основные свободы в демократическом обществе и в то же время пользоваться обширными возможностями персонализации и настройки, которые предлагают нам поисковые системы вроде Google. Также представляется реалистичным, что повышение прозрачности со стороны компаний-поисковиков могло бы стать важным шагом на пути устранения некоторых из этих проблем. Но кто именно должен отвечать за регулирование деятельности поисковых систем и за привлечение их к ответственности? Эти и другие вопросы мы рассмотрим в разделе 4. Однако сначала мы кратко рассмотрим некоторые этические вопросы, особенно связанные с кибербезопасностью, которые возникают в связи с относительно новым видом поисковых систем, способных "обнаруживать" местоположение "вещей" (объектов) через интернет.

(Кибер)безопасность и интернет вещей

В разделах 3.1–3.4 мы затронули широкий спектр этических проблем, влияющих на использование поисковых систем, сосредоточившись в основном на том, что можно считать "стандартными" или общепринятыми этическими проблемами (которые стали ассоциироваться с поисковыми системами в течение последних трех десятилетий). Одна из тем, которая, возможно, была обойдена вниманием или, возможно, рассматривалась лишь косвенно (например, при обсуждении вопросов конфиденциальности в разделах 3.2 и 3.3), связана с этическими проблемами, влияющими на (кибер)безопасность. В дополнение к безопасности данных, которая тесно связана с приватностью (описанной ранее), вопросы, связанные с безопасностью систем и сетей, а также с национальной и международной безопасностью, также возникают сегодня в контексте особого вида поисковой системы, способной находить "вещи". В этом разделе мы кратко рассмотрим некоторые возникающие проблемы, связанные с безопасностью, порожденные использованием поисковой системы такого типа в контексте интернета вещей (IoT).

Что такое IoT, и как он поднимает этические проблемы, связанные с безопасностью, затрагивающие поисковые системы? IoT обычно означает взаимосвязь "объектов" в Интернете; эти (объединенные в сеть и "интеллектуальные") объекты могут включать веб-камеры, принтеры и другие устройства, которые нелегко идентифицировать, определить местоположение или получить доступ к ним с помощью обычных поисковых систем (см., например, Burgess 2018). Поэтому пользователи могут предположить, что, поскольку информация об этих объектах недоступна через обычный поиск в Интернете, эти объекты будут достаточно защищены от сетевых хакеров. Многие пользователи также могут быть очарованы теми удобствами, которые они могли бы получить, если бы их "умные" объекты были объединены в сеть. Рассмотрим, например, "умный дом", где эти объекты могут взаимодействовать друг с другом, а также с мобильными устройствами владельца дома (и, возможно, напрямую с сетевыми устройствами и приложениями, встроенными в автомобиль владельца). С одной стороны, мы можем представить, что владелец такого дома будет в восторге, если её "умный" холодильник будет общаться с ней во время поездки домой, чтобы предупредить ее о том, что в холодильнике закончился запас молока. Холодильник также может напрямую связываться со смартфоном владельца дома, чтобы запустить приложение, предназначенное для отображения самых низких цен на молоко в ближайших продуктовых магазинах. Таким образом, обычные пользователи могут с легкостью пользоваться удобствами, которые становятся возможными благодаря взаимосвязанным "умным" предметам. Однако, с другой стороны, вполне вероятно, что эти объекты могут не иметь надлежащего уровня сетевой безопасности. Таким образом, пользователи могут быть уязвимы ко взлому их объектов, а также к получению личной информации о них (касательно их взаимодействий с этими объектами) посторонними лицами и организациями, если поисковые системы действительно способны обнаружить и определить местонахождение их (недостаточно защищенных) объектов и устройств.

Если традиционные поисковые системы помогали пользователям находить в Интернете информацию, относящуюся к именам людей и названиям мест, коммерческим/правительственным/образовательным организациям и учреждениям и т.д. (через стандартный протокол, включающий адреса HTTP и программный код HTML), то теперь некоторые поисковые системы также способны искать в Интернете определенные виды "вещей" (или объектов). Двумя такими поисковыми системами являются Thingful и Shodan. Thingful описывает себя как "поисковую систему с возможностью обнаружения", которая предоставляет пользователям "уникальный географический индекс связанных объектов по всему миру" (https://thingful.net/). Таким образом, Thingful может индексировать данные по множеству сетей и инфраструктур IoT. Поскольку эта поисковая система может определять географическое положение объектов и устройств, некоторые критики опасаются, что Thingful также может легко получить доступ к персональным данным о том, как пользователи взаимодействуют и общаются со своими подключенными устройствами и объектами (как в случае, когда домовладелец общается с "умными" объектами в своем "умном" доме).

Shodan, неоднозначная поисковая система, созданная Джоном Матерли в 2009 году, позволяет пользователям находить определенные типы (подключенных к Интернету) компьютеров, устройств и систем (включая серверы и маршрутизаторы) с помощью глобально расположенных серверов, которые постоянно индексируют Интернет.

Shodan был назван "темным Google" и "самой страшной поисковой системой в истории", поскольку он может быть использован для поиска компонентов критической инфраструктуры страны, а также системы военной обороны, включая "системы управления атомными электростанциями и циклотронами для ускорения частиц" (Goldman 2013). Некоторые даже предполагают, что Shodan использовался для обнаружения и мониторинга основных компонентов спорной ядерной программы Ирана (Charette 2012).

Это также привело к предположениям о том, что Shodan мог помочь (тогда секретной) "Операции Олимпийских игр", якобы проведенной США и Израилем, чтобы заставить центрифуги Ирана — т.е. быстро вращающиеся машины, обогащающие уран, — выйти из-под контроля (O'Harrow 2012). Хотя некоторые склонны утверждать, что такие страны, как США и Израиль, имели бы полное оправдание в вопросе использования любых кибернетических средств в их распоряжении, чтобы нарушить прогресс ядерной программы Ирана, мы можем ясно видеть обратную сторону такой практики: она также может быть принята на вооружение так называемыми "странами-изгоями" и использована против "законных" национальных государств.

Таким образом, похоже, что "обнаружимые поисковые системы", такие как Shodan и Thingful, представляют угрозу не только для нашей личной конфиденциальности и безопасности, но и для безопасности критической инфраструктуры страны и систем военной обороны. Будет интересно узнать, станут национальные государства и, возможно, даже террористические группы пользоваться этим относительно новым видом поисковых систем в своих будущих стратегиях и практиках ведения кибервойн, кибертерроризма и кибершпионажа. Столь же интересно посмотреть, потребуется ли жесткое регулирование этих поисковых систем, а также разрабатывающих их компаний и организаций, из-за значительных угроз обществу, которые они сейчас представляют. Далее мы рассмотрим смежный вопрос о том, несут ли поисковые компании в целом особую социальную/моральную ответственность в свете их важной общественной роли.

Моральная подотчётность и проблемы социальной ответственности поисковых компаний

До этого момента в этой статье мы не рассматривали напрямую вопросы, касающиеся бизнеса и профессиональной ответственности. В третьем разделе мы главным образом сосредоточились на моральном влиянии поисковых систем на обычных пользователей, особенно с точки зрения приватности, слежки и свободы. В разделе 3.1, однако, мы намекнули, что поисковые компании могут считаться морально подотчетными за предвзятость в ранжировании поисковых результатов. И в заключении раздела 3.4 мы кратко рассмотрели представление о том, что эти кампании могут считаться подотчетными за политики и практики, которые или благоприятствуют цензуре, или непосредственно ее поддерживают. В этом разделе мы сфокусируемся на двух типах этических вопросов, связанных с подотчетностью и возникающих в контексте поисковых кампаний: (1) вопросы социальной ответственности, затрагивающие важную социальную роль поисковых систем в предоставлении информации и знания; (2) вопросы моральной/юридической ответственности, возникающие в случаях, когда поисковые системы предоставляют ссылки на веб-сайты, чье содержание является или нелегальным, или морально спорным. Мы начнем с краткого анализа первого типа вопросов.

До сих пор вопросы деловой этики и профессиональной ответственности напрямую не рассматривались в данной статье; основное внимание в Разделе 3 мы уделили моральному воздействию поисковых систем на обычных пользователей, особенно в отношении конфиденциальности, слежки и свободы. Однако в разделе 3.1 мы намекнули, что компании-создатели поисковых систем (КСПС), могут нести моральную ответственность за свои действия, связанные с предвзятостью при ранжировании результатов поиска. А в заключительном разделе 3.4 мы вкратце предположили, что крупные КСПС могут быть привлечены к ответственности за политику и практику, которые либо благоприятствуют цензуре, либо напрямую поддерживают ее. В этом разделе мы рассмотрим, имеют ли КСПС какую-либо особую социальную ответственность и моральные обязательства из-за их "привилегированного места" в нашем обществе. Мы начнем с краткого описания ключевой общественной роли, которую играют поисковые системы в обеспечении доступа к информации и знаниям.

Эльгесим (Elgesem 2008, 241) отмечает, что важная общественная роль поисковых систем – это их "вклады в общественное использование разума", а Ноубл (Noble 2018, 148) утверждает, что результаты поиска могут фактически "структурировать знания" для обществ, в которых они работают. Как мы уже отмечали в разделе 3, Хинман (Hinman 2005, 2008) и Диас (Diaz 2008) рассматривают поисковые системы как "привратников" знаний в вебе. Таддео и Флориди (Taddeo and Floridi 2016, 1575), также описывающие важность "функции привратника", которую сейчас выполняют КСПС вроде Google из-за их "центрального положения" в информационных обществах, обеспокоены отсутствием консенсуса в отношении того, какие "принципы должны определять...... моральную ответственность [КСПС] и [их] практики". Авторы утверждают, что нам нужна "этическая основа", которая "определит" обязанности КСПС и "предоставит фундаментальные, разделяемые принципы", необходимые для руководства поведением КСПС"в мультикультурном и международном контексте, в котором они работают". Но Таддео и Флориди также считают, что эта проблема применима и к другим видам крупных "поставщиков онлайн-услуг", которых авторы называют "ПОУ"; к этой категории они относят Facebook и Twitter, а также Google. Однако в данном разделе мы ограничиваем наше внимание вопросами моральной ответственности только КСПС как таковых.

Роль, которую играют такие крупные компании, как Google и Bing, в качестве "привратников" знаний в нашем информационном обществе — налагает ли она какую-то особую ответственность на них? Хинман (Hinman 2005, 21) перечисляет четыре причины, по которым эти компании должны иметь социальную ответственность.

Во-первых, он отмечает, что поисковые системы "играют абсолютно решающую роль" в доступе к информации и что без них интернет был бы "просто недоступен для нас" и, таким образом, "почти бесполезен".

Во-вторых, он указывает, что доступ к информации "имеет решающее значение для ответственного гражданства", также отмечая, что "граждане в демократическом обществе не могут принимать обоснованные решения без доступа к точной информации".

В-третьих, Хинман отмечает, что поисковые системы стали "центральным элементом образования", и указывает, что студенты теперь ищут в Google и других крупных поисковых системах чаще, чем посещают библиотеки.

В-четвертых, он указывает, что основные поисковые системы принадлежат частным корпорациям, то есть предприятиям, которые в основном, и "вполне обоснованно", заинтересованы в получении прибыли.

Что касается четвертого пункта Хинмана, кажется вероятным, что конфликты могут легко возникать из-за противоречия между миссией КСПС быть прибыльной – и ее более широкой общественной роли в обеспечении доступа к информации честным, точным и непредвзятым образом.

Коммерческие конфликты компаний-создателей поисковых систем

Рассмотрим разновидность конфликта, связанную с предвзятостью и прибылью КСПС. Никас (Nicas, 2011, 1) отмечает, что хотя многие КСПС изначально "довольствовались простым предоставлением результатов поиска", некоторые из них теперь активно участвуют в различных рынках, "предлагая все: от онлайн-музыки до местных купонов и мобильных телефонов". Никас также описывает проблему предвзятости, влияющую на эту тенденцию, отмечая, что когда Google вошел в туристический онлайн-бизнес, он "начал размещать свой новый сервис поиска авиабилетов на вершине результатов общего поиска" — то есть выше результатов других крупных игроков в туристическом онлайн-бизнесе, таких как Orbitz и Expedia. Поскольку Google применяет подобные методы и в странах ЕС, где, по оценкам, 85% пользователей выбирают Google в качестве основной или единственной поисковой системы, ей предъявлялись и продолжают предъявляться обвинения в нарушении антимонопольного законодательства. В Европе Google официально обвиняется в "систематическом предпочтении собственного продукта для сравнительных покупок" путем демонстрации этого продукта/услуги в результатах поиска, "независимо от его достоинств" и в ущерб конкурентам (Chappell 2016). Если утверждения Никаса, Чаппелла и других верны, то, похоже, есть все основания для беспокойства по поводу коммерческих конфликтов с участием таких крупных КСПС, как Google.

Относительно недавний связанный с предвзятостью конфликт возник перед КСПС в связи с "голосовым поиском", который становится все более популярным среди пользователей мобильных устройств. Барисевич (Barysevich 2016) отмечает, что голосовой поиск является "самым быстрорастущим типом поиска", ссылаясь на статистику в США, согласно которой 55% подростков и около 40% взрослых используют этот способ поиска ежедневно. Почему поиск пользователей развивается в направлении голосового поиска по сравнению с ("традиционным") текстовым? Хокинс (Hawkins 2017) предлагает две причины: (а) голосовой поиск быстрее текстового, поскольку большинство людей также склонны говорить гораздо быстрее, чем набирать текст; и (б) голосовой поиск осуществляется без использования рук, что удобно для людей, пользующихся мобильными устройствами. Учитывая превосходство Google — а некоторые даже могут сказать "доминирование" — в онлайновой "поисковой индустрии" на сегодняшний день, можно предположить, что Google также является ведущим игроком в развивающейся области голосового поиска. Однако Хокинс отмечает, что Bing пока имеет преимущество перед Google на рынке голосового поиска. Он объясняет это тем, что Siri от Apple, Cortana от Microsoft и Alexa от Amazon — три из четырех основных "виртуальных помощников" на рынке — используют Bing для поиска. Конечно, можно ожидать, что приложения голосового помощника Microsoft будут направлять поиск своих пользователей на Bing, а голосовые помощники Google будут делать то же самое, направляя пользователей на свою поисковую систему. Но можно также задаться вопросом, должны ли пользователи голосового поиска, – особенно продуктов/услуг, отличных от Microsoft и Google, – иметь явную возможность установить голосовые запросы по умолчанию на своих устройствах на конкретную поисковую систему по своему выбору? В противном случае таким компаниям, как Amazon и Apple, можно будет приписать предвзятость, поскольку они, пусть даже непреднамеренно, склоняют рынок голосового поиска в сторону Bing (и прочь от Google)? Однако, поскольку Google уже захватил большую часть существующего рынка поиска и связанных с ним услуг, нам будет трудно воспринимать КСПС как жертву (поисковой) предвзятости.

Некоторые критики указывают на то, что конфликты интересов, в которые вовлечены КСПС, не ограничиваются предвзятостью и нечестной деловой практикой в коммерческом секторе, но также могут повлиять на свободный поток знаний в обществе. Например, Карр (Carr 2011, 163) беспокоится, что коммерческий контроль, которым Google и другие крупные КСПС сегодня обладают над "распространением цифровой информации", может в конечном итоге привести к "ограничению потока знаний". А Хинман (Hinman 2008, 67) считает, что контроль над знаниями, которым обладают КСПС, "в очень фундаментальном смысле является общественным трастом, который, однако, по-прежнему прочно удерживается в частных руках и за завесой корпоративной тайны". Как мы видели, большая часть этой тайны тесно связана с собственными алгоритмами поиска, которые используют основные поисковые системы, что также поднимает вопрос, должны ли некоторые аспекты этих алгоритмов быть более прозрачными для широкой общественности. Однако Элгесим (стр. 241) считает, что от КСПС не следует требовать раскрытия информации об их алгоритмах поиска – вместо этого от них следует требовать (а) обнародовать свою политику в отношении пользователей и (б) максимально строго следовать этой политике.

В заключение данного раздела мы отмечаем, что КСПС продолжают сталкиваться с некоторыми критическими проблемами в отношении выполнения своей "роли привратника" социально ответственным образом, одновременно защищая как собственные алгоритмы, так и интересы своих акционеров, перед которыми они также несут юридические и моральные обязательства. В оставшейся части раздела 4 мы сфокусируемся на двух различных видах этических проблем, связанных с подотчётностью, которые затрагивают КСПС: (i) вопросы моральной ответственности/правового обязательства, возникающие в случаях, когда поисковые системы предоставляют ссылки на веб-сайты, содержание которых можно считать морально противоречивым; и (ii) проблемы доверия. Мы начнем с анализа (i).

Юридическая ответственность, "право на забвение" и фейки в цифровую эпоху

Должны ли КСПС быть подотчётны за, пусть даже непреднамеренное, направление пользователей на такие сайты, содержание которых либо незаконно, либо морально неоднозначно, либо обладает обоими этими недостатками? Следует отметить, что американские КСПС, включая Google, утверждают: они предоставляют только услуги и, таким образом, не являются "поставщиками контента". Эти компании считают, что нецелесообразно возлагать на них ответственность за содержание сайтов, которые они просто идентифицируют или предоставляют ссылки на них в своих списках поисковой выдачи. Они также правильно отмечают, что в США провайдеры онлайн-услуг — включая таких крупных интернет-провайдеров, как Verizon и Comcast — не несут юридической ответственности за онлайн-контент, доступный через их услуги, при условии, что они выполняют официальные юридические запросы на удаление контента, который явно нарушает законы США. Аналогичным образом, КСПС считают, что если они выполняют официальные юридические требования "деиндексации" или удаления ссылок на сайты, которые добровольно и намеренно нарушают законы США — например, законы, нарушающие авторское право, детскую порнографию и т.д., — то они также не должны нести юридическую ответственность за любой контент, к которому пользователи получают доступ через их услуги. Однако многие американские КСПС работают на международном уровне, где законы и схемы регулирования отличаются от американских (как мы видели в случае с Google в Китае).

Стоит отметить, что в Европе КСПС рассматриваются как "контролеры персональных данных", в отличие от простых поставщиков услуг (см., например, Google Spain SL, Google Inc. 2013); таким образом, эти компании, – а также интернет-провайдеры, работающие в странах ЕС, – могут быть привлечены к ответственности за доступный через их услуги контент.

Одно из основных различий между отношением к КСПС в США и Европе проявилось в относительно недавних дебатах о том, должны ли пользователи иметь "право на забвение", которое сейчас обычно называют правом на стирание.

 Право на забвение (ПнЗ)

Что такое ПнЗ, и почему оно вызывает споры с точки зрения вопросов моральной ответственности для КСПС? Мы можем проследить истоки того, что в конечном итоге стало дебатами о ПнЗ, до 2010 года, когда Марио Костеха Гонсалес попросил Google удалить ссылку, включенную в список результатов онлайн-поиска по его имени (см., например, Google Spain SL, Google Inc. 2014). Ссылка была на статью в испанской газете (La Vanguardia) об обращении взыскания на дом, которое произошло 16 лет назад. Гонсалес, гражданин Испании, обратился в Национальное агентство по защите данных Испании с просьбой удалить ссылку. Он утверждал, что информация о лишении его права выкупа, которая по-прежнему отображалась в Google по запросу "Марио Гонсалес", больше не является "актуальной". Хотя испанский суд вынес решение в пользу Гонсалеса в 2010 году, многие критики не были уверены, что решение этого суда будет действовать и в других странах ЕС. Поэтому эти критики не удивились, когда Google обжаловал решение испанского суда.

По мере обострения дебатов в Европе многие сторонники ПнЗ утверждали, что (бывшая) директива ЕС о защите данных (Указ 95/46/EC), которая защищает права граждан всех стран ЕС на частную жизнь, содержит косвенно поддерживающие ПнЗ формулировки. Например, они отметили, что 12-я статья ("Право доступа") этого указа предоставляет "исправление, стирание или блокирование данных, обработка которых не соответствует положениям указа, поскольку информация является... неточной" (см. "Информационный бюллетень Европейской комиссии о "Праве на забвение" (The Right to Be Forgotten)). Таким образом, граждане стран ЕС уже имели четкое юридическое право на удаление/исчезновение ложной личной информации из интернета, или, по крайней мере, на удаление ссылок или индексации из поисковых систем. Некоторые сторонники ПнЗ также считали, что 12-я статья может быть истолкована как право на стирание/деиндексацию личной информации в интернете, которая больше не считается актуальной.

КСПС и другие противники ПнЗ, включая издателей и журналистов, смотрели на ПнЗ с совершенно иной точки зрения. Они утверждали, что ПнЗ приведет к цензуре, тем самым ограничит свободу выражения, и в целом ухудшит качество интернета, ограничив количество доступной пользователям онлайн-информации (см., например, Tavani 2018). В связи с этими и другими опасениями они пришли к выводу, что ПнЗ нанесет вред обществу. Однако некоторые сторонники ПнЗ, включая Боттиса (Bottis 2014, 2), считают, что защита определяемых ПнЗ данных необходима именно потому, что она поможет устранить вред — т.е. "психологический вред" (и, возможно, даже физический вред в некоторых случаях), — который пользователи могут испытать в противном случае. Представим, например, ситуацию, в которой жертвы сайтов "порно мести" будут иметь четкие правовые средства защиты в отношении их просьб об удалении/деиндексации ссылок, которые связывают их имена с этими спорными сайтами (см. рассказ о порно мести в связи с правом на забвение, теперь ПнЗ, в Kritikos 2018).

В 2012 году Европейская комиссия (ЕК) предложила пересмотренный "Регламент по защите данных" (статья 17) для (предыдущего) указа ЕС, который включал конкретные положения об удалении (т.е. "исправлении, удалении или блокировании") персональных данных, которые были неактуальны (а также персональных данных, которые были "неточными", "неадекватными" или "преувеличенными"). Парламент ЕС одобрил рекомендации ЕК в 2013 году, внеся несколько незначительных изменений в статью 17 и переименовав соответствующее "право" в "Право на забвение". Возможно, неудивительно, что вновь пересмотренный регламент ПнЗ был оспорен Google и другими корпорациями, работающими в Европе. Однако в мае 2014 года Суд Европейского союза (СЕС) подтвердил решение испанского суда (2010) по делу Гонсалеса, подтвердив также статью 17 обновленного указа ЕС о защите данных.

Постановление высшего суда подтвердило, что граждане всех стран ЕС имеют право при определенных условиях требовать от операторов поисковых систем удаления ссылок на некоторые виды личной информации о них, которые "больше не актуальны". Однако СЕС также отметил, что ПнЗ не является абсолютным правом; например, это право должно быть сбалансировано с другими правами, включая "свободу выражения мнения" (см. "Fact Sheet on the ‘Right to Be Forgotten’ Ruling").

Несмотря на то, что Google объявил, что будет выполнять решение СЕС, он также обеспокоен тем, что не сможет ответить на все запросы пользователей об удалении/деиндексации ссылок; по его мнению, это будет задачей не только обременительной, но и практически невозможной. Келион (Kelion 2019) отмечает, что за период времени между решением СЕС от мая 2014 года и сентябрем 2019 года Google получил "более 845 000 запросов на удаление в общей сложности 3,3 миллиона веб-адресов", в результате чего примерно "45% ссылок в конечном итоге были исключены из списка". Таким образом, создаётся впечатление, что Google и его сторонники действительно имеют основания для беспокойства, учитывая масштабы полученных запросов на удаление. Но все же можно резонно спросить, как это сделал Боттис, является ли сам объем этих запросов достаточным основанием для отмены ПнЗ.

Боттис отмечает, что мы не прекращаем принимать и соблюдать законы, действующие в физическом пространстве, только потому, что их исполнение не может пресечь преступления вроде проституции, торговли наркотиками и т.д. Далее она отмечает, что в цифровом мире защита частной жизни и авторских прав иногда кажется недостижимой, но мы все равно предлагаем, принимаем и исполняем законы, чтобы защитить их как можно лучше. Таким образом, с данной точки зрения, мы не можем оправдать "отмену закона" ПнЗ только на том основании, что его трудно обеспечить соблюдением. Но стоит также отметить, что, как и в случае с аргументами Google в пользу отмены ПнЗ, многие аргументы, выдвигаемые сторонниками ПнЗ, также содержат одну или несколько логических ошибок; анализ некоторых из них приведен у Тавани (Tavani 2018).

В каком-то смысле дебаты о ПнЗ сейчас кажутся спорными, по крайней мере, в Европе, после решения СЕС 2014 года и последующего утверждения Общего регламента по защите данных (ОРЗД), который был принят ЕС в апреле 2016 года и вступил в силу в мае 2018 года. Тем не менее, на смену первоначальным дебатам относительно ПнЗ пришли дебаты нового и иного рода, а именно – споры о том, (i) как ПнЗ должно быть реализовано в ЕС, особенно в свете того, что некоторые критикуют как "расплывчатые" руководящие принципы, адресованных КСПС; и (ii) должно ли ПнЗ применяться повсеместно, чтобы быть эффективным. Что касается (i), Google и другие КСПС утверждают, что СЕС не предоставил достаточно четких и ясных критериев, которыми они могли бы руководствоваться при определении того, какие запросы на удаление заслуживают серьезного рассмотрения, а какие нет. Таким образом, Google и другие КСПС продолжают рассматривать запросы ПнЗ в каждом конкретном случае.

Что касается (ii), многие защитники конфиденциальности утверждают, что хотя ПнЗ применяется во всех странах ЕС, он не может быть эффективным законом без сильной международной поддержки; поэтому многие члены ЕК, а также органы, отвечающие за приватность, в 28 странах ЕС (включая Великобританию, которая скоро выйдет из ЕС, но, скорее всего, продолжит поддерживать принципы, составляющие ПнЗ), утверждают, что ПнЗ должно применяться за пределами Европы. Несмотря на то, что работающие в Европе КСПС обязаны соблюдать ОРЗД (и его положения ПнЗ) во всех странах ЕС, ПнЗ можно очень легко обойти как в Европе, так и за ее пределами. Например, европейский пользователь, который вводит ключевое слово "Mario González" на сайте Google.com (или в нелокальных (европейских) версиях Bing, Yahoo, DuckDuckGo и т.д.), все равно найдет ссылку на статью о заключении контракта на строительство дома этого человека, даже если пользователи сайта Google.es (в Испании) или пользователи Google в других странах ЕС, таких как Германия (Google.de), не увидят эту ссылку в списке результатов поиска. Поэтому сторонники ПнЗ ходатайствовали о более широком применении нового закона, в то время как Google и другие КСПС оспаривали эту точку зрения в суде. В сентябре 2019 года высший суд ЕС постановил, что Google не обязан применять ПнЗ в глобальном масштабе (Kelion 2019). Таким образом, многие сторонники приватности в Европе и других странах считают, что для того, чтобы ПнЗ стал эффективным законом, по-прежнему необходима универсальная или глобальная версия (см., например, Global Partners Digital 2018).

Проблема фейков в цифровую эпоху

В настоящее время КСПС не только обязаны выполнять запросы (от европейских граждан, проживающих в странах ЕС) о деиндексации и удалении ссылок на персональные данные, которые считаются "неактуальными", но и сталкиваются с аналогичной проблемой в отношении того, что делать с индексацией и предоставлением ссылок на ложную и/или вводящую в заблуждение информацию, содержащуюся на онлайн-форумах. Это особенно очевидно в случае с фейками. Что такое фейки, и почему он представляет собой проблему для КСПС? Хотя единого, общепризнанного определения фейков не существует, под ним обычно понимают "сфабрикованные новости", "ложные новости" и т.д. Согласно Кембриджскому словарю английского языка, фейк определяется как "ложные истории, выдаваемые за новости, распространяемые в Интернете или других СМИ, обычно создаваемые для влияния на политические взгляды" (см. ссылку в разделе "Интернет-ресурсы"). Распространенность фейков на онлайн-форумах, и особенно в соцсетях и блогах, вызывает вопросы о том, участвуют ли КСПС в распространении этой ложной информации.

В США проблема фейков привлекла значительное внимание СМИ после президентских выборов 2016 года, когда стало известно, что находящиеся за пределами США лица намеренно размещали ложную и вводящую в заблуждение информацию на сайтах социальных сетей, таких как Facebook, чтобы повлиять на исход выборов против тогдашнего кандидата Хилари Клинтон. В каком-то смысле кажется, что конкретные детали этого спора затрагивают в основном или, возможно, даже исключительно сайты социальных сетей, такие как Facebook и Twitter, а также блоги, но не обязательно КСПС. Но мы также можем задаться вопросом, не несут ли КСПС определенную ответственность за усиление беспокойства по поводу фейков, предоставляя пользователям результаты поиска, которые — даже если непреднамеренно — ссылаются на различные фейки, размещенные в соцсетях и на других сайтах.

Можно было бы возразить, что, поскольку фейки намеренно дают ошибочную и неточную информацию в качестве истины, они должны более тщательно регулироваться государственными органами.

Но, как отмечает Липински (Lipinski 2018, 69), "хотя все фейковые новости содержат элемент лжи, не все фейковые новости являются клеветническими". Далее он отмечает, что в США распространитель неклеветнеческих фейков защищен Первой поправкой, поэтому нет никаких правовых средств защиты от "спикеров" или СМИ, которые их размещают.

Таким образом, описание закона со слов Липински можно истолковать так, что КСПС, наряду с соцсетями, должны быть освобождены от любой юридической ответственности, когда речь идет о распространении фейков. Тем не менее, даже если соцсети продолжат разрешать размещение фейков на своих платформах, мы все равно можем задать вопрос, могут ли КСПС быть оценены по более высоким стандартам ответственности, – учитывая их особую роль привратников знаний в интернете, обеспечивающих доступ пользователей поисковых систем к "точной" информации.

Должны ли КСПС нести ответственность за деиндексацию ссылок, которые направляют своих пользователей к первоисточникам фейков? В свою защиту КСПС может заявить, что было бы несправедливо нести ответственность за направление пользователей к информации, которая является законной и уже находится в свободном доступе в Интернете. Однако критик может ответить, что европейские КСПС уже согласились – хотя и под угрозой закона – удалять ссылки на информацию, которая была признана "неактуальной", даже если содержание этой информации правдиво. Поэтому, a fortiori, критик может спросить: почему бы не обязать эти компании также удалять ссылки на информацию, которая является откровенно ложной и/или намеренно вводящей в заблуждение? Возможно, страны ЕС, опираясь на обоснование, использованное в ПнЗ (а также включенное в более широкий ОРЗД) для разрешения удаления личной информации, которая является "неточной" или "неактуальной", в будущем возьмут на себя инициативу и потребуют от КСПС отвечать на запросы об удалении ссылок, по крайней мере, на некоторые виды фейков.

Стоит также отметить, что некоторые крупные КСПС имеют этические кодексы или кодексы поведения. Эти кодексы зачастую содержат конкретные принципы, которые могут быть истолкованы как противоречащие практике, способствующей или увековечивающей распространение фейков или любой информации, которая, как было доказано, является ложной или вводящей в заблуждение. Например, в Кодексе поведения Google (см. ссылку в разделе "интернет-ресурсы"), в разделе I (под названием "Служить нашим пользователям") говорится, что, поскольку Google предоставляет "отличные продукты и услуги", он придерживается "более высоких стандартов". А в разделе I.1 (под названием "Честность") Кодекс Google гласит:

Наша репутация компании, которой пользователи могут доверять, является нашим самым ценным активом, и от всех нас зависит, чтобы мы постоянно заслуживали это доверие. Все наши коммуникации и другие взаимодействия с нашими пользователями должны повышать их доверие к нам.

Означает ли стремление Google придерживаться более высоких стандартов, — выше, чем те, что требуются от этой корпорации по закону, — что она берёт на себя обязательство избегать перенаправления своих пользователей на сайты с фейками? И, если Google будет рассматриваться как компания, обеспечивающая более широкий доступ к ложной и вводящей в заблуждение информации, может ли это привести к подрыву "доверия", которым сейчас, по-видимому, пользуется эта КСПС? В своем кодексе поведения Google утверждает, что "постоянно" стремится "заслуживать" доверие своих пользователей. Но в эпоху фейков мы можем задаться вопросом: способно ли чувство доверия, которое Google или любая другая крупная КСПС стремится преумножить, вместо этого оказаться утраченным.

В разделе 4.3 мы более подробно рассмотрим концепцию доверия в контексте КСПС. Однако в заключение данного раздела отметим, что на сегодняшний день крупные КСПС не приняли четкой и ясной политики в отношении фейков. На самом деле, нет никаких свидетельств того, что КСПС даже считают себя в какой-то степени ответственными за быстрое распространение фейков. Многие КСПС, вероятно, утверждают, что, если кто и должен нести ответственность за широкое распространение фейков в интернете, так это соцсети и блоги, на которых изначально размещается большая часть дезинформации. К сожалению, однако, адекватный анализ их роли и ответственности в вопросе о фейках выходит за рамки данной статьи; более подробную информацию об этических проблемах, затрагивающих соцсети как таковые, см. в (Vallor 2016).

Некоторые проблемы, касающиеся доверия

В предыдущем разделе мы рассмотрели, как быстрое распространение фейков в интернете вызывает у КСПС один определённый вид проблем, связанный с доверием: под вопросом оказывается точность информации на некоторых сайтах, на которые направляются пользователи поисковых систем. Далее мы кратко рассмотрим концепцию доверия в более общих терминах, а затем – могут ли пользователи вступать в доверительные отношения с КСПС и каким образом. Как и в случае с другими ключевыми этическими вопросами, затрагивающими КСПС, в данной статье невозможно обсудить многочисленные аспекты доверия столь подробно, сколь они бы того заслуживали. Отличный обзор доверия (в целом) см. в (McLeod 2015). Мы ограничиваем наш анализ некоторыми текущими проблемами доверия, связанными с КСПС, и предполагаем: то, как КСПС реагируют на эти проблемы, может повлиять на чувство доверия, которое пользователи будут испытывать в будущем к таким крупным КСПС, как Google и Bing.

Что такое доверие, и почему оно так важно в контексте КСПС? Следуя Байеру (Baier 1986), многие философы рассматривают доверие как "установку", в то время как другие рассматривают доверие либо в "реляционных терминах" (Robbins 2016), либо как своего рода "ожидание" (Walker 2006). Как отмечает Говьер (Govier 1997, 35), одна из причин важности доверия заключается в том, что "установки доверия и недоверия влияют на природу и качество нашей социальной реальности". При обсуждении темы доверия важно с самого начала сделать несколько ключевых различий. Например, необходимо отличать доверие от благонадежности, которая часто рассматривается либо как свойство того, кому доверяют (а не как установка доверяющего), либо как отношение между доверяющим и тем, кому доверяют (trustor and trustee). Кроме того, в контексте КСПС важно различать этическое доверие и эпистемическое доверие (оба эти понятия описаны ниже).

Являются ли современные КСПС организациями, заслуживающими доверия? Если да, то почему мы утверждаем, что доверяем им? Потому ли, что (а) мы воспринимаем их как надежный ресурс, направляющий нас к наиболее релевантной и точной онлайн-информации в ответ на наши поисковые запросы (т.е. эпистемическое доверие)? Или это происходит потому, что (b) политика КСПС в отношении того, что они делают с нашей личной информацией после ее сбора, воспринимается как прозрачная и честная (этическое доверие)? Или это связано и с (а), и с (b)? Мы также можем спросить, возможны ли какие-то альтернативные/дополнительные причины, по которым допустимо утверждать, что человек доверяет или не доверяет КСПС.

Конечно, резонно задать вопрос: может ли человек вступить в доверительные отношения с КСПС как корпоративной структурой, или в принципе с нечеловеческой структурой любого рода? Например, некоторые могут предположить, что настоящие доверительные отношения могут существовать только между людьми (или, возможно, более конкретно, между "человеческими агентами"). Другие, однако, считают, что доверительные отношения могут быть распространены на некоторые нечеловеческие или "искусственные" агенты - то есть не только корпорации, которые иногда рассматриваются как совокупность человеческих агентов, но и искусственные электронные агенты, такие как "боты". Поскольку вопросы, влияющие на доверие и ответственность в отношении КСПС, распределены по обширной и разветвленной сети, в них могут быть вовлечены самые разные агенты: от, например, генеральных директоров корпораций и руководителей/советов директоров, представителей службы поддержки клиентов, инженеров и разработчиков программного обеспечения до многочисленных (нечеловеческих) искусственных (ИИ) агентов или ботов, которые также могут "принимать некоторые ограниченные решения" от имени КСПС. Так чему же именно мы доверяем/не доверяем, когда говорим, что доверяем/не доверяем КСПС? Утверждая, что мы доверяем, например, Google, мы, по сути, можем сказать, что доверяем всему, что входит в КСПС.

Одной из моделей, которая может помочь нам думать о доверии в таких обширных и сложных контекстах, как крупные КСПС, является система "диффузного доверия по умолчанию" Маргарет Урбан Уокер (Walker 2006). Согласно схеме Уокер, доверительные отношения возникают в среде (т.е. "пространствах и обстоятельствах"), которую она называет "зонами доверия по умолчанию". Уокер отличает доверие от простой зависимости, отмечая, что в доверительных отношениях между А и Б, А не просто ожидает, что Б сделает Х, но А ожидает этого от Б (Walker, 79). И поскольку доверие "связывает зависимость с ответственностью", Уокер (стр. 80) считает, что А имеет "нормативные ожидания" от Б. Но она также отмечает, что мы не всегда осознаем эти нормативные ожидания, поскольку обычно они "нерефлексивны и часто неспецифичны", а также допускают, что мы "можем рассчитывать на приемлемое поведение незнакомых или неизвестных нам людей". Наша уверенность в "хорошем и терпимом поведении других" лежит в основе предложенном Уокер понятии "доверие по умолчанию" (стр. 85).

Важной особенностью схемы Уокер является то, что она допускает доверительные отношения между людьми, которые не встречались и, возможно, никогда не встретятся лично. И в ее схеме доверительные отношения могут возникать не только между неизвестными друг другу людьми, но и между людьми и нечеловеческими сущностями, такими как корпорации. Уокер иллюстрирует последний тезис на примере, когда кто-то сталкивается с особенно плохим обслуживанием в самолете крупной коммерческой авиакомпании. Она отмечает: когда мы сталкиваемся с плохим обслуживанием, уместно обидеться не обязательно на конкретных людей, работающих в авиакомпании, но на саму авиакомпанию. Таким образом, сущности, входящие в зону доверия, не обязательно должны быть ограничены конкретными (человеческими) личностями.

Уокер (стр. 85) расширяет свое понятие базового доверия, включая зоны "диффузного базового доверия", что также проиллюстрировано ее примером с крупной авиационной корпорацией. Рассмотрим множество способов, которыми ответственность может стать "диффузной", когда она распределяется по обширной зоне доверия: такой как коммерческая авиакомпания (Уокер), или крупная КСПС (такая как Google), — которая также квалифицируется как зона диффузного базового доверия, включающая разнообразных агентов (как человеческих, так и нечеловеческих).

Среди нечеловеческих субъектов в этой зоне — искусственные электронные агенты (боты), которые "работают за кулисами", как с людьми, так и с другими искусственными агентами. К последним видам сущностей также относятся мультиагентные системы, которые могут "действовать" от имени КСПС ограниченными способами.

Подробное описание того, как модель Уокер может быть применена в цифровых контекстах, включая зоны диффузного доверия по умолчанию, включающие как людей, так и мультиагентные системы, см. в аналитической статье (Buechner and Tavani 2011).

Как отмечалось выше, важно различать эпистемическое доверие и этическое доверие, каждое из которых необходимо для доверия к КСПС. В то время как проблемы, связанные с первым аспектом доверия, пересекаются с вопросами, касающимися надежности КСПС, — а также точности содержащейся на веб-сайтах информации, которые она индексирует и на которые ссылается, — этическое доверие в случае КСПС может пересекаться с вопросами/обеспокоенностью, относящимися к пользовательской политике поисковой организации и к тому, является ли эта политика открытой, справедливой и заслуживающей доверия. Признание и соблюдение требований обоих аспектов доверия имеет решающее значение для такой поисковой организации, как Google, для реализации ключевой цели, заявленной в ее кодексе поведения — "повышать" и "постоянно зарабатывать... доверие" своих пользователей (The Google Code of Conduct, 2018).

В заключение мы признаем, что о ключевой роли доверия в контексте КСПС можно было бы еще многое сказать. Но мы, по крайней мере, определили некоторые основания, по которым доверие очень важно для КСПС, а также показали, как эти компании могут квалифицироваться как "зоны диффузного базового доверия" (Уокер). Хотя при анализе некоторых из множества аспектов доверия, влияющих на КСПС, мы рассмотрели только одну модель доверия — схему Уокер — мы не утверждали, что модель Уокер является единственной или даже лучшей теорией для понимания вопросов доверия, влияющих на КСПС. Мы также не утверждали, что теория Уокер не имеет внутренних проблем. Вместо этого мы оставили в стороне эти вопросы в пользу конкретной модели систематического анализа проблем доверия, связанных с КСПС.

Мы начали раздел 4 с вопроса о том, имеют ли КСПС какие-либо особые моральные обязательства в силу своего "привилегированного места" в обществе (т.е. в свете их роли "привратников" знаний в вебе), а в разделе 4.1 мы рассмотрели вопрос Хинмана о том, как КСПС регулируют доступ к знаниям в настоящее время. В разделе 4.2 мы определили относительно недавнюю проблему, связанную с доверием, с которой сегодня сталкиваются КСПС из-за распространения фальшивых новостей (фейков) в сети. И на основании нашего дальнейшего анализа доверия в разделе 4.3 складывается впечатление, что способность КСПС устанавливать и поддерживать доверительные отношения со своими пользователями будет иметь решающее значение для процветания этих компаний в будущем.

Заключение

В данной статье мы рассмотрели различные этические вопросы, возникавшие на ключевых этапах развития поисковых технологий, что в конечном итоге привело к появлению современных "поисковых систем эпохи веб 2.0". Сама технология поиска развивалась на протяжении последних 75 лет. Сперва это были доцифровые методы (такие как мемекс), призванные помочь ученым и профессиональным исследователям своевременно находить и извлекать важную информацию. Затем возникли интернет-технологии, которые помогали обычным пользователям находить (и напрямую ссылаться на) соответствующие веб-сайты при помощи запросов. Наконец, эстафета перешла к очень изощрённым технологиям, которые в своей нынешней форме становятся все более коммерциализированными и персонализированными до такой степени, что теперь их можно рассматривать как угрозу некоторым из наших основных свобод и демократических идеалов.

Этические вопросы, упомянутые статье, в основном рассматриваются с деонтологической точки зрения, что соответствует опубликованным на сегодняшний день исследованиям по теме. Однако наш анализ этических проблем, затрагивающих поисковые системы, ни в коем случае не является исчерпывающим; скорее, он просто отражает стандартный или "основной" подход, которого до сих пор придерживались прикладные этики и другие ученые при анализе противоречий, связанных с поисковыми системами. Можно легко представить себе вопросы, возникающие и с других этических позиций.

Например, с точки зрения социальной справедливости можно вполне обоснованно спросить, обязаны ли компании поисковых систем в США и других развитых странах морально помогать преодолевать "информационный разрыв", предоставляя более легкий и повсеместный доступ (через поисковые технологии) пользователям в развивающихся странах, особенно неанглоязычным пользователям.

Также, с точки зрения утилитаризма или консеквенциализма, можно задать вопрос, будут ли совокупные социальные последствия более благоприятными, если пользователям поисковых систем будет законодательно разрешено извлекать некоторые формы служебной информации (например, служебную онлайн-информацию о здоровье и исследованиях общественного здравоохранения, которые стали возможны благодаря финансированию налогоплательщиков) для личного пользования.

Кроме того, при анализе этических проблем, затрагивающих поисковые системы, можно использовать некоторые альтернативные этические подходы. К ним относятся, в частности, "императив ответственности" Ханса Йонаса (Jonas 1984), "общая мораль" Бернарда Герта (Gert 2007) и "справедливость как честность" Джона Ролза (Rawls 1999). Очень краткое описание того, как этические аспекты поисковых систем можно рассматривать с точки зрения "прав", "справедливости", "общего блага" и "добродетели", см. в Центре прикладной этики Марккула (в разделе "интернет-ресурсы").

Несмотря на то, что основное внимание было уделено выявлению и анализу этических проблем, затрагивающих поисковые системы, в заключение стоит повторить мысль, высказанную во вступительном разделе: технология поиска затрагивает и другие типы философских проблем. Это особенно очевидно в области эпистемологии, где некоторые критики высказывают опасения, связанные с нашими представлениями о природе и обосновании утверждений о знании в эпоху широкого использования и зависимости от поисковых систем. Например, Хинман (Hinman 2008, 75) утверждает, что поисковые системы "вносят значительный вклад в социальное конструирование знания" - то есть, они не только обеспечивают доступ к знанию, но и все чаще "играют решающую роль в конституировании самого знания". Однако анализ этого утверждения, равно как и других эпистемологических и (шире) философских аспектов поисковых систем выходит за рамки данной статьи.

Библиография

• Abbate, J., 1999. Inventing the Internet, Cambridge, MA: MIT Press.

• Baier, A. C., 1986. “Trust and Antitrust,” Ethics, 96: 231–260.

• Barysevich, A., 2016. “How Voice Search Will Forever Change SEO,” Search Engine Journal, June 14. available online.

• Berners-Lee, T., 2010. “Long Live the Web: A Call for Continued Open Standards and Neutrality,” Scientific American, November. available online.

• Blanke, T., 2005. “Ethical Subjectification and Search Engines: Ethics Reconsidered,” International Review of Information Ethics, 3: 33–38.

• Bottis, M., 2014. “Allow Me to Live the Good Life, Let Me Forget: Legal and Psychological Foundations of the Right to Be Forgotten and the New Developments in the European Union Laws,” in Well-Being, Flourishing, and ICTs: Proceedings of the Eleventh International Conference on Computer Ethics–Philosophical Enquiry, Menomonie, WI: INSEIT, Article 10.

• Brey, P., 1998. “The Politics of Computer Systems and the Ethics of Design,” in Computer Ethics: Philosophical Enquiry, M. J. van den Hoven (ed.), Rotterdam: Erasmus University Press, pp. 64–75.

• –––, 2004. “Disclosive Computer Ethics,” in Readings in CyberEthics, 2nd edition, R. A. Spinello and H. T. Tavani (eds.), Sudbury, MA: Jones and Bartlett, pp. 55–66.

• Brin, S. and Page, L., 1998. “The Anatomy of a Large-Scale Hypertextual Web Search Engine,” in Seventh International World-Wide Web Conference (WWW 7), Amsterdam: Elsevier.

• Buechner, J. and H. T. Tavani, 2011. “Trust and Multi-Agent Systems: Applying the ‘Diffuse, Default Model’ of Trust to Experiments Involving Artificial Agents,” Ethics and Information Technology, 13(1): 39–51.

• Burgess, M., 2018. “What is the Internet of Things?” Wired, February 16. available online

• Bush, V., 1945. “As We May Think,” Atlantic Monthly, July. available online.

• Carr, N., 2011. The Shallows: What the Internet is Doing to Our Brain, New York: Norton.

• Chappell, B., 2016. “EU Charges Google with Antitrust Violations, Will Also Look at Android,” National Public Radio, April 15, available online.

• Charette, R. N., 2012. “Gone Missing: The Public Policy Debate on Unleashing the Dogs of Cyberwar,” IEEE Spectrum, June 4. available online.

• Chorost, M., 2011. World Wide Mind: The Coming Integration of Humanity, Machines, and the Internet, New York: Free Press.

• Diaz, A., 2008. “Through the Google Goggles: Sociopolitical Bias in Search Engine Design,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 11–34.

• Elgesem, D., 2008. “Search Engines and the Public Use of Reason,” Ethics and Information Technology, 10(4): 233–242.

• European Commission, 2014, “Fact Sheet on ‘The Right to Be Forgotten’ Ruling C-131/12.” available online.

• Floridi, L., 2014. “The Right to Be Forgotten—The Road Ahead,” The Guardian, October 8. available online.

• Friedman, B., P. Kahn, and A. Borning, 2008. “Value Sensitive Design and Information Systems,” in The Handbook of Information and Computer Ethics, K. E. Himma and H. T. Tavani (eds.), Hoboken, NJ: John Wiley and Sons, pp. 69–101.

• Friedman, B. and H. Nissenbaum, 1996 “Bias in Computer Systems,” ACM Transactions on Computer Systems, 14(3): 330–347.

• Gert, B., 2007. Common Morality: Deciding What to Do, New York: Oxford University Press.

• Global Partners Digital, 2018. Travel Guide to the Digital World: Data Protection for Human Rights Defenders, London: GPD. available online.

• Goldman, D., 2013. “Shodan: The Scariest Search Engine on the Internet,” CNN Money (The Cybercrime Economy), April 8. available online.

• Goldman, E., 2008. “Search Engine Bias and the Demise of Search Engine Utopianism,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 121–134.

• Goodwin, D., 2018. “What is SEO? Here’s Search Engine Optimization Defined by 60 Experts,” Search Engine Journal, January 2, available online.

• Google Spain SL, 2013. Google Inc. v. Agencia Española de Protección de Datos, Mario Costeja González. Case C 131/12. Opinion of Advocate General, June 25. available online.

• –––, 2014. Google Inc. v. Agencia Española de Protección de Datos, Mario Costeja González. Case C 131/12. Judgment of the Court (Grand Chamber), May 13. available online.

• Govier, T., 1997. Social Trust and Human Communities, Montreal and Kingston: McGill-Queen’s University Press.

• Halavais, A., 2009. Search Engine Society, Malden, MA: Polity.

• Halpern, S., 2011. “Mind Control and the Internet,” New York Review of Books, June 23. available online

• Himma, K. E., 2007. “Privacy vs. Security: Why Privacy is Not an Absolute Value or Right,” University of San Diego Law Review (Fourth Annual Editors’ Symposium), 45: 857–921.

• Hinman, L. M., 2005. “Esse Est Indicato in Google: Ethical and Political Issues in Search Engines,” International Review of Information Ethics, 3: 19–25.

• –––, 2008. “Searching Ethics: The Role of Search Engines in the Construction and Distribution of Knowledge,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 67–76.

• Introna, L. and H. Nissenbaum, 2000. “Shaping the Web: Why The Politics of Search Engines Matters,” The Information Society, 16(3): 169–185.

• Jonas, H., 1984. The Imperative of Moral Responsibility: In Search of an Ethics for the Technological Age, Chicago: University of Chicago Press.

• Kelion, L., 2019. “Google Wins Landmark Right to Be Forgotten Case,” BBC News, September 24. available online.

• Kelly, K.J., 2019. “Gawker Stalker Might Get Another Chance to Acquire Website,” New York Post, August 6. available online.

• Kritikos, K. C., 2018. “The Right to Forget, Obliterate, Erase: Defending Personal Data Privacy in the Digital Age,” Journal of Information Ethics, 27(2): 47–65.

• Lessig, L., 2000. Code and Other Laws of Cyberspace, New York: Basic Books.

• Levy, D. M., 2008. “Information Overload,” in The Handbook of Information and Computer Ethics, K. E. Himma and H. T. Tavani (eds.), Hoboken, NJ: John Wiley & Sons, pp. 497–515.

• Lipinski, T., 2018. “The Law and Economics of Recognizing the Right to Be Forgotten in an Era of Fake News,” Journal of Information Ethics, 27(2): 66–80.

• Markkula Center for Applied Ethics, 2016. “Unavoidable Ethical Questions about Search Engines,” Santa Clara University. available online.

• McLeod, C., 2015. “Trust,” The Stanford Encyclopedia of Philosophy (Fall 2015 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/fall2015/entries/trust/>.

• Moor, J. H., 1997. “Towards a Theory of Privacy in the Information Age,” Computers and Society, 27(3): 27–32.

• Morozov, E., 2011. “Your Own Facts,” New York Times Sunday Book Review, June 10. available online

• Nagenborg, M. (ed.), 2005. The Ethics of Search Engines, Special Issue of International Review of Information Ethics, Vol. 3.

• Nicas, J., 2011. “Google Roils Travel,” Wall Street Journal, 12/27. available online.

• Nissenbaum, H., 1997. “Toward an Approach to Privacy in Public: Challenges of Information Technology,” Ethics and Behavior, 7(3): 207–219.

• –––, 1998. “Protecting Privacy in an Information Age,” Law and Philosophy, 17: 559–596.

• –––, 2004. “Privacy as Contextual Integrity,” Washington Law Review, 79(1): 119–157.

• –––, 2010. Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford: Stanford University Press.

• O’Harrow, R., 2012. “Cyber Search Engine Shodan Exposes Industrial Control Systems to New Risks,” The Washington Post, June 3, available online.

• Noble, S.U., 2018. Algorithms of Oppression: How Search Engines Reinforce Racism, New York: New York University Press.

• O’Reilly, T., 2005. “What is Web 2.0? Design Patterns and Business Models for the Next Generation of Software,” O’Reilly Media, available online.

• Palfreman, J., and D. Swade, 1991. The Dream Machine: Exploring the Computer Age, London: BBC Books.

• Pariser, E., 2011. The Filter Bubble: What the Internet is Hiding from You, New York: Penguin.

• Rawls, J., 1999. A Theory of Justice, revised edition, New York: Oxford University Press.

• Robbins, B. G., 2016. “What is Trust? A Multidisciplinary Review, Critique, and Synthesis.” Sociology Compass, 10(10): 972–986. doi:10.1111/soc4.12391

• Scott, M., 2014. “The Right to Be Forgotten Should Apply Worldwide, Panel Says,” New York Times, November 26. available online.

• –––, 2016. “Europe Tried to Rein In Google. It Backfired,” New York Times, April 18, available online.

• Spinello, R. A., 2011. CyberEthics: Morality and Law in Cyberspace, 4th edition, Sudbury, MA: Jones and Bartlett.

• –––, 2012. “Google in China: Corporate Responsibility on a Censored Internet,” in Investigating Cyber Law and Cyber Ethics: Issues, Impacts, Practices, A. Dudley, J. Braman, and G. Vincenti (eds.), Hershey, PA: IGI Global, pp. 239–253.

• Sunstein, C., 2001. Republic.com, Princeton, NJ: Princeton University Press.

• Taddeo, M. and L. Floridi, 2016. “The Debate on the Moral Responsibilities of Online Service Providers,” Science and Engineering Ethics, 22: 1575–1603. doi:10.1007/s11948-015-9734-1

• Tavani, H. T., 1998. “Internet Search Engines and Personal Privacy,” in Computer Ethics: Philosophical Enquiry, M. J. van den Hoven (ed.), Rotterdam: Erasmus University Press, pp. 214–223.

• –––, 2005. “Search Engines, Personal Information, and the Problem of Protecting Privacy in Public,” International Review of Information Ethics, 3: 39–45.

• –––, 2007. “Philosophical Theories of Privacy: Implications for an Adequate Online Privacy Policy,” Metaphilosophy, 38(1): 1–22.

• –––, 2016. Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing, 5th edition, Hoboken, NJ: John Wiley and Sons.

• –––, 2018. “Should We Have a Right to Be Forgotten? A Critique of Key Arguments Underlying This Question,” Journal of Information Ethics, 27(2): 26–46.

• Tavani, H. T. and F. S. Grodzinsky, 2002. “Cyberstalking, Personal Privacy, and Moral Responsibility,” Ethics and Information Technology, 4(2): 123–132.

• Tavani, H. T. and J. H. Moor, 2001. “Privacy Protection, Control of Information, and Privacy-Enhancing Technologies,” Computers and Society, 31(1): 6–11.

• Vallor, S., 2016. “Social Networking and Ethics,” The Stanford Encyclopedia of Philosophy (Winter 2016 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/win2016/entries/ethics-social-networking/>.

• Van Couvering, E., 2008. “The History of Internet Search Engines: Navigational Media,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 177–206.

• Walker, M. U., 2006. Moral Repair: Reconstructing Moral Relations after Wrongdoing, New York: Cambridge University Press.

• Wall, A., 2011. “History of Search Engines: From 1945 to Google Today,” Atlantic Online, available online.

• Zimmer, M., 2008. “The Gaze of the Perfect Search Engine: Google as an Institution of Dataveillance,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 77–99.

Интернет-ресурсы

• Hawkins, J., 2017. “5 Things to Know About Voice Search and Bing,” SEMrush Blog, August 4. available online

• Fake News, статья в Кембриджском словаре английского языка

• Google Code of Conduct, Alphabet Investor Relations, last updated July 31, 2018.

• The Ethics and Politics of Search Engines, панельная дискуссия, организованная Центром прикладной этики Марккула университета Санта-Клары и Центром науки, технологии и общества университета Санта-Клары 27 февраля 2006 года.

• Unavoidable Ethical Questions about Search Engines, Центр прикладной этики Марккула

• Code of Ethics and Professional Conduct, Association for Computing Machinery.

• SEO Code of Ethics, Bruce Clay, Inc.

Сноски
[1] Для читателей, интересующихся нюансами некоторых описанных здесь технических понятий (таких, как TCP/IP, FTP и т.д.), а также важной ролью, которую эти технологии и протоколы сыграли в историческом развитии интернета, есть отличные источники. Например, (Abbate 1999).
[2] О теории приватности, опирающейся на понятие "ограниченного контроля", в противовес полноценной "теории контроля" приватности, читайте в (Moor 1997; Tavani and Moor 2001; Tavani 2007).
Поделиться статьей в социальных сетях: