входрегистрация
философытеорииконцепциидиспутыновое времяматематикафизика
Поделиться статьей в социальных сетях:

Поисковые системы и этика

Ссылка на оригинал: Stanford Encyclopedia of Philosophy

Впервые опубликовано 27 августа 2012 года; существенно переработано 8 июля 2016 года.

Что такое поисковые интернет-системы? Почему поисковые системы проблематичны с точки зрения этики? В этой статье мы критически рассмотрим философскую литературу по данной теме. Однако о поисковых системах с философской точки зрения было написано довольно мало академических работ. Лишь очень малая часть имеющихся публикаций, где исследуются этические аспекты поисковых систем, написана философами (см., напр., Nagenborg 2005).

Введение и обзор

Современный мир тяжело представить без поисковых систем. Какой ученик старшей школы сегодня не использовал поисковые системы для нахождения информации по некоторой теме либо тому или иному предмету? Разумеется, вполне вероятно, что многие интернет-пользователи, как молодые, так и пожилые, сознательно не проводят различия между используемыми ими поисковыми системами и веб-браузерами, которые сегодня обычно включают в себя поисковики в качестве элемента своего интерфейса. Но фактически все интернет-пользователи сегодня зависят от мгновенных результатов, которые они получают в ответ на поисковые запросы. Хотя сегодня и не имеется недостатка в определениях «поисковой системы», ни одно из них не было принято в качестве стандартного и универсального.

Однако для целей настоящей статьи мы примем определение поисковой (веб-)системы, предложенное Халаваисом:

интернет-поисковик — это «информационно-поисковая система, которая позволяет по ключевым словам находить распространенный по сети цифровой текст» (Halavais 2009: 5–6).

Отметим, что это определение включает некоторые важные технические термины и понятия, которые, в свою очередь, нуждаются в дальнейшем определении и прояснении. Цель исследования ключевых технических понятий, лежащих в основе поисковых систем, — предоставить контекст для нашего анализа этических аспектов поисковых систем. В этом смысле прав Бланк, который утверждает, что адекватный анализ этических аспектов поисковых систем «требует познаний в области технологий и их функционирования» (Blanke 2005: 34).

Мы начнем с краткого обзора истории и эволюции поисковых систем, начиная с их зарождения в доинтернетную эпоху и заканчивая созданием и внедрением таких современных (эпоха «Web 2.0») поисковиков, как Google. Наше исследование важных исторических технических изобретений имеет целью ответить на первый вопрос, обозначенный в начале статьи: «Что такое поисковая система?» Здесь мы также должны предоставить контекст для анализа второго главного вопроса — «Почему поисковые системы проблематичны с точки зрения этики?» — в рамках которого будет рассмотрен перечень этических проблем, включая проблему поисковых технологий.

Сюда входят различные темы, начиная с проблемы предвзятости и непрозрачности поисковиков и заканчивая нарушением приватности и слежки, проблем цензуры и демократии. Кроме того, мы поставим вопрос о том, имеют ли компании — операторы поисковых систем моральные обязательства — например, в свете их «привилегированной» позиции в обществе как «стражей Web» (Hinman 2005: 21) — по которым они должны быть отвечать. Мы также опишем некоторые возникающие этические проблемы, касающиеся (кипер)безопасности — данных, системы, (интер)национального уровня — возникающие в связи с использованием «поисковых систем по обнаружению» в контексте интернета вещей.

Исследования этических аспектов поисковых систем и, более конкретно, информационной/компьютерной этики до сих пор осуществлялись в рамках широкого деонтологического подхода. Сохраняя эту перспективу, мы ограничиваем себя главным образом деонтологическим анализом группы этических вопросов, возникающих в связи с поисковыми системами, и в рамках настоящей статьи мы игнорируем возможные недостатки самой деонтологии и ее применений.

В заключительной части мы кратко скажем о влиянии поисковиков на более широкие философские проблемы (особенно в сфере эпистемологии), которые, вероятно, не являются лишь и главным образом этическими. Однако адекватный анализ этих вопросов лежит за пределами намерений нашей статьи.

Развитие и эволюция поисковых систем: краткая история

Поскольку поисковые системы дают пользователям интернета доступ к важной информации, направляя их по ссылкам на доступные онлайн интернет-ресурсы по множеству тем, многие склонны рассматривать поисковые технологии сугубо в положительном ключе; некоторые также могут полагать, как Интрона и Ниссенбаум (Introna and Nissenbaum 2000) и другие авторы, что эта технология «ценностно нейтральна». Однако поисковые системы поднимают множество этически спорных вопросов. Но перед тем, как их проанализировать, мы сперва кратко рассмотрим историю поисковых технологий, используя для наших целей следующие наименования для различения четырех эпох: (1) доинтернетная эпоха, (2) эпоха интернета до Web, (3) ранний Web и (4) Web 2.0. Мы увидим, как технический прогресс в каждом из этих периодов породил ряд новых вопросов, релевантных для этических проблем, которые мы рассматриваем в разделе 3.

Доинтернетная эпоха вычислений и информационного поиска (1940-е — 1970-е)

Сегодня мы склонны ассоциировать поисковые системы с компьютерными технологиями и, вероятно, прежде всего с основанными на интернет-технологиях вычислениями и электронными устройствами. И все же информационно-поисковые системы на раннем этапе существовали независимо от разработок в области электронных компьютеров. Тогда как первый (пользовательский) электронный компьютер — ЭНИАК (электронный числовой интегратор и вычислитель — ENIAC, сокр. от Electronic Numerical Integrator and Computer) — был выпущен в феврале 1946 года, прошло несколько десятилетий, прежде чем поисковые системы стали доступны.

Поскольку ЭНИАК и другие ранние компьютеры были разработаны главным образом для вычислительных операций, системам информационного поиска среди больших объемов данных, которые могли хранить несетевые (или автономные) компьютеры, уделялось мало внимания.

Однако некоторые теоретики информации начали беспокоиться об объеме информации, которая становилась доступна в этот период и которая, по всей вероятности, должна была возрасти в еще большей степени с появлением компьютеров. Их особенно беспокоило то, как на практике мы можем организовывать и находить расширяющиеся хранилища информации. Халаваис (Halavais 2009: 13) отмечает, что ранние компьютеры «опирались на модели библиотекарей и регистраторов» для организации хранимой информации, которую можно было бы извлекать. Но некоторые ведущие мыслители в возникающей области информационного поиска (ИП), которую Ван Куверинг (Van Couvering 2008) описывает как «гибридную» академическую дисциплину, заимствующую элементы информационных и компьютерных наук, поняли, что традиционные методы поиска информации будут неэффективны в эпоху электронных компьютерных систем.

Одним из провидцев, осознавших необходимость новых организующих и поисковых схем для разрастающегося объема информации, был Вэнивар Буш — вероятно, наиболее значительная фигура в истории теории информационного поиска / поисковых систем в доинтернетную эпоху. В своей классической статье «Как мы можем мыслить» (Atlantic Monthly, июль 1945), опубликованной приблизительно за полгода до официального анонсирования выхода ЭНИАК, Буш отметил:

Совокупность человеческого опыта увеличивается с непомерной скоростью, а способы, которыми мы продвигаемся в этом лабиринте к нужному нам, те же, что и во времена парусников. 

Однако Буш верил, что технологически решить эту проблему было бы возможно с помощью системы, которую он называл «мемекс». Он описывал ее как устройство, в котором человек будет хранить все свои книги, записи, контакты и которое будет до такой степени механизировано, что работа с ним будет все более быстрой и гибкой.

Буш представлял, что мемекс будет вести себя как «сложная сеть троп», подобно функции человеческого сознания, которое, как он был убежден, работает посредством «ассоциации», а не через алфавитный индекс (обычно используемый в библиотеках и других системах-каталогах). Согласно Леви (Levy 2008: 508), наиболее инновационным в бушевской системе мемекс была организация ассоциативных указателей между частями микрофильмованного текста — который сегодня мы называем гипертекстом, — так что тот, кто осуществляет поиск, будет следовать по тропам полезной информации через массы литературы.

С помощью бушевской схемы «ассоциативного индексирования» различные части информации могут быть соединены или связаны вместе, «как каждый единичный предмет может по желанию мгновенно и автоматически выбрать другой». Таким образом, зачастую полагали, что Буш предвосхитил те функции поисковых систем, которые в конце концов стали использовать в интернете и во Всемирной паутине.

Двумя другими значительными фигурами в истории поисковых систем, сделавшими существенный вклад в эту область в доинтернетную эпоху, были Джеральд Салтон и Тед Нельсон.

Салтон, которого некоторые считают «отцом современных поисковых технологий», разработал систему информационного поиска СМАРТ (салтоновский магический автоматический поисковик текстов — SMART, сокр. от Salton’s Magic Automatic Retriever of Text). И Нельсон, который разработал гипертекст в 1963 году, значительно повлиял на теорию поисковых систем благодаря своему «Проекту Xanadu» (Wall 2011). Хотя разработки Салтона и Нельсона не сразу были использованы в современных поисковых системах, следует отметить, что ряд весьма «примитивных» поисковых функций был встроен в оперативные системы некоторых доинтернетных компьютеров.

Например, Халаваис отмечает, что операционная система UNIX поддерживала поисковую утилиту «Finger». С помощью команды Finger пользователь UNIX мог найти одного или более пользователей, которые также имели активные аккаунты в системе UNIX. Например, чтобы узнать о пользователе UNIX по имени «Джонс», нужно было просто ввести команду «Finger Джонс» в командной строке. Однако эта поисковая функция была очень ограничена, поскольку единственным типом информации, который мог быть найден, была информация о том, имеются ли на данный момент в системе один или более пользователей и в какое время эти пользователя входили или выходили из системы. Но, как отмечает Халаваис, это рудиментарное поисковое устройство также позволило пользователям UNIX организовать ограниченные социальные встречи — например, пользовали могли «фингернуть» друг друга, чтобы назначить время для игры в теннис после работы (конечно, при условии, что пользователи в это время сидят в своих UNIX-аккаунтах).

Некоторые концептуальные/технологические прорывы, случившиеся в доинтернетную эру развития поисковых систем, сделали возможными два вида этических вопросов, исследуемых в разделе 3. Во-первых, схема «ассоциативного индексирования» для информационного поиска Буша, отличная от более традиционных каталогизирующих схем, основанных на простых правилах вывода и техниках, положила начало (пускай и непреднамеренно) некоторым видам «предвзятости» и проблемам объективности, которые влияют на результаты поиска пользователей, которые мы рассматриваем в разделе 3.1. Во-вторых, поисковая функция, ставшая возможной благодаря утилите Finger, позволяющая пользователям UNIX узнавать о доступности других пользователей UNIX и находить информацию о том, когда именно они входят и выходят из системы, привела к постановке некоторых вопросов, связанных с приватностью и слежкой, которые включены в перечень этических проблем, которые мы рассматриваем в разделах 3.2 и 3.3.

Ранняя (до Web) интернет-эпоха (1980-е)

К 1960-м годам планы развития широкой сети компьютерных сетей (того, что в конце концов стало интернетом) стали вполне реализуемы. И к 1970-м была запущена работа над АПРАНЕТ (Агентство передовых исследовательских проектов — APRANET, сокр. от Advanced Research Projects Agency Network), которую обычно считают предшественником интернета. Этот проект, разработанный в США, финансировался Управлением перспективных исследовательских проектов Министерства обороны США в 1980-х, когда Компьютерная сеть Национального фонда науки США (NSFnet) его запустила (Spinello 2011).

Хотя в этот период существовало множество компьютерных сетей, между ними было трудно установить коммуникацию и обмен данными; нужен был общий протокол для разных сетей для обмена данными между системами. В конце концов в качестве стандартного протокола для появляющегося интернета была выбрана модель TCP/IP (протокол управления передачей / интернет-протокол).

С применением этого нового стандарта связывались большие надежды (особенно в академическом сообществе) относительно потенциала обмена данными, который имели различные компьютерные системы, включая зарождающийся интернет. Однако перед исследователями все еще стоял серьезный вызов: как интернет-пользователи могут обнаружить потенциально доступные им богатые ресурсы? Чтобы на него ответить, была нужна сложная поисковая программа/утилита, которая указывала бы существующие доступные компьютерные базы данных и определяла бы их. Первые индексы в интернете были довольно примитивны и, как заметил Халаваис (Halavais 2009), «их нужно было создавать вручную».

С помощью TCP/IP персональные компьютерные сети — включая LAN (локальные вычислительные сети) и WAN (глобальные вычислительные сети) — могли сообщаться друг с другом, по крайней мере в принципе, а также обмениваться большими объемами информации по сети. Однако для выполнения этой задачи нужен был другой протокол — который должен был бы наслаиваться на TCP/IP. Так, для этих нужд был создан и применен FTP (протокол передачи файлов), выстроенный на архитектуре клиент–сервер. В этой схеме для обмена файлами с другими интернет-пользователями нужно было сначала установить FTP-сервер. Через FTP-клиент пользователи могли затем загружать и находить файлы из FTP сервера. Возможно, еще более важно то, что они могли также эффективно находить файлы с помощью одной из новых поисковых систем, первая из которых называлась ARCHIE.

Поисковая система ARCHIE позволила пользователям вводить запросы по ограниченному набору параметров — главным образом по «именам файлов». Поисковая база данных файловых имен ARCHIE состояла из списков файловых каталогов из сотен систем, доступных публичным FTP-серверам (а в конечном итоге также и «анонимным» FTP-серверам). В начале 1990-х довольно большое распространение получили еще две поисковые системы: VERONICA (сокр от. Very Easy Rodent-Oriented Net-Wide Index to Computer Archives) и JUGHEAD (сокр. от Jonzy’s Universal Gopher Hierarchy Excavation and Display). И VERONICA, и JUGHEAD имели преимущество перед поисковиком ARCHIE, поскольку могли искать полнотекстовые файлы наряду с файловыми именами. Эти две поисковые системы также работали в связке с системой под названием GOPHER. Согласно Халаваису (Halavais 2009: 22), «подход на базе меню» GOPHER к поиску помог «внести в интернет порядок», поскольку пользователи «могли теперь ориентироваться с помощью меню, которые организовывали документы».

Некоторые из технологических прорывов, произошедших в раннюю эпоху развития поисковиков, обострили этические проблемы, которые мы исследуем в разделе 3. В частности, поисковые функции сети интернет, ставшие возможными благодаря соблюдению TCP/IP и FTP-протоколов, резко увеличили количество проблем, связанных с приватностью и мониторингом (изначально возникшие в доинтернетную эпоху из-за таких приложений, как UNIX-утилита «Finger»), которые мы рассматриваем в разделах 3.2 и 3.3. К тому же «анонимные» FTP-серверы, тоже созданные в данный период, позволили технически продвинутым пользователям загружать (анонимно) в интернет собственные файлы, наподобие защищенных авторским правом программных приложений. Индексирующие схемы, поддерживаемые поисковыми системами ARCHIE и GOPHER, позволили пользователям находить, скачивать и распространять частные файлы относительно анонимно. Хотя вопросы интеллектуальной собственности не входят в числе этических проблем, исследуемых в разделе 3, следует отметить, что развитие некоторых приложений, связанных с поисковыми системами, за этот период открыли путь для ряда нелегальных практик распространения файлов, включая распространение защищенной правами музыки, которые возникли с появлением сайта Napster в конце 1990-х годов.

(Ранний) Web (1990-е)

Первый веб-сайт был создан в 1991 году (в Европейской лаборатории практической физики CERN) Тимом Бернерсом-Ли, который также является основателем Консорциума Всемирной паутины (W3C) в Массачусетском технологическом институте в 1994 году. Всемирная паутина основана на протоколе передачи гипертекста (HTTP) и использует формат, названный «язык гипертекстовой разметки» (HTML) для разработки и передачи документов. Многие простые пользователи нашли навигацию в интернете намного более удобной и гибкой для обмена файлами, чем работу в рамках GOPHER и FTP.

Однако, чтобы реализовать весь свой потенциал и стать привлекательным для простых пользователей, основанному на HTTP интернету потребовался более интуитивно понятный пользовательский интерфейс. Веб-браузер Mosaic (позднее названый Netscape Navigator) стал доступен в 1993 году и был первым интернет-приложением, включающим графический пользовательский интерфейс (GUI). Этот интерфейс с интуитивными элементами, позволившими пользователям переходить по гиперссылкам, сделал интернет-навигацию более легкой для простых пользователей. Netscape Navigator, будучи интернет-браузером, а не поисковой системой, предоставлял форум, где могли развиваться многие специализированные интернет-поисковые компании.

Также в скором времени стали доступны хост-узлы поисковых систем, большинство из которых были посвящены специфическим областям или специфическим видам поиска. Поисковые системы, которые были особенно популярны в течение данного периода — это Excite (представленный в 1993 году), Lycos и Infoseek (оба стали доступны в 1994 году). Другие, включая Looksmart и Alta Vista, были представлены в 1995 году, а Ask.com (оригинальное название AskJeeves) — в 1997-м (Wall 2011).

Хотя внутренняя структура поисковой системы довольно сложна — они содержат в числе прочих компонентов программы под названием «пауки», которые «ползают» по сети, — часть поискового процесса, относящаяся к пользовательскому интерфейсу, довольна проста. Ее можно представить посредством двух действий: (1) пользователь вводит поисковой термин/фразу или «ключевое слово» в «поисковую строку», и (2) поисковик выдает список релевантных веб-страниц, который обычно содержит гиперссылки на находящиеся в списке страницы. Многие ранние веб-поисковики были очень специализированы, поэтому их можно рассматривать как «вертикальные» (согласно современному вокабуляру, относящемуся к поисковым технологиям) — по их охвату.

Например, Ask.com была создана для принятия запросов в форме особых вопросов, и, таким образом, ее можно рассматривать как вертикальный поисковик. Хавалаис определяет вертикальный поисковик как ограниченный «по теме, медиуму, региону, языку и ряду других параметров, покрывая свою область с большей глубиной». (В этом смысле вертикальные поисковики гораздо лучше «погружаются» в определенные темы, нежели чем прокладывают путь к другим темам, связанным с исходной.) Однако наибольшее число популярных поисковиков, получивших распространение в раннем Web, были более общими, или «горизонтальными». Alta Vista, например, принадлежала именно этой категории. Сегодня большинство крупнейших поисковых систем выстроены горизонтально, и Google, вероятно, является одним из самых известных из них.

Однако мы должны отметить, что вертикальные поисковики все еще играют важную роль. Рассмотрим пример, где некто пользуется Google или другим горизонтальным поисковиком вроде Yahoo! или (принадлежащим Microsoft) Bing для обнаружения веб-сайта Bates College. Как только пользователь успешно вышел на главную страницу сайта Bates, он может затем использовать локальные поисковые инструменты Bates для поиска информации о факультетах и сотрудниках или о различных академических программах и факультативных проектах, спонсируемых колледжем, и т.д. Однако в этом вертикальном поисковике пользователь не может найти более обширную информацию о факультетах и академических программах в связанных с Bates колледжах и университетах или о близких темах вообще (как это могло быть при использовании горизонтальных поисковиков).

Другой тип веб-поисковика — это метапоисковики, которые, как видно по названию, отбирают результаты множества (специализированных) поисковиков и затем комбинируют и ранжируют их. Одним из первых и, вероятно, наиболее популярных метапоисковиков середины 90-х был HotBot (Wall 2011). Метапоисковики сыграли намного более важную роль на заре эпохи Web. Поисковые системы усовершенствовались и стали более сложными, и нужда в метапоисковиках сильно уменьшилась.

Сегодня большинство (горизонтальных) поисковых систем общего назначения, такие как Google и Bing, способны возвращаться на прежний уровень ранжированных результатов (как некогда делали метапоисковики) посредством схем агрегирования. В действительности, основатели Google описывали свой поисковик как «агрегатор информации» (Brin and Page 1998).

Некоторые из технологических прорывов, произошедших в течение «раннего Web», породили два типа связанных с приватностью этических проблем, исследуемых в разделе 3. Во-первых, из-за огромного количества онлайн-сведений об обычных людях, ставших доступными веб-поисковикам, люди стали «мишенями» онлайн-поиска, осуществляемого любым, кто имеет доступ к интернету. Этот вопрос исследуется в разделе 3.2. Во-вторых, практика сбора персональных данных, которые ежедневно накапливались крупнейшими поисковыми компаниями и их рекламодателями, в значительной степени способствовала появлению проблем сбора данных и приватности, которые исследуются в разделе 3.4.

Эра «Web 2.0» (с 2000 года по настоящее время)

Хотя выражение «Web 2.0» сегодня обычно используется для обозначения различия между современной веб-средой и ранней эрой Web, критики отмечают, что оно является несколько туманным и неточным. Тогда как ранний Web (иногда именуемый «Web 1.0») описывался как очень пассивная и статичная онлайн-среда, поскольку пользователь мог лишь просматривать содержание веб-сайта, который был создан организацией или частным лицом (напр., когда пользователь посещает чью-то «домашнюю страницу»), Web 2.0 более динамичен, поскольку имеет множество интерактивных или «партисипаторных» черт. В среде Web 2.0, например, пользователи могут взаимодействовать и объединяться с другими пользователями недоступными ранее способами. Коллаборативные элементы включают различные «вики» (Википедия — наиболее известный пример), а также блоги и соцсети (напр., Facebook и Twitter). Конечно, интересующие нас вопросы касаются того, существенно ли влияет Web 2.0 на функции поисковиков или, что более важно, на возникающие в связи с ними этические проблемы.

Не вполне ясно, корректно ли назвать современные поисковики «поисковиками Web 2.0», даже если они действуют в среде Web 2.0. Например, многие партисипаторные инструменты и функции, применяющиеся в приложениях вроде социальных сетей, блогов и вики, необязательно применяются к современным поисковикам. Так что, вероятно, было бы более уместно использовать название, предложенное Хилманом — «поисковики второго поколения». Однако О’Рейли (O’Reilly 2005) предположил, что практика Google по привлечению пользовательского контента для обеспечения пользователей «лучшей» веб-поисковой средой совместима с интерактивными аспектами и целями Web 2.0. Но, несмотря на предложенную О’Рейли интерпретацию практик Google, мы все еще можем спросить, имеем ли мы право использовать понятие «поисковики Web 2.0». Так, вместо него мы могли бы назвать современные поисковики (или поисковики второго поколения) «поисковиками эры Web 2.0».

Что именно отличает поисковики эры Web 2.0 от их предшественников? Хинман отмечает, что традиционные критерии веб-поисковых компаний, используемые для ранжирования сайтов, были основаны на двух факторах: (1) число посещений страницы (т.е. «популярность») и (2) «число других страниц, ссылающихся на данную». Относительно второго критерия Диаз (Diaz 2008) и другие авторы указывали на аналогичную практику ранжирования важности академических статей. Они отмечали, например, что академическая статья обычно считается важной, если цитируется в большом количестве других статей. И эта статья, возможно, считается даже более важной, если цитируется в высокоцитируемой работе.

Химман верит, что поворот к (тому, что мы называем) поисковикам эры Web 2.0 случился тогда, когда компании вроде Google «более внимательно присмотрелись к тому, что хотели найти пользователи» (как он также заметил, они искали не самые популярные сайты). Он отмечает, например, что формула Google задействует следующую стратегию: «то, что нужно пользователю → термины поиска → желаемый сайт» (Hinman 2005: 22). Он также отмечает следующее: то, что желает пользователь, в данной схеме становится составной частью формулы, как это делает набор поисковых терминов, обычно используемых для выражения того, что желает пользователь.

Хинман и другие видели причину успеха Google как первого современного интернет-поисковика в проприетарных алгоритмах, именующихся PageRank. Зиммер (Zimmer 2008: 77) убежден, что главная цель Google — «создать „идеальный поисковик“, который будет предоставлять только интуитивные, персонализированные и релевантные результаты». Халперн (Halpern 2011) указывает, что поисковой процесс уже «стал персонализированным», то есть «вместо универсального он стал идиосинкразическим и странным образом императивным». И Паризер (Pariser 2011), утверждавший, что «более не существует стандарта Google», также отмечал, что с «персонализированным поиском» результат(ы), предлагаемые гугловским алгоритмом, вероятно, наиболее точно совпадают с поисковым запросом. Некоторые этические следствия, затрагивающие персонализацию поисковых алгоритмов, мы рассматриваем в разделе 3.4.

Прежде, чем мы закончим этот раздел, следовало бы кратко упомянуть два дополнительных вида современных поисковиков. Первый — поисковая система DuckDuckGo (альтернатива Google и Bing), гордящаяся тем, что не профилирует пользователей, утверждает, что она не персонализирует результаты поиска. Так, пользователи этой системы обычно получают одинаковые поисковые результаты по одному и тому же запросу. Второй — новый тип поисковиков, которые способны «обнаруживать» объекты или «вещи» в интернете, доступные в данный момент. Два примера этих «поисковых систем по обнаружению», Shodan и Thingful, анализируются в последнем разделе этой статьи.

Этические следствия

Большинство интернет-пользователей прекрасно осведомлено о достоинствах поисковиков. Как мы отмечали ранее, многие из нас сегодня зависят от них в плане поиска информации, которая влияет на все аспекты нашей повседневной жизни: информации о работе, путешествиях, отдыхе, развлечениях, финансах, политики, новостях, спорте, музыки, образовании и т.д. Однако, как мы также отмечали, использование поисковиков породило целый кластер этических вопросов. Мы распределили их по шести общим категориям: (1) предвзятость поисковиков и проблема непрозрачности, (2) персональная приватность и неинформированное согласие, (3) мониторинг и слежка, (4) цензура и демократия, (5) вопросы моральной подотчетности поисковых компаний, (6) вопросы (кипер)безопасности, возникающие в контексте интернета вещей.

Предвзятость поисковых систем и проблема непрозрачности

Что такое предвзятость поисковиков и почему это спорный вопрос? Если обратиться к литературе по теме, может показаться, что фраза «предвзятость поисковых систем» используется для описания по меньшей мере трех отдельных, хотя и связанных между собой проблем: (1) поисковые технологии не нейтральны, напротив, в их устройство «вшиты» некие механизмы, которые отдают предпочтение одним ценностям перед другими; (2) крупнейшие поисковики систематически отдают предпочтение некоторым сайтам (и некоторым видам сайтов) над другими в списке результатов поиска в ответ на пользовательские запросы; (3) поисковые алгоритмы используют необъективные критерии при формировании списка результатов в ответ на поисковые запросы.

Не-нейтральность поисковых систем

Тогда как некоторые пользователи могут полагать, что поисковики «нейтральны» или свободны от ценностей, критики утверждают, что поисковые технологии, равно как и компьютерные технологии вообще, ценностно нагружены и, таким образом, предвзяты ввиду некоторых свойств, заложенных в их устройство. Например, Брей (Brey 1998, 2004) и другие авторы (см., например, Friedman and Nissenbaum 1996) утверждали, что компьютерные технологии определенно имеют встроенные характеристики, ввиду которых отдают предпочтение одним ценностям перед другими.

Брей обеспокоен тем, что в некоторые из этих характеристик заложены «морально непрозрачные» ценности. Поскольку такие «встроенные» ценности не всегда очевидны для технических экспертов, разрабатывающих компьютерные системы, Брей убежден в необходимости методологической рамки, которая распространялась бы за пределы того, что он называет «стандартной» прикладной этической моделью —обычно используемой в «мейнстримной компьютерной этике» — для определения или обнаружения «скрытых» ценностей на стадии разработки. Он называет эту модель «раскрывающей (disclosive) компьютерной этикой» (Brey 2004: 55–56).

Определение ценностей, заложенных в дизайн и разработку технологии, было главной целью движения под названием «Ценностно-чувствительный дизайн» (VSD), которое Фридман, Кан и Борнинг (Friedman, Kahn and Borning 2008, 70) определяли как теоретически фундированный подход к дизайну технологий, который позволяет принципиально и исчерпывающе дать отчет о ценностях, которыми руководствуются специалисты на протяжении всего процесса проектирования системы.

Фридман с соавторами иллюстрируют свою модель на примере интернет-cookies — маленьких текстовых файлов, которые браузер размещает на компьютерной системе пользователей для отслеживания и записи пользовательской активности на сайте. В особенности они исследуют дизайн cookies в связи с процессом информированного согласия в отношении браузеров. Далее они утверждают, что встроенные в дизайн cookies характеристики бросают вызов ценности информированного согласия и что эта ценность важна постольку, поскольку защищает другие ценности, такие как приватность, автономия и доверие.

Технологии cookies не только могут быть встроены в дизайн современных веб-браузеров, они также используются крупнейшими поисковыми компаниями для получения информации о пользователях. Поскольку эти компании размещают cookies на компьютерных системах пользователей без их согласия, они также, похоже, вносят свой вклад и, вероятно, даже обостряют по меньшей мере один вид технологической предвзятости — тот, который угрожает ценностям вроде приватности и автономии, отдавая предпочтения ценностям, связанным со слежкой и мониторингом. Однако поскольку этот вид предвзятости также релевантен для вопросов, затрагивающих веб-поисковики, он не является особенностью поисковиков самих по себе.

Манипулирование поисковыми результатами

Многие критики склонны рассматривать схемы, манипулирующие поисковыми результатами, как парадигмальный случай предвзятости поисковых систем. Во влиятельной статье по данной теме Интрона и Ниссенбаум (Introna and Nissenbaum 2000) утверждали, что поисковики регулярно исключают определенные сайты и типы сайтов в пользу других, систематически продвигая вперед одни за счет других.

Велись многочисленные споры о том, почему это так, но мы кратко рассмотрим лишь две причины, которые особенно выделялись в обсуждениях: (а) интересы рекламодателей, спонсирующих поисковые системы; (б) схемы, используемые технически продвинутыми пользователями и организациями для упорядочивания выдаваемого поисковиками списка сайтов. (Третья часто озвучиваемая причина касается природы алгоритмов, используемых крупнейшими компаниями по разработке поисковых систем. Мы исследуем ее в разделе 3.1.3)

Стратегии онлайн-рекламы и предвзятость поиска

Некоторые критики отмечают, что компании — операторы поисковых систем «следуют запросам» спонсирующих их инвесторов. Так, многие из критиков утверждают, что главной причиной предвзятости поисковых систем, влияющей на включение или исключение определенных сайтов, являются интересы рекламодателей. Основатели Google Брин и Пейдж (Brin and Page 1998: 18), изначально отвергавшие идею платной рекламы в поисковиках, отметили, что было бы разумно

ожидать, что поисковики, существующие на деньги рекламодателей, с необходимостью будут работать в угоду рекламодателей и против интересов потребителей… Поскольку даже экспертам очень трудно оценить поисковые системы, такая предвзятость поисковиков отчасти коварна… [и] менее вопиющие предвзятости, вероятно, будут приняты рынком.

Следует отметить, что рекламные схемы, используемые поисковыми системами, со временем изменились. Например, Диаз указывает, что баннеры, которые были распространены в интернете в эпоху Web 1.0, были заменены «платным размещением объявлений» (Diaz 2008: 21). Он также отмечает, что «платные листинги» (в отличие от более ранних баннеров) не всегда заметно отличаются от обычных результатов поиска, получаемых пользователями. Элгесем (Elgesem 2008) указывает, что поисковые системы, такие как GoTo, чьи листы поисковых результатов основаны исключительно на проплаченных рекламодателями посещениях, якобы провалились из-за пользовательской неудовлетворенности полученными результатами. Со временем, однако, система GoTo была поглощена Google, которая продолжила использовать ее метод для создания поисковых результатов, основанных на оплаченной рекламе, но физически отделенных от «органических» результов, возникающий в центре их страниц (Elgesem 2008). Эта схема, сопоставляющая два разных типа результатов, похоже, была принята пользователями Google.

Диаз описывает две другие проблемы, связанные с предвзятостью и оказывающие влияние на рекламные схемы, применяемые компаниями по разработке поисковых систем: (1) произвольность (и кажущаяся непоследовательность) критериев, используемых этими компаниями при принятии той или иной рекламы, и (2) неточность (иногда сбивающая с толку) критериев, используемых для отделения (одобренных компанией поисковых систем) от тех, что были проплачены их рекламодателями. (Хотя произвольная дискриминация рекламных баннеров, принимаемых или отвергаемых Google, может показаться безобидной, Диаз отмечает, что компания Google также отказалась принимать рекламу от ряда организаций, критиковавших корпорации, которые к тому времени были ее спонсорами.) Относительно второго пункта Диаз объясняет, как проблемы предвзятости, влияющие на проплаченную рекламу, иногда путают с редакционными статьями, которые также отображаются на веб-страницах поисковых компаний. Тогда как редакторские статьи и реклама могут выглядит по-разному в газетах, Диаз отмечает, что так происходит не всегда в случаях поисковых систем. (Мы также изучаем некоторые аспекты предвзятости поисковых систем в контексте онлайн-рекламы в ходе анализа проблем моральной подотчетности поисковых компаний в разделе 3.5.)

Некоторые критики предполагают, что, поскольку конфликты, затрагивающие онлайн-рекламу в поисковых системах, со временем были разрешены, степень предвзятости поисковых результатов будет также снижаться или вовсе исчезнет. Однако для исправления системы привилегий (отдающей предпочтение одним сайтам перед другими) — или включающей/исключающей те или иные сайты либо ранжирующей их — могут быть использованы и другие схемы.

Технологические схемы, используемые для манипуляции результатами поиска

Мы уже отмечали, что некоторые технически продвинутые пользователи и организации нашли различные стратегии для «игры с системой», то есть они располагают свои сайты выше в схемах, которые используются поисковыми системами компаний для генерирования результатов. «Инсайдеры» считают такие схемы примерами SEO, или Search Engine Optimization, и мы кратко рассмотрим то, что теперь можно рассматривать в качестве классических уловок SEO. Некоторые организации и пользователи эффективно используют метатеги и ключевые слова в HTML (встроенные в исходный код страницы HTML) для влияния на компании-поисковики, располагая их сайты выше по их соответствию категориям в поиске. В конечном счете, однако, компании по разработке поисковых систем признают манипулятивные схемы в элементах HTML и игнорируют их в их алгоритмах отбора (Goldman 2008).

Множество организаций сейчас используют различные стратегии для достижений высокого расположения для их сайтов. Например, некоторые извлекают преимущества из (общих) формул, которые в настоящее время используются крупными компаниями по разработке поисковых систем. Бланк отмечает, что в алгоритме Google интернет-страницы «достигают лучшего ранжирования, если они оптимизируют свои отношения с системой хабов и авторитетными страницами» (Blanke 2005: 34).

В то время как «авторитетными» являются интернет-страницы, «на которые ссылается множество других», хабы «сами ссылаются на многие другие страницы».

Диаз (Diaz 2008) отмечает, что такие хабы будут получать самый высокий пэйдж-ранк. Таким образом, владельцы и проектировщики сайтов, знающие, как воспользоваться этими факторами (а также как применять различные схемы, связанные с SEO) для манипуляции ранжированием в результатах, выдаваемых поисковиками, будут получать самые высокоранжируемые сайты. Диаз также отмечает, что эти сайты, «как правило, принадлежат большим, хорошо известным технологическим компаниям, таким как Amazon и eBay», тогда как «миллионы стандартных страниц… будут иметь самый низкий рейтинг». Таким образом, представляется, что определенные виды предвзятости поисковых систем, выявленные Интроной и Ниссенбаум, посредством которых ряд сайтов систематически оказывается включенным/исключенным относительно других, нельзя автоматически устранить посредством простого разрешения конфликтов, связанных с платной рекламой. По всей вероятности, организации будут продолжать находить способы использования техник, связанных с SEO, для достижения высокого рейтинга своих сайтов и таким образом влиять на поисковые системы, особенно на Google. Как говорит Хинман: «Esse est indicato в Google (существовать — значит быть проиндексированным в Google)».

Проблема объективности

Проблемы, касающиеся предвзятости поисковых систем по отношению к вопросам «объективности», имеют два аспекта: (А) объективность, связанная с критериями, применяемыми алгоритмами поиска; (Б) объективность в отношении результатов, выдаваемых отдельными поисковыми системами в ответ на один и тот же запрос, вводимый многими пользователями. Применительно к (А) мы видели, что традиционные критерии, используемые поисковыми компаниями для ранжирования сайтов, опирались на два фактора: на число посещений страницы и число страниц, которые ссылаются на эту страницу. Хинман (Hinman 2005) убежден, что эта техника может дать пользователям «некоторую видимость объективного критерия». Он показывает, например, что даже если поисковые системы ошибаются при выдаче самых лучших результатов по конкретному поисковому запросу, «данная ошибка была бы объективным фактором». Даже если ранние поисковые системы ранжировали сайты по «популярности», как утверждает Хинман (Hinman 2005: 22), «популярность» здесь имела вполне объективное значение. Но мы также видели, такое положение дел сильно изменилось в случае поисковых систем эпохи Web 2.0, где все более и более «персонализированные алгоритмы» склонны приспосабливать результаты поиска к профилю вводящего запрос пользователя.

Эта тенденция к «персонализации» алгоритмов напрямую подводит нас к проблемам, затрагивающим (Б). Если даже большинство продвинутых пользователей будут подозревать, что список результатов по их запросу является предвзятым в силу целого ряда причин — таких как платная реклама, влияние корпораций, редакционный контроль и т.д. — большинство пользователей поисковых систем, как правило, полагают — возможно, наивно, — что если два пользователя вводят одинаковый поисковой запрос в строку такого крупного поисковика, как Google, они получат идентичный список результатов.

Другими словами, даже если используемая формула имеет перекосы или является предвзятой, отдавая предпочтение одним сайтам перед другими, то поисковый алгоритм тем не менее выдаст результаты, основанные на непротиворечивой формуле, которая, таким образом, является в некотором смысле стандартной или «объективной». Но все изменяется в эпоху, когда формула основывается на «персонализированной» генерации результатов поиска, которые подстраиваются под профиль пользователя. Например, если я ввожу понятие «орлы» в окно поиска, то список результатов, который я получу, скорее всего будет зависеть от моего профиля, который составила поисковая компания.

Если компания узнает, что я интересуюсь спортом и живу в Филадельфии, то меня, вероятно, вначале направят на интернет-сайт Филадельфийских орлов. Напротив, если мой профиль сообщает, что я люблю рок или поп-музыку, то меня, вероятно, направят в первую очередь на сайт музыкальной группы Eagles. Таким образом, по всей видимости, не существует какой-либо совокупной «объективной» формулы, которая использовалась бы рассматриваемой поисковой системой.

Некоторые проблемы, такие как недостаток объективности результатов, получаемых пользователями в ответ на их поисковой запрос, являются неизбежными. Например, Бланк (Blanke 2005: 34) убежден, что мы не должны «ни требовать, ни ожидать объективной информации от поисковой системы» (иначе говоря, информации, которая была бы «нейтральной или полной»).

Таким образом, он утверждает, что любое обвинение поисковых систем в предвзятости «бьет мимо цели», поскольку нам не следует ожидать, что поисковые системы будут выдавать только нейтральные и объективные результаты. Однако свое утверждение он, судя по всему, обосновывает мыслью о том, что технологии поисковых систем «не были спроектированы для этого». Но такой анализ, как кажется, предвосхищает отрицательный вывод, если только, конечно же, Бланк не имеет в виду, что технологии поисковиков в принципе не могли быть созданы для выдачи нейтральных и объективных результатов.

Голдман (Goldman 2008) также рассматривает вопросы, касающиеся объективности поисковых систем — иногда он готов защищать, а порой, возможно, даже одобрять предвзятость поисковых систем. Во-первых, он отмечает, что операторы поисковых систем «выносят редакторские суждения о том, какие данные собирать и как их представлять» (Goldman 2008: 122). Однако он также убежден, что предвзятость является «необходимой и желательной», то есть является «неизбежным следствием того, что поисковики осуществляют редакторский контроль над своими базами данных» (127). Таким образом, он готов согласиться, что «компании-разработчики поисковых систем, так же как и все другие медиа-компании, искажают результаты». Но в то время как многие полагают, что предвзятость поисковых систем является чем-то нежелательным, Голдман убежден, что «оптимизация контента в угоду пользователям является положительной чертой поисковых систем».

Он так же считает, что эффект принципа «победитель получает все», вызванный топовым положением сайта в списке результатов поиска, «будет снижен в связи с появлением персонализированных поисковых технологий» (121). Далее он утверждает, что «персонализированные алгоритмы ранжирования» будут «смягчать последствия предвзятости поисковых систем, поскольку, вероятно, они будут выдавать множество „топовых“ поисковых результатов на определенные условия поиска, а не один, и персонализированные алгоритмы устранят текущие опасения по поводу предвзятости поисковых систем» (130). Таким образом, Голдман считает, как это ни парадоксально, что любые проблемы искажения объективности результатов будут решены посредством возрастания субъективности — в форме персонализированных результатов, получаемых через персонализацию поисковых алгоритмов. Однако подобное направление в эволюции поисковых систем может иметь серьезные негативные последствия для демократии и демократических идеалов (мы обсудим это в разделе 3.4).

Опасения по поводу объективности и предвзятости поисковых систем тесно связаны с диспутами вокруг нехватки «открытости» и «прозрачности». Некоторые критики отмечают, что компании по производству поисковых систем недостаточно открыты или прозрачны в отношении того, почему они (а) включают некоторые сайты и исключают другие (в их списках результатов в ответ на пользовательский запрос) и почему они (б) помещают некоторые интернет-страницы в листе результатов выше, чем другие. Эти виды непрозрачности попадают под описание Хинманом (Hinman 2005) так называемой «проблему алгоритма». По словам Хинмана, алгоритмы, управляющие поисками, удерживаются в секрете, что, как он считает, вполне уместно. Поскольку в Google алгоритм PageRank является «запатентованным и тщательно охраняемым объектом интеллектуальной собственности», содержащим «500 млн вариаций и 2 млрд терминов» (Halpern 2011: 4), мы не знаем алгоритма этой формулы. И этот фактор, конечно, затрудняет разговор об объективности алгоритма или отсутствии таковой.

Еще одна группа проблем, вызывающих беспокойство касательно непрозрачности, возникают из-за того, что поисковики не всегда полностью или явно раскрывают свою практику в отношении двух важных моментов: (1) собирается ли информация о пользователях и в какой степени, (2) что они делают с информацией, которая однажды была собрана. Эти проблемы непрозрачности и не-открытости, включая непрозрачность и не-открытость компаний по производству поисковых систем, которые также связаны с вопросами конфиденциальности, влияющими на мониторинг и наблюдение, подробно рассматриваются в разделе 3.3.

Приватность, согласие, ненамеренное раскрытие персональной информации

В контексте обсуждения поисковых систем возникают по меньшей мере две различные проблемы приватности. Одна группа вопросов возникает из-за того, что поисковые компании могут собирать персональную информацию о своих пользователях. В этой схеме пользователи в действительности выступают «субъектами данных» для поисковых компаний и их конкурентов. Однако сами пользователи поисковых систем — независимо от того, действуют ли они от своего лица или от лица нанявших их организаций — могут использовать технологии для осуществления онлайн-поиска сведений о других людях. В таком случае люди — цели поиска (некоторые из них могли никогда не пользоваться поисковиками или, вероятно, ничего не слышать о них) выступают «субъектами запросов» для пользователей поисковых систем. В обоих случаях вопросы приватности возникают в связи с вопросами о честности в отношении затронутых субъектов данных. Следует принять во внимание, что многие из тех, кто стал субъектом поисковых запросов, не давали явно выраженного согласия ни на сбор определенного рода персональной информации о них, ни на то, чтобы их личная информация (собранная где-то в другом месте) стала доступной в Сети, или же ни на то, ни на другое вместе.

В этом разделе мы исследуем проблемы приватности в поисковых системах, затрагивающие тех, кто стал субъектом, или же «целью», запросов пользователей поисковиков. Данный тип вопросов приватности становится еще значительнее ввиду все возрастающего количества персональной информации об обычных людях, которая постоянно обнаруживается поисковиками и, таким образом, становится доступной интернет-пользователям. Но почему именно это проблематично с точки зрения приватности? Во-первых, далеко не очевидно, что большинство людей давали добровольное согласие на сбор информации о себе, размещенной в базе данных или в онлайн-форумах, доступных поисковикам (и, таким образом, потенциально доступных любому интернет-пользователю). И мы отмечали, что пользователи поисковиков, действуют ли они просто от своего лица или в качестве представителей бизнеса и корпораций, могут иметь и зачастую имеют доступ к значительному объему информации о многих из нас через поисковые системы. Поборники приватности спрашивают, насколько честна такая практика, особенно в отношении людей, которые не давали явно выраженного согласия на сбор их персональной информации и хранение ее на онлайн-форумах и в базах данных, по которым сегодня можно легко пройтись благодаря изощренным технологиям поисковых систем.

Вопросы приватности, возникающие в связи с тем, что люди оказываются субъектами запросов поиска, могут далее быть разделены на две отдельные категории относительно целей использования поисковых систем. Цели эти таковы: (1) установление местонахождения людей для преследования и других целей, приносящих им вред; и (2) сбор персональной информации. Мы кратко проанализируем каждую из практик.

Относительно первого пункта можно было бы спросить, почему использование поисковиков для установления местонахождения людей является спорной практикой с точки зрения приватности. Во-первых, представим, что некоторые организации разработали специализированные поисковики для сомнительных целей вроде преследования людей. Например, один из поисков (Gawker-Stalker) был разработан специально для преследования известных людей, включая знаменитостей. Представим, что некто обнаружил знаменитость, пока она обедала в дорогом ресторане в Сан-Франциско. Он посылает Gawker-Stalker по электронной почте «наводку» (tip), сообщая о ее местонахождении пользователям сайта. Сайт Gawker предоставляет своим пользователям по GPS информацию о точном местонахождении и о точном времени, когда знаменитость была увидена. Пользователи, интересующиеся сталкингом данной знаменитости, могут далее отслеживать ее движения с помощью Gawker или могут найти и преследовать ее в физическом пространстве, если они оказались в том же географическом ареале и в то же время (Tavani 2016).

Во-вторых, мы отметили, что уязвимыми для сталкинга и для сбора персональной информации через поисковики оказываются не только знаменитости и «высокопоставленные» публичные фигуры. Рассмотрим случай Эми Бойер, двадцатилетней жительницы Нью Гемпшира, которую в онлайне преследовал всего лишь ее бывший «воздыхатель» Лиам Йоэнс и которую впоследствии он убил. Используя стандартные механизмы интернет-поиска, Йоэнс смог собрать всю необходимую ему информацию о Бойер — о том, где они живет, работает и т.д. (см., напр., Tavani and Gridzinsky 2002). Подобные инциденты подталкивают нас к постановке вопроса о текущей политике — или, вместо ясных и прозрачных правил, о стандартных позициях и допущениях — относительно объема и вида персональной информации об обычных людях, которая сегодня доступна пользователям поисковых систем. Оказывается, похоже, что Эми Бойер совершенно не знала, что поисковые системы могли предоставить столько информации о ней.

Далее мы рассмотрим второй пункт, использование поисковых систем для поиска информации о людях — не об их местонахождении, но об их деятельности, интересах и биографии. Как в случае Эми Бойер, эти вопросы приватности также возникают тогда, когда обычные люди становятся субъектами онлайн-поиска. Представим, что работодатели все больше и больше используют технологии онлайн-поиска для получения информации о будущих и настоящих работниках. Хорошо известно, что многие работодатели пытаются получить доступ к информации о рассматриваемых ими кандидатах, размещенной в аккаунтах Facebook,. Такие сведения в некоторых случаях использовались работодателями для принятия решения о найме или не найме конкретного кандидата (и, вероятно, также для решения об увольнении или не увольнении нынешних работников). Так, например, студент колледжа, выкладывающий фотографии, где он распивает алкоголь или, возможно, непотребно ведет себя на вечеринке, может испортить себе шансы на получение работы в компании, которая, не выкладывай он эти фото, могла нанять его после завершения обучения. В защиту этих практик разыскания информации, которые используют компании, можно было бы сказать, что компании просто-напросто используют доступные средства поиска информации о людях, которые добровольно размещают материалы (напр., фото и т.д.) о себе в Facebook.

Здесь нас главным образом интересует личная информация, на раскрытие которой человек не давал согласия, но которая тем не менее была доступна благодаря поисковым системам. Этот интерес, распространяющийся также на личную информацию в онлайн-форумах, ни в коей мере не является новым или появившимся только сейчас. В десятилетия, предшествующие Facebook, работодатели имели доступ к информации о кандидатах через средства онлайн-поиска — например, они могли использовать (и использовали) поисковики для этой же цели, просто вводя имя человека в поисковой строке.

Возьмем гипотетический сценарий, где человек по имени Ли претендует на полную ставку в корпорации X. И также представим, что некто в корпоративном комитете по поиску информации о претендентах на ставку решает провести онлайн-поиск информации о Ли вскоре после приема его просьбы о найме. Далее представим, что в ответ на поисковой запрос о Ли поисковик выдает три результата. Один из них содержит ссылку на гей/лесби-организацию, где Ли значится как участник мероприятия, проведенного данной организацией. Далее представим, что корпорация Х не принимает заявку Ли. Представим, что Ли интересуется, почему просьба о найме была отклонена, и впервые решает найти о себе информацию в интернете. Ли узнает, что поисковой результат выдает информацию о его или ее участии в ЛГБТ-мероприятии (Tavani 1998). Следует ли тогда Ли сделать вывод, что кандидатуру отвергли из-за ее предполагаемой связи с этой организацией? Является ли такой вывод обоснованным? Возможно, нет. Тем не менее здесь возникает важный вопрос: разве это честно, чтобы кто-то выкладывал информацию о ней без ее согласия на онлайн-ресурс, который доступен одному или множеству поисковиков? Является ли размещение информации о Ли «справедливой игрой» и должна ли она считаться просто информацией, доступной каждому (Nissenbaum 2004), а значит, и подходящей для использования потенциальными работодателями?

Чем сценарий с Ли отличается от ситуации, в которой работодатель использует аккаунты Facebook для сбора информации о кандидатов на должность? Во-первых, обычно пользователи Facebook размещают сведения, которые могут увидеть другие; таким образом, они добровольно соглашаются с тем, что их данные будут доступны для других (если они не установили особых настроек приватности). Более того, пользователи также осознают, что подобная информация о них существует на этом онлайн-форуме. Но относится ли то же самое к кандидатам, которые не имеют аккаунта в Facebook или в другой социальной сети? Являются ли они менее уязвимыми для онлайн-поиска? Множество людей может и не догадываться, является ли личная информация о них доступной работодателю или кому-то еще посредством поисковиков.

Далее рассмотрим гипотетический сценарий, похожий на сценарий с Ли, где Фил, недавно получивший PhD, подает документы на должность на факультете в Университете Х. Но представим, что ряд недовольных бывших студентов разместил крайне негативные отзывы о Филе на сайте RateMyProfessor.com. Далее представим, что сотрудник факультетского поискового комитета Университета Х ищет онлайн-информацию о Филе и находит негативные отзывы. В результате Филу сообщают, что он не был избран на должность. Вскоре после получения письма с отказом Фил узнает о негативных комментариях недовольных студентов посредством поиска по своему имени. Было бы неразумно со стороны Фила заключить, что эти отзывы на RateMyProfessor.com повлияли на решение университетского комитета?

В этом смысле проблема Фила будет та же, что и у Ли — кандидат на должность не может контролировать то, какие люди (кроме него самого) будут размещать о нем информацию, доступную для онлайн-поиска. Однако негативная информация о Филе была прямо связана с критериями, которые будут применены при решении об утверждении кандидата на должность. Информация о Ли, не связанная напрямую с работой, на которую Ли претендует, может тем не менее также снизить шансы на занятие должности. Однако ни в одном из этих случаев ни Ли, ни Фи не могут что-либо сказать относительно размещенной информации о них или о ее корректности, которая столь легко может быть найдена с помощью онлайн-поиска и использована будущим работодателем при принятии решении об утверждении на должность.

С одной стороны, мы можем спросить, на какую помощь люди вроде Фила и Ли могут рассчитывать в подобных ситуациях — могут ли они обоснованно надеяться на контроль над любой размещаемой о них информацией, доступной для интернет-поиска? Но, с другой стороны, вряд ли будет совершенно необоснованным ожидать получение ограниченного контроля над личной информацией, даже если речь идет лишь о способности оспорить корректность информации, особенно когда они не давали согласия на размещение ее на интернет-форумах и в базах данных, доступных поисковикам. Существуют также аспекты личной информации, которые пересекаются с «публичными» сведениями. Так, по всей вероятности, на проблемы, возникающие в этих сценариях, можно смотреть как на современную разновидность старого спора о частной/публичной природе персональных данных. Эта проблема усложняется далее тем фактом, что множество людей в качестве субъектов поисковых запросов не имеют нормативной защиты своей личной информации, которая сейчас доступна онлайн — особенно ввиду предполагаемой «публичной природы» персональных данных (Tavani 2005).

Некоторые формы персональных данных нормативно защищены посредством особой политики приватности и законов, поскольку они квалифицируются как интимные или деликатные сведения о человеке. Мы можем назвать этот вид персональной информации непубличной персональной информацией (или НПИ). Однако многие из тех, кто исследует вопросы приватности, не беспокоятся о том, что различные виды персональной информации — публичная персональная пнформация (или ППИ), которая не является не-конфиденциальной или не-интимной — с легкостью может быть собрана в интернете или передана другим. Как можно различить НПИ и ППИ? НПИ, о которой мы говорили выше, считается по своей природе конфиденциальной или интимной; сюда также относится информация о финансовой или медицинской истории. ППИ, хотя и считается также личной или частной, отличается от НПИ в одном важном отношении: она не является интимной или конфиденциальной. Например, информацию о расположении места работы или школы, равно как об автомобиле, которым владеет человек, можно счесть личной в том смысле, что она относится к нему как к отдельному лицу. Однако этот вид персональной информации обычно не подпадает под категорию приватности, защиту которой гарантирует принадлежность к НПИ (Tavani 2016).

Изначально вопросы, связанные с личной информацией, которую можно собрать и передать в интернете, касались главным образом НПИ. Именно в ответ на них были установлены соответствующие формы юридической защиты и предприняты надлежащие меры. Но многие защитники приватности также беспокоились о том, что ППИ регулярно собирается и анализируется цифровыми технологиями. Они утверждали, что ППИ нуждается в большей юридической и нормативной защите. Ниссенбаум (Nissenbaum 1997, 1998) назвала вставшую перед нами проблему защиты информации, которую мы назвали ППИ, «проблемой защиты приватности в публичной сфере». Некоторые защитники приватности утверждали, что наши исходные предположения о том, какая именно информация о нас нуждается в четко прописанной юридической защите (или, возможно, некоторой менее формальной «нормативной» защите на уровне проводимых мер) больше не являются адекватными, поскольку значительная часть такой информации может быть доступна сегодня посредством цифровых технологий, особенно в коммерческой сфере. Например, на первый взгляд невинная информация о людях, основанная на их публичной активности, может быть «проанализирована» для создания пользовательских профилей, основанных на внутренних паттернах в базах данных, и такие профили (корректно или нет) могут быть задействованы в ходе принятия важных решений, которые затрагивают этих людей.

Мониторинг и слежка

Далее мы рассмотрим вопросы приватности, в рамках которых пользователи поисковиков сами являются субъектами данных (напр., для поисковых компаний). Зиммер (Zimmer 2008: 83) отмечает, что когда люди используют поисковые системы для своей «поисковой активности», о них «автоматически собирается» персональная информация. Но почему именно это является проблемой с точки зрения приватности? Во-первых, такие поисковые компании, как Google, регистрируют и архивируют каждое действие. Регистрируется тема пользовательского запроса, а также его дата и время. До недавнего времени многие люди не знали, что их запросы записываются и отслеживаются.

В январе 2006 года многие пользователи Google узнали, что компании — операторы поисковых систем ведут запись всех их запросов. По меньшей мере от четырех главных компаний администрация Буша в 2005 году потребовала информацию о запросах, основанную на недельной поисковой активности в течение лета 2005 года (см., напр., Nissenbaum 2010). Этими операторами были Google, Yahoo, AOL и Microsoft (MSN). Google отказалась передать такую информацию. Другие компании не сообщили о своем ответе. Многие предполагали, однако, что они положительно ответили на требование правительства. От Google потребовали передать (1) результаты поисковых запросов, полученные за недельный период, и (2) случайный список приблизительно миллиона URL, попавших в выдачу. Google ответила, что передача такой информации: (а) поставит под удар конфиденциальность пользователей (и подорвет их доверие к компании), и (б) раскроет информацию о (патентованном) алгоритме и процессах, которые использует Google, что потенциально нанесет вред ее конкурентному преимуществу как поисковому сервису. Суд постановил, что Google не обязан повиноваться первому требованию, но был достигнут компромисс относительно второго требования в виде постановления о передачи правительству 50 тыс. URL из выдачи Google (Nissenbaum 2010: 29–30).

Информация, собранная о поисковых запросах пользователей, может быть относительно невинной — в конце концов, кому интересно знать, какую информацию мы ищем в интернете, и кто захотел бы ею воспользоваться против нас? Однако, с другой стороны, невинная на первый взгляд персональная информация может быть собрана продавцами данных и использована для создания персональных профилей о нас; последние, в свою очередь, могут основываться на неточной информации и могут быть использованы при принятии решений о нас — решений, которые окажутся несправедливыми. Например, представим случай, где студент пишет статью об интернет-порнографии и использует поисковик для указания ссылок. Записи его поисковых запросов могут показать, что он несколько раз искал порно-сайты, что, свою очередь, позволяет предположить, что этот пользователь интересуется просмотром порнографии. Так, индивидуальные поиски того или иного пользователя могут теоретически быть использованы при создании профиля, который не будет соответствовать действительности. И записи поисковых запросов этих и других пользователей могут быть впоследствии использованы в суде (Tavani 2016).

Как уже отмечалось, информация о пользовательских запросах собирается поисковыми компаниями, а также множеством других «торговцев информацией» в коммерческой сфере. Халперн (Halpern 2011: 8) отмечает, что существует приблизительно 500 компаний, способных отслеживать все наши онлайн-движения, тем самым «собирая грубый материал Сети и продавая его… компаниям по интеллектуальному анализу данных». Паризер (Pariser 2011) указывает, что при отслеживании нашей активности Google использует 57 показателей — «начиная с того, где вы были зарегистрированы, и браузера, которым вы пользовались, и заканчивая тем, что вы искали перед тем, как сделать запрос, а также — кто вы такой и какие сайты вам нравятся».

Зиммер (Zimmer 2008: 77) отмечает, что Google интегрирует информацию, собранную из

интернет-cookies, детализированных серверных логов и пользовательских аккаунтов [из приложений Google, таких как Gmail, Google+ и Google Chrome]… что обеспечивает мощную инфраструктуру контроля данных (dataveillance) для мониторинга, записи и агрегирования онлайн-активности.

Более того, Паризер отмечает, что Google и другие крупнейшие компании — разработчики поисковых систем используют «системы предсказания» для конструирования и обновления представлений о том, кто мы такие (и что мы захотим сделать далее). Он также отмечает, что многие торговцы информацией рассматривают каждый «клик», который делает пользователь, как «товар», который может быть «за микросекунды выставлен на аукцион и продан потребителю, предложившему самую высокую цену». Паризер указывает, что один торговец информации, кампания под названием Acxiom, «собирала в среднем 1500 единиц персональных данных о каждом, кто есть в их базе — от кредитного рейтинга до применяемых лекарственных препаратов».

Конечно, некоторые пользователи могут ответить, что они не чувствуют никакой угрозы в связи с данной практикой. Например, они могут чувствовать себя защищенными от утечки персональной информации, поскольку предполагают, что собранные о них данные анонимны в том смысле, что они идентифицируются только как IP-адрес в противоположность личному имени. Однако Зиммер (Zimmer 2008: 83) отмечает, что в 2005 году один пользователь AOL был идентифицирован по имени, «поскольку поисковые запросы по различным темам, которые он делал, записывались и были позже обнародованы AOL». Как выяснилось, AOL Research обнародовал персональные поисковые данные 650 тыс. пользователей за трехмесячный период (Wall 2011: 18).

Ниссенбаум (Nissenbaum 2010: 30) указывает, что в этом случае компания AOL использовала процесс, «посредством которого определенные идентичности могут быть выделены из массива записей анонимизированных поисковых данных, которые AOL размещала в интернете для последующего применения научным исследовательским сообществом». Зиммер убежден, что случай AOL не уникален, но, напротив, является одним из примеров отслеживания или «контроля данных» (dataveillance — термин, предложенный Роджером Кларком в 1988 году), примененного в контексте поисковых запросов.

Также важно рассмотреть, можно ли в этом контексте провести осмысленное различие между мониторингом и слежкой. Отмечая, что данные термины часто используются взаимозаменяемо, Ниссенбаум различает их следующим способом. Тогда как слежка является «формой мониторинга „сверху“ — со стороны политического руководства и власти», понятие «мониторинг» используется в более широком социальном и «социотехническом» контексте (Nissenbaum 2010: 22). В схеме Ниссенбаум и мониторинг, и слежка являются примерами того, что она называет «социотехническими контекстами», но данные понятия обычно используются в разных целях. Так, Ниссенбаум отмечает, что мониторинг могут проводить системы, «для которых мониторинг является главной целью» (напр., системы закрытой трансляции телевидения). Но она также отмечает, что информация сама по себе имеет «модальность мониторинга». Например, Ниссенбаум полагает, что «контроль данных» включает в себя практики мониторинга, использующие интеракции и транзакции. Однако мы можем рассматривать эти практики, осуществляемые продавцами информации и потребительской сфере, в общем смысле как примеры мониторинга (а не слежки) в терминах Ниссенбаум.

Далее мы оставим проблемы приватности и мониторинга в коммерческой сфере и обратимся к вопросам о правительственной слежке за информацией, полученной как результат поисковых запросов пользователей. Ранее в этом разделе мы упоминали, как в 2005 году администрация Буша информировала компанию Google о том, что она должна передать список всех пользовательских запросов, введенных в поисковик за недельный период (точные даты Google не уточняла). Решение администрации Буша затребовать информацию о поисковых запросах обычных пользователей вызвало серьезную критику со стороны многих защитников приватности. Хотя администрация Буша утверждала, что у нее есть право добывать электронную информацию в рамках «войны против терроризма» и предотвращения атак вроде 9/11, некоторые критики опасались, что правительство попытается использовать полученную через суд информацию не только в целях обороны и антитеррора, но скорее для сбора данных для поддержки своей позиции относительно Закона о защите конфиденциальности детей в интернете, который был оспорен Окружным Судом США и пересмотрен Конгрессом (Nissenbaum 2010: 29). Критики были также обеспокоены последствиями, которые все это может иметь для приватности (как важной человеческой ценности) в рамках непрекращающегося конфликта между безопасностью и интересами приватности. И даже если приватность не является абсолютной ценностью, хотя иногда перевешивает соображения безопасности, как утверждает Химма (Himma 2007), некоторые критики оспаривают правомерность оснований для сбора информации о поисковых запросах обычных пользователей.

Хинман (Hinman 2005) отмечает, что Патриотический акт, принятый после 9/11, позволил правительству США собирать информацию из библиотек о книгах, которые берут их читатели. Далее он показывает, как аргументация, используемая в случае с библиотеками, может быть также применена к поисковым системам. Например, если правительство может видеть книги, которые некто берет из библиотеки, то почему оно также не может видеть запросы, которые люди вводят в поисковики?

Хинман также указывает, что есть и другие способы раскрытия пользовательских поисковых запросов. В том, что такие способы существуют, повинны практики, используемые крупнейшими операторами поисковых систем, такими как Google. Он также обеспокоен тем, что подобные практики могут в конце концов привести к слежке и подавлению политического протеста (как это было в Китае). Хинман спрашивает, мог ли Google испытать политическое давление извне (напр., со стороны администрации Буша) и удалить фотографии из Абу Грейб, которые вначале были размещены, а затем изъяты компанией без всякого объяснения.

Демократия, цензура и угроза свободе

В этом разделе мы рассмотрим некоторые импликации для свободы и открытости общества, которые может содержать в себе отслеживание пользовательских запросов со стороны поисковых кампаний. На ранних этапах существования интернета многие предполагали, что поисковые технологии способствуют демократии и поддерживают демократические идеалы. Например, Интрона и Ниссенбаум отмечают (Introna and Nissenbaum 2000: 169), что на поисковики смотрели тогда как на технологию, которая

…предоставит голос разнообразным социальным, экономическим и культурным группам, тем членам общества, которые редко слышны в публичной сфере, [и] даст власть тем, у кого ее не было, предоставив им доступ к ранее недостижимым для них средствам власти и ранее недоступным кладезям информации.

Однако Интрона и Ниссенбаум также описывают то, что можно назвать «антидемократическим» аспектом современных поисковых технологий, отмечая, что поисковые системы «систематически исключают» определенные веб-сайты, равно как и «определенные типы сайтов», отдавая приоритет другим. Диаз также выказывает это беспокойство, когда отмечает, что наиболее крупные компании — разработчики поисковых систем, такие как Google, направляют «сотни миллионов пользователей к одному контенту, а не к другому, к одним ресурсам, а не к другим» (Diaz 2008: 11). Так, следуя Диаз, мы спрашиваем, могут ли «независимые голоса и различные точки зрения», имеющие ключевую роль для демократии, «быть услышаны сквозь фильтр поисковых систем» (15).

Поисковые системы часто называют «стражами киберпространства», и некоторые критики отмечают, что эта роль имеет значительные последствия для демократии. Например, Диаз (Diaz 2008: 11) отмечает, что «если мы верим в принципы делиберативной демократии — в особенности если мы верим, что Web является открытым „демократическим“ медиумом, — то мы можем ожидать, что наши поисковые системы будут распространять широкий спектр информации по любой теме».

Хинман говорит то же самое, когда отмечает, что «процветание делиберативной демократии завит от свободного и неограниченного доступа к информации». И поскольку поисковые системы «стремительно становятся главными стражами знания», Хинман утверждает, что «мы обнаруживаем, что движемся к философски опасному положению» (Hinman 2005: 25). (Мы ненадолго вернемся к этому соображению в заключительном разделе статьи.)

Морозов (Morozov 2011) также высказывает ряд опасений за демократию перед лицом современных поисковых систем, привлекая внимание к техникам отбора информации, которые становятся возможными благодаря поисковым системам. Во-первых, он соглашается с Санстейном (Sunstein 2001), который беспокоится о том, что та избирательность, которая становится возможной благодаря фильтрации интернета, может легко заманить нас в «информационный кокон». И Лессиг (Lessig 2000) выдвигает предположение, что любой вид фильтрации в интернете по сути совпадает с цензурой, поскольку он препятствует некоторым формам выражения. По словам Морозова, тогда как Санстейн обеспокоен тем, что люди смогут использовать интернет-технологии для «чрезмерной кастомизации того, что они читают», реальное положение вещей таково, что современные компании — разработчики поисковых систем уже молчаливо совершили подобного рода кастомизацию. Обеспокоенность Морозова по поводу того, что поисковые компании используют фильтрацию и персонализирующие и кастомизирующие схемы, и вопрос о том, почему это представляет проблему для демократии, присутствует также у Паризера, который указывает, что «персонализирующие фильтры производят своего рода невидимую аутопропаганду, индоктринируя нас нашими собственными идеями, усиливая наше желание того, что нам близко, и оставляя нас в забвении относительно опасностей, ожидающих нас на темной территории неизвестного» (Pariser 2011: 13).

Паризер отмечает, что в то время как демократия «требует от граждан смотреть на вещи из другой перспективы», вместо этого мы «все больше запираемся в наших собственных пузырях». Далее он отмечает, что демократия также «требует опираться на общие факты», но вместо этого нам предоставляют «параллельные, но всецело раздельные вселенные». Чтобы показать, насколько это отмежевание от общих фактов угрожает демократии, Паризер использует пример дебатов о климатических изменениях в США за последнее десятилетие. Согласно данным Паризера, исследования показали, что между 2001 и 2010 годами убеждения многих людей относительно потепления климата существенно варьировались в зависимости от принадлежности индивидов к той или иной главной политической партии. Паризер указывает, что веб-поиск по запросу «изменение климата» покажет одни результаты для того, кто определяется алгоритмом в качестве демократа, и другие результаты для того, кто определяется в качестве республиканца. Он также отмечает, что поисковый алгоритм выдаст различные результаты тому, кого он определяет как должностное лицо нефтяной кампании, и тому, кого определяет в качестве экоактивиста.

Следуя подобной аргументации, Халперн говорит о том, что поисковые системы вроде Google направляют нас к материалу, который с большой вероятностью усилит и укрепит наши «мировоззрение, идеологию и предположения» и, таким образом, «отрежет нас от обратной нашей и противоречащей ей точки зрения» (Halpern 2011: 5–6). Паризер указывает, что через Google пользователь сегодня получает те результаты, которые, по убеждению оператора, являются для него наилучшими. Он описывает случай, где два человека вводят на клавиатуре «BP» (сокр. от British Petroleum) в время инцидента со взрывом нефтяной платформы Дипуотер Хоризон в Мексиканском заливе. В ответ на пользовательский запрос одного из пользователей поисковик выдал информацию об инвестициях, тогда как другой пользователь получил информацию о разливе нефти.

Не только ряд практик компаний — разработчиков поисковых систем угрожает демократии и ее идеалам — другие практики (в которые эти компании, как предполагают, замешаны) усиливают цензурирующие схемы, применяемые в наши дни недемократическими странами. Например, хорошо известно, что Китай успешно блокирует доступ к политическим сайтам, которые находит опасными. Так, правительство блокирует обычным китайским пользователям доступ к сайтам вроде «Tiananmen Square», «Free Tibet» и «Dalai Lama». Критики отмечают, что Google согласился с китайскими законами о цензуре, когда вышел на китайский рынок в 2006 году. Спинелло (Spinello 2012) убежден, что это соглашение нарушает принцип самого Google don’t be evil («не будь злом») — ключевой принцип этой поисковой кампании, — поскольку Google «способствует и поддерживает» режим китайской цензуры. Но некоторые защитники Google утверждали, что выход Google в Китай позволил китайским резидентам получить больший доступ к информации (больший, нежели тот, что был бы доступен через Baidu (www.Baidu.com), китайский поисковый сервис, запущенный в 2000 году). Другие защитники Google указывали, что поисковой гигант действовал не в одиночку, поскольку американские кампании, такие как Yahoo и MSN, также были замешаны в китайских законах о цензуре. И Хинман отмечает, что китайское правительство получило поддержку и от других американских кампаний, таких как Cisco Systems, для создания инфраструктуры или ключевых компонентов файрвола.

В 2010 году Google изменил свою политику в Китае и теперь направляет пользователей Google.cn на сайт в Гонконге, который не цензурируется. Однако Хинман убежден, что готовность Google следовать китайским законам о цензуре, которую компания продемонстрировала на начальном этапе своей работы в Китае, должна по-прежнему беспокоить нас. Он полагает, что если этот поисковой гигант мог так легко поддаться влиянию правительства, которое имеет относительно низкое экономическое влияние на бизнес Google в целом, он может стать объектом еще большего влияния со стороны правительства США, политическое и экономическое влияние которого гораздо значительнее. Например, в 2010 году было установлено, что запросы Google достигли приблизительно 55 трлн долларов в экономике (одних только) США. Некоторые обеспокоены, что данный фактор придает Google весьма значительную власть над компаниями, которые зависят от него в плане интернет-траффика (Spinello 2012). Также вызывает беспокойство, что Google в попытке достичь экономической власти в США в будущем может уступить давлению правительства США (и, возможно, других демократических стран) и соучаствовать в политике, осуществляющей цензуру на том или ином уровне.

В то время как многие изначально верили, что интернет будет способствовать демократии в искоренении тоталитарных обществ, поскольку те «неэффективны и расточительны» (Chorost 2011), Бернерс-Ли убежден, что Web, «который мы знали», сейчас находится под угрозой, поскольку и тоталитарные, и демократические правительства одинаково «занимаются мониторингом онлайновых привычек людей, угрожая важным человеческим правам» (Berners-Lee 2010). Хинман, вероятно, лучше всех суммировал эти беспокойства (Hinman 2005: 25):

Мы рискуем тем, что доступ к информации станет подконтролен могущественным, все более непрозрачным и почти полностью нерегулируемым поисковым системам, которые способны формировать и изменять наше будущее практически без нашего ведома. Во имя свободного общества мы должны способствовать развитию структур подотчетности для поисковых систем.

Если Бернерс-Ли, Хинман и другие правы, то, похоже, у нас действительно имеется множество причин для беспокойства, что по мере того, как мы пытаемся сохранить наши базовые свободы в демократии, мы в то же время пользуемся преимуществами многих персонализирующих и кастомизирующих схем, которые нам предлагают поисковики вроде Google. Также, похоже, все большая прозрачность поисковых кампаний может значительно облегчить наши тревоги. Но кто именно должен нести ответственность за регулирование деятельности поисковых кампаний и кто может сделать их подотчетными? Мы исследуем эти и другие вопросы в следующем разделе. 

Моральная подотчетность и социальная ответственность разработчиков поисковых систем

До этого момента в этой статье мы не рассматривали напрямую вопросы, касающиеся бизнеса и профессиональной ответственности. В третьем разделе мы главным образом сосредоточились на моральном влиянии поисковых систем на обычных пользователей, особенно с точки зрения приватности, слежки и свободы. В разделе 3.1, однако, мы намекнули, что поисковые компании могут считаться морально подотчетными за предвзятость в ранжировании поисковых результатов. И в заключении раздела 3.4 мы кратко рассмотрели представление о том, что эти кампании могут считаться подотчетными за политики и практики, которые или благоприятствуют цензуре, или непосредственно ее поддерживают. В этом разделе мы сфокусируемся на двух типах этических вопросов, связанных с подотчетностью и возникающих в контексте поисковых кампаний: (1) вопросы социальной ответственности, затрагивающие важную социальную роль поисковых систем в предоставлении информации и знания; (2) вопросы моральной/юридической ответственности, возникающие в случаях, когда поисковые системы предоставляют ссылки на веб-сайты, чье содержание является или нелегальным, или морально спорным. Мы начнем с краткого анализа первого типа вопросов.

Социальная ответственность как «стражей» информации

Несут ли поисковые компании какую-то особую социальную ответственность и моральные обязательства ввиду их «привилегированного места» в обществе? Элгесем отмечает, что поисковые системы обладают большой социальной ролью постольку, поскольку «вносят вклад в публичное использование разума» (Elgesem 2008: 241). И мы видели, что некоторые авторы, включая Хинмана (Hinman 2005, 2008) и Диаз (Diaz 2008), рассматривали поисковые системы как «стражей» Web. Такая роль разработчиков поисковых систем сама по себе может предполагать ответственность. Хинман перечисляет четыре причины, ввиду которых эти компании должны нести значимую социальную ответственность.

Во-первых, поисковые системы «играют абсолютно ключевую роль» в предоставлении доступа к информации и без них Web будет «просто недоступным для нас» и потому «почти бесполезным». Во-вторых, доступ к информации «сущностно важен для ответственного гражданства», к тому же «граждане демократических государств не могут принимать информированные решения при отсутствии доступа к корректной информации». В-третьих, поисковые системы стали «главным элементом образования», студенты ищут информацию в Google и других крупных поисковиках чаще, чем в библиотеках. В-четвертых, главные поисковые системы принадлежат частным корпорациям — то есть «бизнесу, который вполне обоснованно стремится к прибыли» (Hinman 2005: 21).

Что относится к четвертому пункту, то, похоже, легко могут возникнуть конфликты между желанием и/или потребностью поисковых компаний быть прибыльными и их более широкой социальной ролью в обеспечении доступа к информации — на честных и непредвзятых основаниях. Рассмотрим, как в последние годы развивались конфликты такого рода. По словам Никаса, тогда как поисковые компании были изначально «согласны просто производить поисковые результаты», сегодня некоторые из них вовлечены в широкую сеть рынков, «предлагая все, от онлайн-музыки до локальных купонов и мобильных телефонов» (Nicas 2011: 1).

Никас также описывает то, как вопросы, связанные с предвзятостью, влияют на этот тренд, отмечая, что когда Google вошел в онлайн-турбизнес, «поисковик Google стал размещать ссылки на свой сервис по поиску авиарейсов вверху списка выдачи» — над другими основными игроками, такими как Orbitz и Expedia. Поскольку Google также участвует в подобных практиках в странах ЕС, где примерно 85 % пользователей выбирают Google или как главную, или как единственную поисковую систему, он часто оказывается мишенью упреков в нарушении доверия. В Европе его был официально обвинили в том, что Google «систематически отдает предпочтение своему сравнительному торговому продукту», отображая этот продукт/услугу в «топе» поисковых ответов «независимо от его качества» и за счет своих конкурентов (Chappell 2016). Если Никас, Шаппелл и другие правы в своих выводах, то, похоже, есть веские основания подумать о коммерческих конфликтах интересов, в которые вовлечены такие разработчики поисковых систем, как Google.

Некоторые критики убеждены, что конфликты с разработчиками не ограничиваются предвзятыми и нечестными бизнес-практиками в коммерческом секторе, но также могут влиять и на свободное распространение знания в обществе. Например, Карр обеспокоен тем, что коммерческий контроль, который Google и другие крупнейшие компании-разработчики имеют над «распределением цифровой информации», может в конце концов привести к «ограничению потока знаний» (Carr 2011: 163). И Хинман убежден, что такой контроль над знанием, которым обладают эти кампании, является «в очень фундаментальном смысле публичным доверием, и все же он остается в частных руках и под покровом корпоративной тайны» (Hinman 2008: 67). Большая часть тайны, как мы уже видели, тесно связана с проприетарными поисковыми алгоритмами, которые используются крупнейшими поисковыми системами, что также поднимает вопрос о том, должны ли некоторые аспекты алгоритмов быть более прозрачными для широкой общественности. Но Элгесем убежден, что не следует обязывать разработчиков поисковых систем раскрывать информацию об их проприетарных алгоритмах, и предлагает вместо этого требовать от них (а) раскрывать свою политику пользователям и (б) следовать политике настолько строго, насколько возможно (Elgesem 2008: 241). Мы завершаем раздел указанием на то, что разработчиков поисковых систем продолжают критиковать за ненадлежащее в плане социальной ответственности исполнение «роли стража». При этом, по словам критиков, они утаивают проприетарные алгоритмы и защищают

интересы своих акционеров, перед которыми имеют юридические и моральные обязательства. 3.5.2 

Юридическая свобода, онлайн-контент и «право на стирание» в цифровую эпоху 

Следует ли полагать, будто компании-разработчики подотчетны за то, что направляют пользователей, даже если и ненамеренно, к веб-сайтам, чей контент является или нелегальным, или морально спорным, или тем и другим сразу? Мы должны отметить, что американские компании, в том числе Google, утверждают, что они обеспечивают лишь сервис и, таким образом, не являются «провайдерами контента» (см., напр., «Докладную записку о постановлении на „право на забвение“» Европейской комиссии).

Эти компании убеждены, что было бы безосновательным считать их ответственными за содержание сайтов, которые они лишь идентифицируют или ссылки на которые они выдают в перечне результатов поиска. Они также верно указывают, что в США провайдеры онлайн-сервисов — включая Verizon и Comcast — не подлежат юридической ответственности за доступный через их сервисы онлайн-контент при том, что они соглашаются с официальными юридическими требованиями удалить контент, который явным образом нарушает законы США. Точно так же компании-разработчики убеждены, что если они последуют официальным юридическим требованиям «деиндексировать» или удалить ссылки на сайты, которые намеренно или непреднамеренно нарушают законы США — то есть закон об авторском праве, запрет на детскую порнографию и т.д., — то их также не следует считать юридически ответственными за любой контент, который пользователи находят благодаря их сервисам. Однако многие американские компании работают также за рубежом, где законы и регулирующие схемы отличаются от американских (как мы видели в примере с Google в Китае). Стоит отметить, что в Европе разработчики поисковых систем считаются «контролерами персональных данных» — в противоположность простым провайдерам услуг. Как таковые эти кампании, равно как и интернет-провайдеры, работающие в странах ЕС, могут считаться ответственными за контент, доступный через их серверы. Это главное различие между тем, как разработчики поисковых систем рассматриваются в США и Европе, вышло на первый план в современных дискуссиях о том, могут ли пользователи обладать правом на забвение (которое позже стали именовать правом на стирание).

Чем в точности является право на забвение (ПНЗ) и почему оно столь спорно с точки зрения подотчетности разработчиков поисковых систем? Дискуссии о ПНЗ берут начало в 2010 году, когда Марио Гонсалес потребовал от Google убрать ссылку, которую поисковик выдает в ответ на запрос «Марио Гонсалес». Она вела на статью в испанской газете «La Vanguardia», посвященную изъятию дома за долги, которое случилось 16 годами ранее. Гонсалес, гражданин Испании, ходатайствовал в национальное агентство по защите данных с требованием убрать ссылку. Он утверждал, что информация о об изъятии дома за долги, которую Google все еще выдает при введении имени «Марио Гонсалес», более не «релевантна». Хотя испанский суд в 2010 году вынес решение в пользу Гонсалеса, многие критики не были уверены, что данному решению суда последуют и другие страны ЕС. Так, критики не были удивлены, когда Google подал апелляцию на постановление испанского суда.

По мере эскалации дебатов в Европе многие сторонники ПНЗ утверждали, что Директива ЕС о защите данных (95/46/EC), которая защищает права приватности всех граждан стран ЕС, содержит в себе косвенное одобрение ПНЗ. Например, они отмечают, что статья 12 («право доступа») гарантирует «исправление, стирание или блокирование данных, обработка которых не соответствует положениям Директивы, поскольку данная информация неточна» (см. «Докладную записку о постановлении на „право на забвение“» Европейской комиссии). Так, граждане стран ЕС уже имеют четко прописанное юридическое право на удаление/стирание из интернета неточной персональной информации о них или по меньшей мере удаление ссылки либо индекса из поисковиков. Некоторые сторонники ПНЗ также убеждены, что статья 12 предполагает в том числе право на стирание/удаление ссылки, содержащей персональную онлайн-информацию, которая больше не является релевантной.

Разработчики поисковых систем и другие оппоненты ПНЗ, включая издателей и журналистов, смотрят на ПНЗ из другой перспективы. Они утверждают, что ПНЗ будет цензурировать информацию, тем самым ограничивая свободу выражения, и снизит совокупное качество интернета ограничением количества онлайн-информации, доступной пользователям. Ввиду этих и других причин они заключили, что ПНЗ нанесет вред пользователям. Однако некоторые сторонники ПНЗ, включая Боттис (Bottis 2014: 2), предположили, что защита данных, связанных с ПНЗ, необходима именно потому, что она способна элиминировать ущерб — а именно «психологический ущерб» (вероятно, в ряде ситуаций даже физический), — который в противном случае может быть нанесен пользователям. Например, жертвы «порномести» будут иметь четко прописанное юридическое средство обоснования своего требования удалить/деиндексировать ссылки, которые связывают их имена с этими сомнительными сайтами.

В 2012 году Европейская комиссия (ЕК) предложила пересмотренную статью 17 о Регуляции защиты данных в Директиве ЕС, которая включала особые положения для удаления (т.е. «исправления, стирания или блокирования данных») более не релевантных персональных данных (равно как и «неточных», «неадекватных» или «излишних»). Европарламент одобрил рекомендации ЕК в 2013 году после внесения нескольких небольших правок в статью 17 и переименования ПНЗ в «право на стирание» (ПНС). Возможно, неудивительно, что пересмотренная регуляция ПНС была оспорена Google и другими корпорациями, работающими в Европе. Однако 13 мая 2014 года Суд Европейского союза (СЕС) оставил в силе решение испанского суда (2010) в деле Гонсалеса, также подтвердив статью 17 обновленной Директиве ЕС о защите данных. Постановление Высокого суда подтвердило, что граждане, проживающие в странах Евросоюза, в определенных обстоятельствах имеют право требовать от операторов поисковых систем удалить ссылки на некоторого типа персональную информацию о них, которая более «не релевантна». Однако СЕС также отметил, что ПНС не является абсолютным правом. Например, оно должно быть сообразовано с другими правами, включая «свободу выражения» (см. «Докладную записку о постановлении на „право на забвение“» Европейской комиссии).

Хотя Google анонсировал, что будет исполнять постановление СЕС, он также выразил обеспокоенность тем, что не сможет ответить на все требования пользователей на удаление/деиндексирование ссылок. Это было бы не только обременительной, но и, вероятно, практически невыполнимой задачей. Будет любопытно отметить, что между постановлением СЕС от мая 2014 года и постановлением от апреля 2016 года Google получил более 418 тыс. запросов (примерно 572 в день) на удаление ссылок (Scott 2016). Но является ли эта статистика сама по себе достаточной для отказа от ПНС или его аннулирования? Боттис указывает, что нам не нужно отзывать или отказываться выполнять законы, которые применяются в физическом пространстве, просто потому, что их исполнение не может элиминировать преступления вроде проституции, продажи наркотиков и т.д. Далее она отмечает, что в цифровом мире защита приватности и авторского права кажутся иногда невыполнимыми, но мы все еще предлагаем, вводим в действие и изо всех сил исполняем законы, устанавливающие эту защиту. Так что, согласно такой точке зрения, мы не можем оправдать отзыв ПНС просто на том основании, что его трудно реализовать.

В одном отношении дебаты о ПНС (ранее именуемые спорами о ПНЗ) покажутся сегодня схоластическими, по крайней мере в Европе, учитывая постановление СЕС от 2014 года. И все же новый спор — о праве на стирание — вытеснил исходные дебаты о том, (1) как ПНС должно применяться в Евросоюзе, особенно в свете того, что некоторые критики сочли инструкции, предоставленные Высшим судом вслед за решением от 2014 года, «неясными», и о том, (2) должно ли ПНС применяться повсеместно, чтобы быть эффективным. Относительно первого пункта Google и другие компании — разработчики поисковых систем убеждены, что СЕС не дал достаточно ясных и точных критериев для определения того, какие именно пользовательские запросы на удаление заслуживают серьезного рассмотрения, а какие нет. В связи с этим Google учредил экспертный совет, куда входил также философ Лучано Флориди; в его задачу входило установление «надлежащих» критериев, которым должны соответствовать директивы СЕС (Floridi 2014). Однако в настоящее время Google и другие компании все еще исследуют требования ПНС на индивидуальной основе (см. Floridi (forthcoming)). Подобного рода ad hoc схема, которую можно счесть произвольной, скорее всего, и далее будет предметом критики, покуда не будут приняты более систематизированные директивы по обработке пользовательских запросов.

Что касается второго пункта, многие защитники приватности утверждают, что в то время как ПНС применяется во всех странах Евросоюза, оно не может быть эффективным законом без (сильной) международной поддержки. Так, многие члены ЕС, равно как и те, кто занимаются регуляцией приватности в 28 странах ЕС, утверждали, что ПНС должно применяться за пределами ЕС для включения всей «поисковой империи» (Scot 2014). Хотя даже разработчики поисковых систем, ведущие бизнес в Европе, вынуждены следовать новому закону во всех странах ЕС, ПНЗ очень легко обойти в Европе и за ее пределами. Например, европейский пользователь, вбивающий на клавиатуре «Марио Гонсалес» в Google.com (или в неместных (европейских) версиях Bing, Yahoo, DuckDuckGo и т.д.), все еще находит ссылку на историю об изъятии дома в начале списка поисковых результатов, хотя пользователи Google.es (в Испании) или в других странах ЕС, таких как Германия (Google.de), не увидят эту ссылку. Таким образом, некоторые критики убеждены, что в цифровой эре универсальное или глобальное ПНС необходимо. Хотя Флориди (мы увидим это далее) признает, что глобальный подход был бы более «согласованным», он также верит, что он едва ли был бы возможен, поскольку многие страны, несомненно, не склонны принимать европейское постановление о ПНС в качестве международного стандарта. В свете этих и иных соображений многие критики убеждены, что для граждан стран ЕС существующая ныне политика «стирания» оказывается неэффективной в деле защиты данных.

Таким образом, как мы уже видели, настоящий закон о ПНЗ критиковался и компаниями-разработчиками, и защитниками приватности по многим причинам. Тем не менее Google и другие крупнейшие операторы поисковых систем, работающие в Европе, вынуждены следовать положениям статьи 17 Директивы ЕС о защите данных, даже если они все еще убеждены, что они лишь предоставляют «сервис» и, таким образом, не могут считаться «контролерами персональных данных». Также следует отметить, что настоящая Директива о защите данных (995/46/ЕС) будет заменена на более сильную регулирующую схему — Общий регламент по защите данных (ОРЗД), который был принят ЕС в апреле 2016 года и официально вступил в силу в мае 2018-го.

(Кибер)безопасность и интернет вещей: этические вопросы

Хотя мы описали широкий спектр этических вопросов, затрагивающих использование поисковых систем, равно как и вопросы об ответственности, с которыми сталкиваются компании-разработчики, наш анализ не претендует на всеохватность. Скорее, мы сосредотачивались на некоторых более «стандартных» или унаследованных этических вопросах, которые стали ассоциироваться с поисковыми системами в течение последних трех десятилетий. Одна из тем, которую мы пропустили или, вероятно, затронули лишь косвенно (в нашем более раннем обсуждении вопросов приватности в разделах 3.2 и 3.3), относится к этическим вопросам (кибер)безопасности поисковых систем. Кроме вопросов безопасности данных, которые тесно связаны с вопросами о приватности данных (которые мы обсуждали ранее), сегодня возникают вопросы, связанные с системной и сетевой безопасностью — наряду с вопросами национальной и международной безопасности — из-за появления новых видов поисковых систем, способных обнаруживать «вещи». В этом разделе мы кратко рассмотрим некоторые вызовы, возникающие в связи с безопасностью и порожденные использованием специфических поисковиков в контексте интернета вещей (ИВ).

Что такое ИВ и как он повлек за собой этические вопросы безопасности, затрагивающие поисковые системы? Интернетом вещей обычно называют сеть взаимосвязанных «объектов» в интернете. Этими объектами могут быть веб-камеры, принтеры и другие устройства, которые трудно идентифицировать и локализовать и к которым трудно получить доступ посредством конвенциональных поисковиков вроде Google. Так, пользователи могут предположить, что поскольку информация об этих вещах не будет доступна через интернет-поиск, объекты будут надежно защищены от сетевых хакеров. Многие пользователи могут быть очарованы теми удобствами, которыми могли бы воспользоваться, если «умные» объекты были бы объединены в сеть.

Рассмотрим, например, «умный дом», где объекты могут вступать друг с другом в коммуникацию и подключаться к мобильному телефону их владельца (и, вероятно, также напрямую сообщаться с подключенными к сети устройствами и приложениями, встроенными в автомобиль домовладельца).

С другой стороны, мы можем представить, что владелец этого дома был бы рад, если «умный» холодильник «коммуницировал» с ним по дороге домой, например, предупреждая, что у него закончилось молоко. Холодильник мог бы также напрямую коммуницировать с его смартфоном для активизации приложения, отображающего самые низкие цены на молоко в находящихся поблизости продуктовых магазинах. Но с другой, отрицательной стороны, эти объекты могут не иметь надежной сетевой защиты.

Таким образом, пользователи могут быть уязвимы перед взломом их устройств и кражей их персональной информации (которая передается при взаимодействии этих объектов), которую могут совершить неавторизированные пользователи и организации в случае, если поисковые системы будут действительно способны онаружить и локализовать их (недостаточно защищенные) объекты и устройства.

В то время как традиционные поисковые системы помогали пользователям находить онлайн-информацию об их именах и местах пребывания, коммерческих, правительственных и образовательных организациях и институтах и т.д. (посредством стандартного протокола, включающего HTTP-адреса и программный код HTML), некоторые поисковики сегодня также могут искать в интернете определенного вида «вещи» (или объекты). Два таких поисковика — Thingful и Shodan. Thingful описывает себя как «поисковую систему по обнаружению», которая предоставляет пользователям «уникальный географический индекс соединенных объектов по всему миру» (https://thingful.net/). Как таковой Thingful хвалится тем, что может предоставить индекс множества сетей ИВ и инфраструктур. Поскольку эти поисковики могут устанавливать географическое положение объектов и устройств, некоторые критики беспокоятся о том, что Thingful также сможет легко добраться до персональных данных, касающихся того, как пользователи взаимодействуют и коммуницируют с подключенными устройствами и объектами (как в случае с домовладельцем, общающимся со своими «интеллектуальными» объектами в умном доме).

Shodan, неоднозначный поисковик, созданный Джоном Матерли в 2009 году, позволяет пользователям находить особые (подключенные к интернету) компьютеры, устройства и системы (включая серверы и роутеры) с помощью размещенных повсюду серверов, которые постоянно индексируют интернет. Shodan называют «темным Google» и «самым жутким поисковиком из когда-либо созданных», поскольку его можно использовать для обнаружения важнейших компонентов национальной инфраструктуры и оборонных систем, включая «командные и контрольные системы атомных электростанций и ускоряющие частицы циклотроны» (Goldman 2013). Некоторые предположили, что Shodan использовался для нахождения и мониторинга ключевых компонентов иранской ядерной программы (Charette 2012). Это также привело к спекуляциям по поводу того, что Shodan помог осуществить (тайную) операцию «Олимпийские игры», предположительно проведенную США и Израилем для выведения из-под контроля иранских центрифуг — быстровращающихся машин по обогащению урана (O’Harrow 2012). В то время как некоторые авторы склонялись к утверждению, что страны вроде США и Израиля можно бы было оправдать за использования любых находящихся в их распоряжении киберсредств для остановки иранской ядерной программы, нам отчетливо видна темная сторона данной практики. То есть все это вполне могут делать и так называемые «государства-хулиганы» (или «страны-изгои») против «легитимных» государств.

Таким образом, похоже, что «поисковые системы по обнаружиению» вроде Shodan и Thingful ставят под угрозу не только неприкосновенность частной жизни и нашу безопасность, но и безопасность важнейших объектов инфраструктуры и оборонной системы. Было бы интересно посмотреть, будут ли эти относительно новые поисковики использоваться государствами и, возможно, даже террористическими группы в их будущих стратегиях и практиках, застрагивающих кибербезопасность, кибертерроризм и кибершпионаж.

Заключение

В настоящей статье мы рассмотрели возникновение разнообразных этических вопросов в период развития поисковых технологий, который в итоге привело к появлению современных «поисковых систем эпохи Web 2.0». Поисковые технологии сами развивались на протяжении более 50 лет, то есть из докомпьютерных технологий (таких как мемекс), позволявших ученым и профессиональным исследователям быстро находить важные сведения, они эволюционировали в интернет-технологии, помогающие обычным людям находить (и напрямую ссылаться на) нужные веб-сайты по множеству поисковых запросов, и в очень сложные технологии, которые в своей нынешней форме стали все более коммодифицированными и персонализированными, так что теперь их можно рассматривать как угрозу некоторым базовым свободам и демократическим идеалам.

Как отмечалось в первом разделе, в данной статье мы рассматривали этические вопросы главным образом в деонтологической перспективе, осмысляя вышедшие к настоящему времени работы по данной тематике. Однако наш анализ этических вопросов, окружающих поисковые технологии, никоим образом не претендует на то, чтобы быть исчерпывающим. Скорее, мы лишь размышляем над стандартным и «мейнстримным» подходом, до сих пор применяемым в прикладной этике и других областях при анализе спорных сторон поисковых систем. Можно легко представить, как будут формулироваться подобные вопросы внутри другой этической перспективы. Например, с точки зрения социальной справедливости можно вполне обоснованно поставить вопрос о том, несут ли кампании-разработчики поисковых систем в США и других странах моральное обязательство оказывать помощь в преодолении «информационного разрыва», предоставляя (посредством поисковых технологий) более легкий и широкий доступ к информации пользователям в развивающихся странах, особенно из не англоговорящих. С точки зрения утилитаризма и консеквенциализма можно было бы спросить, будут ли совокупные социальные последствия более благоприятны в случае, если пользователи поисковых систем могли бы легально приобретать некоторые виды проприетарной информации (проприетарную онлайн-информацию, касающуюся здоровья и исследований общественного здоровья, которые стали возможны благодаря финансированию налогоплательщиков) для частного пользования. Очень краткое описание исследований этических аспектов поисковых систем с точки зрения «прав», «справедливости», «общего блага» и «добродетели» см. Markkula Center for Applied Ethics (в разделе «Другие интернет ресурсы»).

Даже если вначале мы занимались определением и анализом этических вопросов, возникающих в связи с поисковыми системами, в заключении стоило бы вернуться к мысли, высказанной во введении — что поисковые технологии также затрагивают другие философские вопросы. Это особенно видно в эпистемологии, где некоторые критики выдвигают соображения, связанные с нашими понятиями природы и обоснования эпистемологических утверждений в сфере широкого использования поисковых систем и зависимости от них. Например, Хинман также утверждает, что поисковые системы «значительно способствуют социальному конструированию знания», то есть они не только дают доступ к знанию, но также все в большей степени «играют ключевую роль в конструировании знания как такового» (Hinman 2008: 75). Анализ этого утверждения, однако, равно как и других эпистемологических и (более широких) философских аспектов поисковых систем, находится за пределами рассмотрения настоящей статьи.

Библиография

Abbate, J., 1999. Inventing the Internet, Cambridge, MA: MIT Press.

Berners-Lee, T., 2010. “Long Live the Web: A Call for Continued Open Standards and Neutrality,” Scientific American, November. [available online].

Blanke, T., 2005. “Ethical Subjectification and Search Engines: Ethics Reconsidered,” International Review of Information Ethics, 3: 33–38.

Bottis, M., 2014. “Allow Me to Live the Good Life, Let Me Forget: Legal and Psychological Foundations of the Right to Be Forgotten and the New Developments in the European Union Laws,” in Well-Being, Flourishing, and ICTs: Proceedings of the Eleventh International Conference on Computer Ethics–Philosophical Enquiry, Menomonie, WI: INSEIT, Article 10.

Brey, P., 1998. “The Politics of Computer Systems and the Ethics of Design,” in Computer Ethics: Philosophical Enquiry, M. J. van den Hoven (ed.), Rotterdam, The Netherlands: Erasmus University Press, pp. 64–75.

–––, 2004. “Disclosive Computer Ethics,” in Readings in CyberEthics, 2nd edition, R. A. Spinello and H. T. Tavani (eds.), Sudbury, MA: Jones and Bartlett, pp. 55–66.

Brin, S. and Page, L., 1998. “The Anatomy of a Large-Scale Hypertextual Web Search Engine,” in Seventh International World-Wide Web Conference (WWW 7), Amsterdam: Elsevier.

Bush, V., 1945. “As We May Think,” Atlantic Monthly, July. [available online].

Carr, N., 2011. The Shallows: What the Internet is Doing to Our Brain, New York: Norton.

Chappell, B., 2016. “EU Charges Google with Antitrust Violations, Will Also Look at Android,” National Public Radio, April 15, available online.

Charette, R. N., 2012. “Gone Missing: The Public Policy Debate on Unleashing the Dogs of Cyberwar,” IEEE Spectrum, June 4. available online.

Chorost, M., 2011. World Wide Mind: The Coming Integration of Humanity, Machines, and the Internet, New York: Free Press.

Diaz, A., 2008. “Through the Google Goggles: Sociopolitical Bias in Search Engine Design,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 11–34.

Elgesem, D., 2008. “Search Engines and the Public Use of Reason,” Ethics and Information Technology, 10(4): 233–242.

European Commission, 2014, “Fact Sheet on ‘The Right to Be Forgotten’ Ruling C-131/12,”available online.

Floridi, L., 2014. “The Right to Be Forgotten—The Road Ahead,” The Guardian, October 8.available online.

–––, forthcoming. “The Right to Be Forgotten: A Philosophical View,” Annual Review of Law and Ethics.

Friedman, B., P. Kahn, and A. Borning, 2008. “Value Sensitive Design and Information Systems,” in The Handbook of Information and Computer Ethics, K. E. Himma and H. T. Tavani (eds.), Hoboken, NJ: John Wiley and Sons, pp. 69–101.

Friedman, B. and H. Nissenbaum, 1996 “Bias in Computer Systems,” ACM Transactions on Computer Systems, 14(3): 330–347.

Goldman, D., 2013. “Shodan: The Scariest Search Engine on the Internet,” CNN Money (The Cybercrime Economy), April 8. available online.

Goldman, E., 2008. “Search Engine Bias and the Demise of Search Engine Utopianism,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 121–134.

Halavais, A., 2009. Search Engine Society, Malden, MA: Polity.

Halpern, S., 2011. “Mind Control and the Internet,” New York Review of Books, June 23. [available online]

Himma, K. E., 2007. “Privacy vs. Security: Why Privacy is Not an Absolute Value or Right,” University of San Diego Law Review (Fourth Annual Editors’ Symposium), 45: 857–921.

Hinman, L. M., 2005. “Esse Est Indicato in Google: Ethical and Political Issues in Search Engines,” International Review of Information Ethics, 3: 19–25.

–––, 2008. “Searching Ethics: The Role of Search Engines in the Construction and Distribution of Knowledge,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 67–76.

Introna, L. and H. Nissenbaum, 2000. “Shaping the Web: Why The Politics of Search Engines Matters,” The Information Society, 16(3): 169–185.

Lessig, L., 2000. Code and Other Laws of Cyberspace, New York: Basic Books.

Levy, D. M., 2008. “Information Overload,” in The Handbook of Information and Computer Ethics, K. E. Himma and H. T. Tavani (eds.), Hoboken, NJ: John Wiley & Sons, pp. 497–515.

Markkula Center for Applied Ethics, 2016. “Unavoidable Ethical Questions about Search Engines,” Santa Clara University. available online.

Moor, J. H., 1997. “Towards a Theory of Privacy in the Information Age,” Computers and Society, 27(3): 27–32.

Morozov, E., 2011. “Your Own Facts,” New York Times Sunday Book Review, June 10. [available online]

Nagenborg, M. (ed.), 2005. The Ethics of Search Engines, Special Issue of International Review of Information Ethics, Vol. 3.

Nicas, J., 2011. “Google Roils Travel,” Wall Street Journal, 12/27. [available online].

Nissenbaum, H., 1997. “Toward an Approach to Privacy in Public: Challenges of Information Technology,” Ethics and Behavior, 7(3): 207–219.

–––, 1998. “Protecting Privacy in an Information Age,” Law and Philosophy, 17: 559–596.

–––, 2004. “Privacy as Contextual Integrity,” Washington Law Review, 79(1): 119–157.

–––, 2010. Privacy in Context: Technology, Policy, and the Integrity of Social Life, Palo Alto, CA: Stanford University Press.

O’Harrow, R., 2012. “Cyber Search Engine Shodan Exposes Industrial Control Systems to New Risks,” The Washington Post, June 3, available online.

O’Reilly, T., 2005. “What is Web 2.0? Design Patterns and Business Models for the Next Generation of Software,” O’Reilly Media, [available online].

Pariser, E., 2011. The Filter Bubble: What the Internet is Hiding from You, New York: Penguin.

Scott, M., 2014. “The Right to Be Forgotten Should Apply Worldwide, Panel Says,” New York Times, November 26. available online.

–––, 2016. “Europe Tried to Rein In Google. It Backfired,” New York Times, April 18, available online.

Spinello, R. A., 2011. CyberEthics: Morality and Law in Cyberspace, 4th edition, Sudbury, MA: Jones and Bartlett.

–––, 2012. “Google in China: Corporate Responsibility on a Censored Internet,” in Investigating Cyber Law and Cyber Ethics: Issues, Impacts, Practices, A. Dudley, J. Braman, and G. Vincenti (eds.), Hershey, PA: IGI Global, pp. 239–253.

Sunstein, C., 2001. Republic.com, Princeton, NJ: Princeton University Press.

Tavani, H. T., 1998. “Internet Search Engines and Personal Privacy,” in Computer Ethics: Philosophical Enquiry, M. J. van den Hoven (ed.), Rotterdam, The Netherlands: Erasmus University Press, pp. 214–223.

–––, 2005. “Search Engines, Personal Information, and the Problem of Protecting Privacy in Public,” International Review of Information Ethics, 3: 39–45.

–––, 2007. “Philosophical Theories of Privacy: Implications for an Adequate Online Privacy Policy,” Metaphilosophy, 38(1): 1–22.

–––, 2016. Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing, 5th edition, Hoboken, NJ: John Wiley and Sons.

Tavani, H. T. and F. S. Grodzinsky, 2002. “Cyberstalking, Personal Privacy, and Moral Responsibility,” Ethics and Information Technology, 4(2): 123–132.

Tavani, H. T. and J. H. Moor, 2001. “Privacy Protection, Control of Information, and Privacy-Enhancing Technologies,” Computers and Society, 31(1): 6–11.

Van Couvering, E., 2008. “The History of Internet Search Engines: Navigational Media,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 177–206.

Wall, A., 2011. “History of Search Engines: From 1945 to Google Today,” Atlantic Online, [available online].

Zimmer, M., 2008. “The Gaze of the Perfect Search Engine: Google as an Institution of Dataveillance,” in Web Search: Multidisciplinary Perspectives, A. Spink and M. Zimmer (eds.), Berlin: Springer-Verlag, pp. 77–99.

Другие интернет-ресурсы

Этика и политика поисковых систем, панельная дискуссия, спонсированная Markkula Center for Applied Ethics (Университет Санта-Клара) совместно с Center for Science, Technology, and Society (Университет Санта-Клара), 27 февраля 2006 года.

Неизбежные этические трудности, связанные с поисковыми системами, Markkula Center for Applied Ethics.

Поделиться статьей в социальных сетях: