входрегистрация
философытеорииконцепциидиспутыновое времяматематикафизика
Поделиться статьей в социальных сетях:

Этика интернет-исследований

Ссылка на оригинал: Stanford Encyclopedia of Philosophy

Впервые опубликовано 22 июня 2012 г.; существенно переработано 12 января 2021 г.

Практически не существует исследований, которые тем или иным образом не влияли бы на интернет или сами не подвергались его влиянию. Интернет – как исследовательское поле, инструмент и площадка – порождает и конкретные, и далеко идущие этические проблемы. Этика интернет-исследований — это субдисциплина, пересекающая многие другие области: начиная от социальных наук, искусств и гуманитарных наук, медицинских/биомедицинских наук и заканчивая естественными науками.

Существующие этические доктрины, включая консеквенциализм, деонтологию, этику добродетелии феминистскую этику, наложили свой отпечаток на то, как рассматриваются и оцениваются этические проблемы в интернет-исследованиях.

Концептуально и исторически этика интернет-исследований в наибольшей степени связана с компьютерной и информационной этикой и включает такие этические вопросы, как осведомленность и согласие участников, приватность данных, безопасность, анонимность и конфиденциальность, целостность данных, вопросы интеллектуальной собственности, а также общественные, дисциплинарные и профессиональные стандарты или нормы.

На протяжении всей эволюции интернета продолжались дебаты о том, являются ли возникающие этические дилеммы новыми или они похожи на дилеммы из других областей исследований (Elgesem 2002; Walther 2002; Ess & AoIR 2002; Marhkam & Buchanan 2012). Эти дебаты напоминают философские дебаты в области компьютерной и информационной этики. Например, много лет назад Джеймс Мур (Moor 1985) задался вопросом "что делает компьютеры уникальными", чтобы понять, есть ли в них в принципе нечто уникальное с этической точки зрения. Как бы то ни было, некоторые специалисты в сфере этики (van Heerden et al. 2020; Sloan et al. 2020) напоминают нам, что исследования должны руководствоваться этическими принципами вне зависимости от технологического вмешательства, а также подчеркивают, что "основополагающие принципы проведения этичных социальных исследований остаются теми же" (Ass & AoIR 2002; King 1996; Samuel and Buchanan, 2020).

Однако, поскольку интернет стал более социальным и коммуникативным инструментом и площадкой, этические вопросы перестали касаться только лишь данных, и фокус сместился на человека. Тем не менее, к онлайн-исследованиям могут быть неприменимы аналогии "на местности" или "лицом к лицу". Например, концепция общественного парка представляла интернет в качестве места, где исследователи могут наблюдать за другими людьми без явных этических разногласий, тогда как на деле в интернете понятия общественного и частного гораздо сложнее (SACHRP 2013). Таким образом, некоторые ученые предполагают, что специфика этики интернет-исследований требует новых нормативных и/или профессиональных и дисциплинарных рекомендаций. Именно в силу этих причин в основе данной статьи лежит концепция правил и регулирования исследований на людях; далее в статье обсуждаются этические и методологические сложности таких исследований, включая возможность идентификации личности, репутационный риск и вред, понятия публичного пространства и публичного текста, права собственности и долгого срока хранения данных применительно к интернет-исследованиям. В частности, появление соцсетей поднимает вопросы, связанные с практикой набора участников, многоуровневыми моделями информированного согласия и защитой различных форм и ожиданий касательно приватности в постоянно растущем мире повсеместных и рассредоточенных технологий. Дополнительные этические проблемы связаны с вопросами анонимности и конфиденциальности данных в пространстве, где исследователи и исследуемые могут не вполне понимать условия и устройство этих площадок или инструментов. Также они граничат с проблемами целостности данных, поскольку исследовательские проекты могут быть переданы на аутсорсинг или краудсорсинг на онлайн-рынках труда, – равно как затрагивают и вопросы юрисдикции, поскольку все больше исследований обрабатывается, хранится и распространяется через облачные вычисления или на удаленных серверах, что создает бесчисленные юридические сложности в силу локальных различий в законах о данных. Кроме того, распространение исследований больших данных превалирует во всех научных областях, а понятия " реальные данные" и проникающие вычисления (“real-world data” and pervasive computing) легко принимаются и используются во всех дисциплинах. Легкость доступа и возможность использовать большие массивы данных множеством способов позволили ИИ (искусственному интеллекту) и MУ (машинному обучению) стать стандартными инструментами для исследователей.

В результате исследователи, использующие интернет в качестве инструмента и/или пространства для проведения исследований, а также их исследовательские этические советы (ИЭС, IRB), – также известные как институциональные обзорные советы (ИОС) в США или комитеты по этике исследований человека (КЭЧ) в других странах, например, в Австралии, – столкнулись с рядом новых этических вопросов:

Каковы этические обязательства исследователей по отношению к защите частной жизни субъектов, участвующих в деятельности в "публичных" пространствах Интернета?

Что представляют собой такие публичные пространства?

Остаётся ли место для здравых ожиданий конфиденциальности в эпоху повсеместного и повсеместного наблюдения и отслеживания данных?

Как обеспечиваются конфиденциальность или анонимность в Интернете?

Как можно и нужно получать информированное согласие в Интернете?

Как следует проводить исследования на несовершеннолетних и как доказать, что испытуемый не является несовершеннолетним?

Является ли обман (притворство, сокрытие идентифицируемой информации и т.д.) допустимой нормой или вредом?

Как можно причинить "вред" человеку в онлайн-пространстве? Насколько легко распознать человека в больших массивах данных?

Применима ли защита прав человека к большим данным?

По мере того, как спонсируемых промышленностью исследований проводится все больше, какие этические меры защиты существуют помимо сегодняшних нормативных структур?

Какие глобальные последствия для приватности данных и прав личности будут иметь такие вступающие в силу законы, как Общий регламент ЕС по защите данных (GDPR 2016)?

Все большее число ученых исследуют перечисленные выше и сопряжённые вопросы (см., например, Bromseth 2002; Bruckman 2006; Buchanan 2004; Buchanan & Ess 2008; Johns, Chen & Hall 2003; Kitchin 2003, 2008; King 1996; Mann 2003; Markham & Baym 2008; McKee & Porter 2009; Thorseth 2003; Ess 2016; Zimmer & Kinder-Kurlanda (eds. ) 2017; Samuel & Buchanan, 2020), научные ассоциации разработали этические руководства для интернет-исследований (Ess & Association of Internet Researchers 2002; Markham, Buchanan, and AoIR 2012; Franzke et al, 2020; Kraut et al. 2004), а некоммерческие научные и исследовательские агентства, такие как AAAS (Frankel & Siang 1999), сталкиваются с огромным количеством этических проблем, которые интернет-исследования ставят перед исследователями и советами по этике исследований (СЭИ).

Более 50% населения мира пользуется интернетом, 97% населения планеты сегодня живет в пределах досягаемости сигнала сотовой связи, а 93% – в пределах досягаемости 3G (или мощнее) сети (по данным International Telecommunications Union, 2019). Учитывая это, продолжение изучения этических вопросов, связанных с исследованиями в столь наполненной технологическими посредниками среде, имеет решающее значение.

Определения

Общепринятое определение этики интернет-исследований ( Internet research ethics, IRE) было использовано Buchanan and Ess (2008, 2009), Buchanan (2011) и Ess & Association of Internet Researchers (AoIR) (2002):

Этика интернет-исследований (ЭИИ, IRE) – это анализ этических вопросов и применение принципов исследовательской этики в том виде, в каком они относятся к исследованиям, проводимым в интернете или посредством интернета. Интернет-исследования в широком смысле – исследования, где интернет используется для сбора информации с помощью онлайн-инструмента, такого как онлайн-опрос; исследования о том, как люди используют интернет, например, путем сбора данных и/или изучения деятельности в любой онлайн-среде; и/или использование массивов данных, баз данных или репозиториев.

Эти примеры были дополнены в 2013 году Совещательным комитетом Госсекретаря США при Отделе по защите человека как субъекта исследований (SACHRP 2013) и включены в общее понятие "интернет-исследований":

• Исследования, основывающиеся на информации, которая уже лежит в интернете или которую можно в нём собрать (сбор, майнинг, профилирование, парсинг, наблюдение или запись ранее существовавших массивов данных, взаимодействие в чате, блоге, публикации в социальных сетях и т.д.).

• Исследования, использующие интернет в качестве средства найма или взаимодействия, – прямого или косвенного, – с людьми (самопроверяющиеся сайты, инструменты опроса, Amazon Mechanical Turk и т.д.)

• Исследования самого интернета и его эффекта (паттерны использования или эффекты социальных сетей, поисковых систем, электронной почты и т.д.; эволюция проблем конфиденциальности; распространение информации и т.д.)

• Исследования пользователей интернета: что они делают и как интернет влияет на людей и их поведение. Исследования, использующие интернет как инструмент вмешательства: например, для вмешательств, влияющих на поведение людей

• Другие (недавно возникшие и кросс-платформенные виды исследований и методы, включая мобильные исследования)

• Рекрутинг в локальных сетях интернета (Internet locales) или через них, например, социальные сети, push-технологии‹1›

Критическим различием в определении этики интернет-исследований является различие между Интернетом как исследовательским инструментом и как местом проведения исследований. Это различие проявляется во многих дисциплинарных и методологических ориентировочных документах. В качестве инструмента интернет-исследования используются поисковые системы, агрегаторы данных, цифровые архивы, интерфейсы прикладного программирования (API), платформы онлайн-опросов и краудсорсинговые платформы. В свою очередь, интернет-исследовательские площадки включают в себя такие пространства, как приложения для общения (например, мгновенные сообщения и дискуссионные форумы), многопользовательские онлайн-игры, блоги и интерактивные веб-сайты, а также платформы социальных сетей.

Другой способ концептуализации различия между инструментом и местом проведения исходит от Китчина (Kitchin, 2008), описывающему данное различие в интернет-исследованиях с помощью концепций "вовлеченных веб-исследований" и "ненавязчивых (non-intrusive) веб-исследований":

Ненавязчивый анализ относится к методам сбора данных, которые не вмешиваются в естественное состояние сайта или киберсообщества и не встраиваются в предварительно созданный [в этих пространствах – прим. ред.] текст. И наоборот, вовлеченный анализ активно вмешивается в изучаемый сайт или в сообщество и, таким образом, вовлекает участников веб-источника (Kitchin 2008, 15).

Эти два понятия дают исследователям возможность определить, когда может возникнуть необходимость рассмотреть вопрос о защите изучаемых людей убъекта. Макки и Портер (McKee and Porter 2009), а также Бэнкс и Эбли (Banks and Eble 2007) предоставляют рекомендации относительно континуума исследований на людях (human-subjects research), отмечая различие между исследованиями с участием человека и исследованиями с использованием текста. Например, Макки и Портер приводят ряд параметров исследования (публичность/приватность, чувствительность темы, степень взаимодействия и уязвимость субъекта), которые полезны для определения того, в какой части континуума – текстовой или личностной – находится исследование и нужно ли согласие субъектов на проведение исследования (2009, 87–88).

Несмотря на то, что концептуально это полезно для определения участия людей как испытуемых, различие между инструментом / площадкой или вовлекающими / ненавязчивыми веб-исследованиями все больше размывается в свете социальных сетей и встроенных в них сторонних приложений. Бьюкенен (Buchanan 2016) концептуализировал три фазы или стадии интернет-исследований, а появление социальных сетей характеризует вторую фазу, примерно 2006–2014 годы. Концепция социальных сетей подразумевает

группу интернет-приложений, основанных на идеологическом и технологическом фундаменте Web 2.0, позволяющих создавать пользовательский контент и обмениваться им (Kaplan & Haenlein 2010: 61).

"Сайты соцсетей" – это категория веб-сайтов с профилями, полупостоянными публичными комментариями к профилю и общедоступной социальной сетью, отображаемой с точки зрения личного профиля.

Схлопывание различия между инструментом и местом проведения можно проследить прежде всего по растущему использованию сторонних сайтов и приложений, – таких как Facebook, Twitter или любой из бесчисленных онлайн-исследовательских инструментов, – где набор субъектов или участников, сбор данных, анализ данных и распространение данных могут происходить в одном и том же пространстве. С учетом этих разрушающихся границ условия "межведомственной координации" (Gilbert 2009, 3) оказываются внутренне сложны. Гилберт выступал подчёркнуто против условий использования или условий лицензионного соглашения с конечным пользователем в виртуальных мирах, отмечая, что такие соглашения часто "ошибочны", поскольку они опираются на законы и правила конкретного региона и пытаются обеспечить их соблюдение в среде, не основанной на месте. Тем не менее, сегодня исследователи часто используют инструменты агрегации данных, удаляя данные из профилей пользователей или журналов транзакций, собирая данные из потоков Twitter или храня данные на облачных серверах вроде Dropbox только после согласия с условиями обслуживания, которые сопровождают эти сайты. Использование таких сторонних приложений или инструментов меняет фундаментальные аспекты исследований, часто лишая исследователя или исследовательскую группу статуса единственного владельца полученных в исследовании данных. Эти уникальные черты соцсетей переплетают друг с другом концепции и практические аспекты конфиденциальности, согласия, собственности и границ юрисдикции.

Ключевой эпизод, который продемонстрировал и привлек внимание ко многим из этих проблем, произошёл в 2014 году в ходе исследования Facebook Emotional Contagion‹2› (Booth, 2014). Соглашались ли пользователи на участие в исследовательской деятельности, согласившись с условиями обслуживания Facebook? Должен ли был проводиться подробный доклад (debriefing) после эксперимента? Насколько тщательно университетский совет по научной этике проверил исследование? Должны ли спонсируемые промышленностью исследования проходить внутреннюю этическую экспертизу? В ответ на возмущение по поводу исследования «эмоционального заражения» Кристиан Раддер из “Ok Cupid” (2014 [OIR]) выступил в защиту подобных экспериментов, отметив:

Недавно мы заметили, что людям не нравится, когда Facebook "экспериментирует" с их лентой новостей. Даже FTC [Федеральная торговая комиссия США – прим.ред.] вмешалась в это дело. Но знаете что, ребята: если вы пользуетесь интернетом, то вы в любой момент времени становитесь объектом сотен экспериментов на каждом сайте. Так работают веб-сайты.

Феномен социальной сети вынуждает исследователей вести постоянные диалоги с источниками данных, как это стало видно на примере исследования «эмоционального заражения» через Facebook и последующей реакции на него. Более того, с ростом использования и концентрации мобильных устройств понятие интернет-исследования расширяется, переходя от "привязанного к месту" интернета к рассредоточенной реальности. Сбор данных с мобильных устройств увеличивается экспоненциально. Например, мобильные устройства позволяют использовать синхронный сбор и распространение данных из среды, не привязанной к месту. Исследователи, использующие облачные приложения, могут синхронно отправлять и получать данные от участников и обратно. Влияние таких возможностей на эпидемиологические исследования ошеломляет своим научным потенциалом и одновременно требует решения этических проблем, как мы видим на примере исследования COVID-19 на основе мобильных устройств (Drew et al., 2020), а также выборки текущего поведения и опыта испытуемых в режиме реального времени (Hubach et al., готовится к публикации). Поскольку интернет-исследования из нишевой методологии превратились в почти повсеместную и часто незаметную практику, традиционные концепции исследования человека требуют тщательного рассмотрения.

Исследования на людях

Практические, профессиональные и теоретические последствия защиты испытуемых людей широко освещаются в научной литературе, начиная от медицинских/биомедицинских исследований и заканчивая социальными науками, компьютерными и техническими дисциплинами (см. Beauchamp & Childress 2008; Emanual et al. 2003; PRIM&R et al. 2021; Sieber 1992; Wright 2006). Соответствующие меры защиты и нормативные акты продолжают получать большое внимание в связи с нарушениями этики исследований (см., например, Skloot 2010, о Генриетте Лакс; признание правительством США и извинения перед правительством Гватемалы за тестирование на ЗППП в 1940-х годах (BBC 2011); а также (Gaw & Burns 2011) о том, как уроки прошлого могут повлиять на нынешнюю исследовательскую этику и управление исследованиями).

История защиты испытуемых (Sparks 2002 [см. раздел Интернет-ресурсы]) выросла из зверств нацистских экспериментов над людьми во время Второй мировой войны, что привело к появлению Нюрнбергского кодекса (1947); затем – Хельсинкской декларации об этических принципах проведения медицинских исследований с участием людей в качестве субъектов (World Medical Association 1964/2008). Печально известен и эксперимент по сифилису Таскиги – клиническое исследование, проведенное между 1932 и 1972 годами Службой общественного здравоохранения США, изучавшее естественное прогрессирование нелеченного сифилиса у сельских афроамериканцев в Алабаме под видом получения бесплатной медицинской помощи от правительства. Частично в ответ на него, Министерство здравоохранения и социальных служб США выдвинуло набор основных правил, регулирующих защиту людей в качестве испытуемых (45 C.F.R. § 46) (см. ссылки в разделе "Интернет-ресурсы" в подразделе "Законы и правительственные документы"). Позже за этим последовала публикация "Этических принципов и руководств по защите человеческих субъектов исследований" Национальной комиссии по защите испытуемых в биомедицинских и поведенческих исследованиях, известной как Доклад Белмонта (Belmont Report, NCPHSBBR 1979). В докладе Белмонта определены три фундаментальных этических принципа для всех исследований на людях: Уважение к людям, Благодеяние и Справедливость.

Чтобы обеспечить согласованность действий федеральных агентств в специфическом для Соединенных Штатов контексте в области защиты прав человека, в 1991 году была кодифицирована Федеральная политика защиты прав человека, также известная как "Общее правило". Пересмотренное Общее правило было опубликовано в Федеральном реестре 19 января 2017 года и вступило в силу 19 июля 2018 года. Аналогичные нормативно-правовые базы для защиты человека существуют во всем мире и включают, например, Канадский трехсторонний совет; Австралийский исследовательский совет; Европейскую комиссию; Исследовательский совет Норвегии и его Национальный комитет по этике исследований в области социальных и гуманитарных наук (NESH 2006; NESH 2019); Национальную службу этики исследований Национальной системы здравоохранения Великобритании; Рамки исследовательской этики (REF) в составе Общего руководства Совета по экономическим и социальным исследованиям (ESRC); а также Форум комитетов по этической экспертизе в Азии и западной части Тихого океана (FERCAP).

В случае США различные регулирующие органы, подписавшие Общее правило (45 C.F.R. 46 Subpart A), не выпустили официального руководства по исследованиям в Интернете (см. ссылки в разделе "Интернет-ресурсы" в подразделе "Законы и правительственные документы"). В преамбуле к Пересмотренному Правилу упоминаются значительные изменения в исследовательской среде и признаётся необходимость расширения сферы действия Правила. Тем не менее, сколько-нибудь существенные изменения в самом Правиле в отношении исследований в интернете в самом широком контексте оказались минимальными.

Например, в преамбуле говорится:

Эта последняя версия правила признает, что за последние два десятилетия произошел сдвиг парадигмы в том, как проводятся исследования. Развивающиеся технологии, – включая визуализацию, мобильные технологии и рост вычислительной мощности, – изменили масштаб и характер информации, собираемой во многих дисциплинах. Учёные, работающие в области компьютерных наук, инженеры и социологи разрабатывают методы интеграции различных типов данных, чтобы их можно было комбинировать, добывать, анализировать и делиться ими. Появление сложных компьютерных программ, Интернета и мобильных технологий создало новые области исследовательской деятельности, особенно в области социальных и поведенческих наук (Federal Register 2017 и HHS 2017).

Небольшие изменения в определении испытуемых-людей включали замену "данных" на "информацию" и "биообразцы"; теперь это определение гласит:

(e)

• (1) Испытуемый (Human subject) — живое лицо, в отношении которого исследователь (будь то специалист или студент) проводит исследование:

o (i) Получает информацию или биообразцы путем вмешательства или взаимодействия с лицом и использует, изучает или анализирует информацию или биообразцы; или

o (ii) Получает, использует, изучает, анализирует или генерирует идентифицируемую личную информацию или идентифицируемые биообразцы.

• (2) Вмешательство подразумевает как физические процедуры, с помощью которых собирается информация или биообразцы (например, венепункция‹3› ), так и манипуляции с субъектом или его окружением, которые проводятся в исследовательских целях.

• (3) Взаимодействие подразумевает общение или межличностный контакт между исследователем и субъектом.

• (4) Личная информация включает информацию о поведении, которое происходит в контексте, в котором человек может обоснованно ожидать, что за ним не ведется наблюдение или запись, а также информацию, которая была предоставлена человеком для конкретных целей и относительно которой человек может обоснованно ожидать, что она не будет обнародована (например, медицинская карта).

• (5) Идентифицируемая личная информация — это личная информация, по которой личность субъекта легко устанавливается или может быть установлена исследователем, или установлена связь с этой информацией.

• (6) Идентифицируемые биообразцы — это биообразцы, по которым личность субъекта легко устанавливается или может быть установлена исследователем, или установлена связь с этими биообразцами (45 C.F.R. § 46.102 (2018)).

Однако в Пересмотренном Правиле есть положение, которое может иметь важное значение в отношении исследований в интернете. Правило призывает отвечающие за реализацию органы или агентства

[e) 7)]

• (i) После консультаций с компетентными экспертами (включая экспертов по сопоставлению данных и повторной идентификации) пересмотреть значение терминов "идентифицируемая личная информация", как определено в пункте (e)(5) настоящего раздела, и "идентифицируемый биообразец", как определено в пункте (e)(6) настоящего раздела. Такое повторное рассмотрение должно проводиться в течение 1 года и регулярно в дальнейшем (не реже одного раза в 4 года). Этот процесс будет осуществляться в сотрудничестве между федеральными департаментами и агентствами, реализующими данную политику. Если это уместно и разрешено законом, такие федеральные ведомства и агентства могут изменять толкование данных терминов, в том числе с помощью руководства.

• (II) После консультации с компетентными экспертами оценить, существуют ли аналитические технологии или методы, которые должны рассматриваться исследователями для получения "идентифицируемой личной информации", как определено в пункте (e)(5) данного раздела, или "идентифицируемого биообразца", как определено в пункте (e)(6) данного раздела. Эта оценка должна проводиться в течение 1 года и регулярно в дальнейшем (не реже одного раза в 4 года). Этот процесс будет осуществляться путем сотрудничества между федеральными департаментами и агентствами, реализующими данную политику. Любые такие технологии или методы будут включены в список технологий или методов, которые производят идентифицируемую частную информацию или идентифицируемые биообразцы. Этот список будет опубликован в Федеральном реестре после уведомления и предоставления возможности для комментариев общественности. Госсекретарю Департамента здравоохранения и социальных служб США надлежит вести этот список на общедоступном веб-сайте (45 C.F.R. § 46.102 (2018)).

На момент написания данной статьи‹4› еще не произошло пересмотра понятий "идентифицируемая личная информация" или "идентифицируемые биообразцы". Однако, поскольку аналитика данных, искусственный интеллект и машинное обучение продолжают раскрывать этические проблемы в исследованиях на человеке, мы ожидаем увидеть активные дискуссии на федеральном уровне и среди исследовательских сообществ (PRIM&R 2021). Эти дискуссии могут касаться предыдущих теоретических работ Карпентера и Диттриха (Carpenter and Dittrich 2012) и Эйкока (Aycock et al. 2012) в отношении риска и возможности идентификации. Вторичное использование идентифицируемых личных данных, например, может сулить ущерб для последующей деятельности или чревато непреднамеренными рисками, наносящими репутационный или информационный ущерб. Повторное использование "идентифицируемой личной информации" не может происходить без серьезного рассмотрения риска и "исследований, наносящих вред человеку". Карпентер и Диттрих (Carpenter and Dittrich 2012) призывают

"Экспертные советы должны перейти от анализа, основанного на информированном согласии, к анализу рисков, рассматривающих потенциальный вред от исследований, в которых исследователь не взаимодействует непосредственно с подверженными риску людьми" (стр. 4), поскольку "[Д]истанция между исследователем и пострадавшим человеком указывает на необходимость смены парадигмы на исследовательской сцене. Мы должны изменить наше представление о защите исследований, сместившись от "исследований на человеке" к "исследованиям, наносящим вред человеку‹5›" (стр. 14) .

Схожим образом Эйкок и коллеги (Aycock et al. 2012) утверждают, что

Исследователи и советы должны балансировать между рисками, связанными с конкретным исследованием, и рисками, связанными с используемыми технологиями. При проведении исследований в области компьютерной безопасности возникают серьезные вопросы, связанные с рисками, особенно для общества в целом. Риск может не казаться очевидным для отдельного человека, но в рамках исследований в области безопасности уязвимыми могут оказаться большие группы населения. Существует значительная трудность в количественной оценке рисков и выгод, в традиционном понимании исследовательской этики…

Совокупность собранных ботом моделей поведения при просмотре web-страниц в интернете представляет большую дистанцию между исследователем и респондентом, чем интервью, проведенное в виртуальном мире между аватарами.

Эта дистанция заставляет нас предположить, что исследования в области компьютерной безопасности в меньшей степени сосредоточены вокруг исследований на людях в традиционном смысле, а в большей степени вокруг исследований, наносящих вред человеку (стр. 3, курсив автора).

Эти два умозрительных понятия актуальны для рассмотрения возникающих форм идентичности или персонально идентифицируемой информации (ПИИ), таких как аватары, виртуальные существа, боты, текстовая и графическая информация. Согласно Кодексу федеральных правил (45 C.F.R. § 46.102(f) 2009): Новые формы репрезентаций считаются человеческими субъектами, если получена ПИИ о живых людях. ПИИ может быть получена исследователями путем обогащения данных (scraping) из источников, профилей или аватаров, или других фрагментов данных, предоставляемых платформой. Фэирфилд соглашается с этим: "Аватар, например, представляет собой не просто набор пикселей — он представляет собой личность пользователя" (2012: 701).

Многочисленные академические дисциплины, уже давно занимающиеся исследованиями на людях (медицина, социология, антропология, психология, коммуникация), разработали этические рекомендации, призванные помочь как исследователям, так и их коллегам, – отвечающим за обеспечение соответствия исследований на человеке юридическим требованиям и этическим нормам. Однако в интернете люди все чаще делятся личной информацией на платформах с пористыми и подвижными границами, распространение и агрегирование данных из разрозненных источников стало нормой, а веб-сервисы, их политики конфиденциальности и условия предоставления услуг быстро изменяются и развиваются. Поэтому в связанных с интернетом исследованиях этические рамки и предположения, традиционно используемые исследователями и СЭИ, часто подвергаются сомнению.

Сами советы по этике исследований все чаще сталкиваются с уникальными этическими аспектами протоколов исследований на основе Интернета. В опросе американских IRB (Независимых комитетов по этике), проведенном в 2008 году, менее половины советов по этической экспертизе указали, что исследования на базе Интернета являются "областью, вызывающей озабоченность или имеющей важное значение" на тот момент, и только у 6% имелись руководства или контрольные списки для рассмотрения протоколов исследований на базе Интернета (Buchanan & Ess 2009). К 2015 году 93% опрошенных IRB признали, что существуют этические проблемы, уникальные для исследований с использованием "онлайн-данных", однако только 55% заявили, что, по их мнению, их IRB хорошо разбираются в технических аспектах сбора онлайн-данных, и только 57% согласились с тем, что их IRB обладает достаточным опытом, чтобы быть в курсе изменений в онлайн-технологиях. В настоящее время IRB испытывают дополнительные трудности в связи с ростом исследований больших данных (см. §4.5 данной статьи ниже), которые все больше опираются на большие массивы данных личной информации, полученной через социальные сети, цифровые устройства или другими способами, часто скрытыми от пользователей. Исследование IRB, проведенное в 2019 году, показало, что только 25% опрошенных были готовы оценивать протоколы, основанные на больших данных, и только 6% имели инструменты, достаточные для рассмотрения этой новой области интернет-исследований (Zimmer & Chapman 2020). Кроме того, после озвучивания различных гипотетических сценариев исследований с использованием больших данных и вопроса, как IRB вашего учреждения будет рассматривать такой протокол, во многих случаях мнения респондентов сильно отличались. Рассмотрим следующий сценарий:

Исследователи планируют собрать публичные комментарии со страниц онлайн-изданий, чтобы предсказать результаты выборов. Они будут агрегировать результаты своего анализа для определения настроений в обществе. Исследователи не планируют информировать комментаторов и собирать потенциально идентифицируемые имена пользователей. Сбор (scraping) комментариев нарушает соглашение об условиях использования интернет-изданий.

18% респондентов указали, что их IRB рассматривают этот сценарий как свободный от ответственности, 21% — проанализируют в режиме ускоренного рассмотрение, 33% — что необходимо рассмотрение полным советом, а 28% не считают, что это вообще исследование на людях, которое подпадает под компетенцию их IRB (Zimmer & Chapman 2020). Полученные результаты указывают на потенциальные пробелы и несоответствия в том, как IRB рассматривают этические последствия протоколов исследований больших данных.

История и развитие этики интернет-исследований как дисциплины

С 1990-х годов было наработано огромное количество литературы об использовании интернета в рамках исследований (Jones 1999; Hunsinger, Klastrup and Allen 2010; Consalvo and Ess 2010), в фокусе которой все чаще оказываются этические аспекты интернет-исследования.

Стремительный рост числа интернет-исследований и очевидной обеспокоенности сопутствующими этическими вопросами начался в середине 1990-х годов. В 1996 году Сторм Кинг отметил все более и более широкое использование интернета как площадки для исследований. В своей работе он рассматривал рекомендации Американской психологической ассоциации в отношении исследований на испытуемых людях с применением возникающих форм электронной почты, чатов, списков рассылки и виртуальных сообществ. Уделив особое внимание риску и пользе, приносимой испытуемым, Кинг предупредил о следующем:

Когда область исследований нова, тонкости сопутствующих этических моментов еще не выявлены. По мере того как область развивается и накапливаются результаты, исследователи часто пересматривают ранние наблюдения, которые становятся причиной для беспокойства из-за очевидного неуважения к привлекаемым испытуемым (King 1996: 119).

Выпуск «Информационного общества» (Information Society, 1996) посвященный интернет-исследованиям, считается переломным моментом. В журнале были опубликованы основополагающие исследования, которые и по сей день не утратили значимость и актуальность (Allen 1996; Boehlefeld 1996; Reid 1996).

Шерри Текл в книге «Жизнь на экране: идентичность в век интернета» (Life on the Screen: Identity in the Age of the Internet, Turkle 1997) обратила внимание на человеческий элемент в среде онлайн-игр. Придя непосредственно к идее противопоставления исследования, ориентированного на человека, и исследования, опирающегося на тексты, Текл заставила исследователей рассмотреть последствия интернет-исследования для привлекаемых участников. Подобным образом Маркем в работе «Жизнь онлайн: исследование реального опыта в виртуальном пространстве» (Life Online: Researching Real Experience in Virtual Space, Markham 1998) подчеркнула методологические трудности этнографических онлайн-исследований. К тем же результатам пришел Джейкобсон в методологическом изучении интернет-исследования (Jacobson 1999). «Область» исследования изменила динамику ролей исследователя и исследуемого, идентичности и репрезентации участников виртуальных миров. Работа Маркем по изучению качественного онлайн-исследования оказала огромное влияние на многие дисциплины — сфера ухода за больными, психология и медицина увидели потенциал в применении данной парадигмы к онлайн-исследованиям (Flicker et al. 2004, Esyenbach and Till 2001, Seaboldt and Kupier 1997, Sharf 1996).

Затем, в 1999 году, Американская ассоциация содействия развитию науки (AAAS) по контракту с Управлением США по защите от исследовательских рисков (сейчас известным как Отдел по защите человека как субъекта исследований) созвала семинар с целью оценки соответствия традиционных концепций этики интернет-исследований. На семинаре было признано, что

Огромный объем социальной и поведенческой информации, потенциально доступной в интернете, сделал его главной целью для исследователей, желающих изучить динамику человеческих взаимодействий и их эффектов в этой виртуальной среде. Исследователи потенциально могут собирать данные от широко рассредоточенных групп населения при относительно низкой стоимости и за меньшее время, чем аналогичные усилия в физическом мире. В результате увеличилось количество исследований в интернете, начиная от опросов и заканчивая натуралистическими наблюдениями (Frankel & Siang 1999: 1).

В медицинском/биомедицинском контексте исследования в интернете развиваются быстрыми темпами. Также в 1999 году Гюнтер Эйзенбах (Gunther Eysenbach) написал первую редакционную статью для недавно созданного журнала Journal of Medical Internet Research. К созданию журнала привели три движущие силы, и Эйзенбах обратил внимание на растущие социальные и межличностные аспекты интернета:

Во-первых, интернет-протоколы используются для получения клинической информации и связи. В будущем интернет-технологии станут платформой для многих телемедицинских приложений.

Во-вторых, интернет революционизирует сбор, доступ и распространение неклинической информации в медицине: библиографические и фактологические базы данных теперь доступны во всем мире через графические пользовательские интерфейсы, эпидемиологическая информация и информация об общественном здравоохранении может быть собрана с помощью интернета, и все чаще и чаще интернет используется для интерактивных приложений медицинского образования.

В-третьих, интернет играет важную роль для санитарного просвещения потребителей, укрепления здоровья и телепрофилактики. (В качестве отступления следует подчеркнуть, что "санитарное просвещение" в интернете выходит за рамки традиционной модели санитарного просвещения, когда медицинский работник обучает пациента: в интернете большая часть "санитарного просвещения" осуществляется "от потребителя-к-потребителю" с помощью групп взаимопомощи пациентов, организуемых в киберпространстве. Эти обмены между пациентами становятся важной частью здравоохранения и пересматривают традиционную модель превентивной медицины и укрепления здоровья).

В связи с растущим вниманием ученых и с докладом AAAS 1999 года (Frankel & Siang 1999), призывающим к действиям, другие профессиональные ассоциации обратили внимание и начали разрабатывать заявления, руководства или дополнения к своим существующим профессиональным стандартам. Например, Совет по научным вопросам ( Board of Scientific Affairs, BSA) Американской психологической ассоциации в 2001 году создал Консультативную группу по проведению исследований в Интернете; Американская ассоциация консультантов в 2005 году пересмотрела свой Этический кодекс; Ассоциация исследователей Интернета ( Association of Internet Researchers, AoIR) разработала Руководство этической рабочей группы; норвежский Национальный комитет по этике исследований в социальных и гуманитарных науках (NESH Norway) и другие организации направили внимание исследователей и экспертных советов на этику интернет-исследований, обращая внимание на наиболее распространенные области этических проблем (ссылки см. в разделе "Интернет-ресурсы").

В то время как многие исследователи ориентируются на традиционные принципы исследовательской этики, концептуализация этики исследований в интернете зависит от дисциплинарных перспектив. Представители некоторых дисциплин, – в частности, гуманитарных наук, – утверждают, что исследования в интернете больше связаны с контекстом и репрезентацией, чем с "человеческими субъектами"; они предполагают, что, в отсутствие намерения минимален или отсутствует вред от участия в исследованиях насчёт реальных людей. Дебаты об этом продолжаются с начала 2000-х годов. Уайт (White 2002) выступила против существующих норм, которые благоприятствуют или выделяют конкретные идеологические, дисциплинарные и культурные прерогативы, что ограничивает свободу и творчество в исследованиях в области искусства и гуманитарных наук. Например, она отмечает, что в отчете AAAS "физические лица смешиваются с созданными материалами, а люди — с составными культурными произведениями", вновь обращая внимание на разрыв между человеком и текстом, который пронизывает дебаты по этике исследований в интернете. Другой пример дисциплинарных различий приводит Ассоциация устной истории, которая признала растущее использование интернета в качестве места для исследований:

Говоря по-простому, устная история собирает воспоминания и личные комментарии, имеющие историческое значение, с помощью записанных интервью. Устное историческое интервью обычно требует хорошо подготовленного интервьюера, допрашивающего интервьюируемого и записывающего их взаимодействие в аудио- или видеоформате. Записи интервью расшифровываются, обобщаются или индексируются, а затем помещаются в библиотеку или архив. Эти интервью могут быть использованы для исследования или использованы в публикации, радио- или видеодокументальном фильме, музейной выставке, инсценировке или другой форме публичного представления. Записи, стенограммы, каталоги, фотографии и связанные с ними документальные материалы также могут быть размещены в интернете (Ritchie 2003: 19).

Хотя Американская историческая ассоциация (A. Jones 2008) утверждает, что такие исследования должны быть "явно освобождены" от надзора этического совета, использование интернета может усложнить подобную позицию. Если такие данные станут доступны в публичных местах или "на последующих этапах" (“downstream”) с потенциальными и непредсказуемыми рисками для репутации, экономического положения или психологического вреда в случае идентификации интервьюируемого.

Согласно концепции текста, а не испытуемых, исследования в интернете опираются на аргументы о публикации и авторском праве. Рассмотрим в качестве места проведения исследования блог, который не соответствует определению человека как субъекта в 45 C.F.R. § 46.102f (2009), как его интерпретирует большинство этических советов. Исследователю не нужно получать согласие на использование текста из блога, поскольку он обычно считается общедоступным, текстовым, опубликованным материалом. Этот аргумент опирается на аналогию с "общественным парком", общепринятую исследователями, и он подходит для некоторых интернет-площадок и инструментов, но не для всех. Так, контекст, намерение, чувствительность данных и ожидания участников Интернета были определены в 2004 году Свенингссоном как решающие ориентиры в соображениях относительно этики интернет-исследований.

К середине 2000-х годов, когда были опубликованы три крупные антологии, а база публикация продолжала расти, появилось достаточно научной литературы, документирующей IRE по различным дисциплинам и методологиям, а затем появились данные о конкретных случаях, полученные от оценивающих такие исследования экспертных советов.

В поисках эмпирических данных о том, как на деле происходят процессы рассмотрения интернет-исследований с точки зрения изучения человека, Бьюкенен и Эсс опросили более 700 этических советов США и выяснили, что советы в первую очередь озабочены вопросами приватности, безопасности данных и конфиденциальности, а также обеспечением надлежащего информированного согласия и процедур набора участников (Buchanan & Ess 2009; Buchanan & Hvizdak 2009).

В 2008 году был созван специальный рабочий комитет Канадского трехстороннего совета по этике исследований в области социальных и гуманитарных наук: Рабочий комитет Межведомственной консультативной группы по этике исследований (Blackstone et al. 2008); а в 2010 году на встрече Совещательного комитета Госсекретаря США при Отделе по защите человека как субъекта исследований особое внимание было уделено интернет-исследованиям (SACHRP 2010). Такие известные профессиональные организации, как Общественная ответственность в медицине и исследованиях (PRIM&R) и Американская ассоциация образовательных исследований (AERA), начали регулярно освещать этику интернет-исследований на своих конференциях и в соответствующих публикациях.

В последнее время дисциплины, которые традиционно не занимаются исследованиями на людях, начали свои собственные исследования в области IRE. Например, исследователи компьютерной безопасности активно изучают принципы исследовательской этики в компьютерных науках и ИКТ (Aycock et al. 2012; Dittrich, Bailey, & Dietrich 2011; Carpenter & Dittrich 2012; Buchanan et al. 2011).

В частности, в декабре 2011 года Федеральный реестр США запросил комментарии к "Отчету Менло", который призывает исследователей в области компьютерных наук соблюдать три принципа: уважение к человеку, благодеяние и справедливость, а также добавить четвертый принцип — уважение закона и общественных интересов (Homeland Security 2011). SIGCHI, международное общество для профессионалов, ученых и студентов, интересующихся человеко-машинным взаимодействием (HCI), уделяет все больше внимания тому, как IRE применяется к работе в их области (Frauenberger et al. 2017; Fiesler et al. 2018).

Ключевые этические проблемы интернет-исследований

Приватность

Принципы исследовательской этики утверждают, что исследователи должны обеспечить наличие адекватных мер предосторожности для защиты частной жизни субъектов исследования и сохранения конфиденциальности любых собранных данных. Нарушение неприкосновенности частной жизни или конфиденциальности представляет собой риск причинения серьезного вреда участникам, начиная от раскрытия личной или чувствительной информации, разглашения постыдного или незаконного поведения или разглашения данных, охраняемых иным образом в соответствии с законом.

Обеспокоенность исследовательской этики в отношении частной жизни часто зависит от степени возможной привязки данных к отдельным лицам, а также касается потенциального вреда от раскрытия информации. С ростом сложности и вычислительной сложности интернет-исследований, этические проблемы сфокусировались на текущем и будущем использовании данных, а также на потенциальном последующем вреде, который может произойти. Защита частной жизни и конфиденциальности участников исследований обычно достигается сочетанием исследовательских тактик и практик, включая сбор данных в контролируемой или анонимной среде, очистку данных для удаления персонально идентифицируемой информации (ПИИ) или использование ограничений доступа и соответствующих методов защиты данных.

Кроме того, специфика и характеристики данных часто определяют наличие нормативных соображений в дополнение к методологическим соображениям, касающимся неприкосновенности частной жизни и конфиденциальности. Например, персонально идентифицируемая информация (ПИИ) обычно требует наиболее строгих мер защиты. Так, Национальный институт здравоохранения (NIH) даёт следующее определение ПИИ:

любая информация о человеке, хранящаяся учреждением, включая, но не ограничиваясь: сведения об образовании, финансовых операциях, истории болезни, криминальной истории или истории трудоустройства, а также информация, которая может быть использована для идентификации или отслеживания личности человека, например, его имя, ИНН, дата и место рождения, девичья фамилия матери, биометрические записи и т.д., включая любую другую личную информацию, которая связана или может быть связана с человеком (NIH 2010).

Как правило, данные, позволяющих идентифицировать человека, включают личные характеристики (такие как дата рождения, место рождения, девичья фамилия матери, пол, сексуальная ориентация и другие отличительные особенности и биометрические данные, такие как рост, вес, внешность, отпечатки пальцев, ДНК и сканирование сетчатки глаза), уникальные номера или идентификаторы, присвоенные человеку (такие как имя, адрес, номер телефона, номер социального страхования, номер водительских прав, номера финансовых счетов), и описания физического местоположения (данные журнала GIS/GPS, информация мониторинга электронных браслетов).

Общий регламент ЕС по защите данных 2018 года устанавливает правовые и нормативные требования к использованию данных на территории ЕС. Некоторые исследователи (Mondschein & Monda 2018) подробно изучают различные типы данных, которые рассматриваются в Общем регламенте ЕС: Персональные данные (такие как имена, идентификационные номера, данные о местоположении и т.д.); Специальные категории персональных данных (такие как расовое или этическое происхождение, политические взгляды или религиозные убеждения); Псевдонимные данные (относящиеся к данным, которые были изменены таким образом, что субъект не может быть непосредственно идентифицирован без наличия дополнительной информации); Анонимные данные (информация, которая не относится к идентифицируемому физическому лицу или к персональным данным, обезличенным таким образом, что субъект данных не идентифицируется или не может быть идентифицирован в дальнейшем). Мондщейн и Монда также советуют исследователям учитывать, что

вопросы защиты данных на ранней стадии исследования имеют большое значение,– особенно в контексте масштабных исследований, в которых используются персональные данные (2018: 56).

Интернет-исследования создают новые сложности для этих устоявшихся определений и нормативной базы, предназначенной для защиты частной жизни испытуемых. Например, исследователи все шире могут собирать подробные данные о лицах из таких источников, как Facebook, Twitter, блоги или публичные архивы электронной почты, и эти богатые массивы данных легче обрабатывать, сравнивать и объединять с другими данными (и массивами данных), доступными в Интернете. В многочисленных случаях как исследователи, так и представители широкой общественности смогли повторно идентифицировать людей; они анализировали и сравнивали подобные массивы данных, используя такие поля данных, как почтовый индекс (Sweeny 2002), случайные поисковые запросы в Интернете (Barbaro & Zeller 2006) или рейтинги фильмов (Narayanan & Shmatikov 2008) в качестве ключа для повторной идентификации предполагаемого анонимного пользователя.

До широкого распространения сбора и обработки данных в интернете мало кто посчитал бы рейтинг фильма или почтовый индекс персонально идентифицируемыми. Однако эти случаи показывают, что простого удаления традиционной "идентифицируемой" информации, – такой как имя, адрес или номер социального страхования, – уже недостаточно для того, чтобы данные оставались анонимными (Ohm 2010), и необходимо пересмотреть, что считать "персонально идентифицируемой информацией" (Schwartz & Solove 2011).

Это указывает на критическое различие между данными, которые остаются конфиденциальными, и данными, которые действительно анонимны. Все чаще данные редко оказываются полностью анонимными, поскольку исследователи регулярно демонстрируют, что могут с легкостью повторно идентифицировать людей, скрытых в "анонимизированных" массивах данных (Ohm 2010). Эти реалии заставляют по-новому взглянуть на обеспечение как минимум достаточной конфиденциальности массивов данных с помощью мер физической и вычислительной безопасности. Подобные меры могут также включать требования хранить данные в "чистых комнатах" или в несетевых средах, чтобы контролировать передачу данных.

Аналогичным образом, новые типы данных, часто собираемые в ходе интернет-исследований, также могут быть использованы для идентификации субъекта в ранее считавшимся анонимном массиве данных. Например, исследователи интернета могут собирать IP-адреса при проведении онлайн-опросов или анализе журналов транзакций. IP-адрес — это уникальный идентификатор, который присваивается каждому устройству, подключенному к интернету; в большинстве случаев уникальный IP-адрес присваивается отдельным компьютерам, а в некоторых случаях адрес присваивается более крупному узлу или интернет-шлюзу для совокупности компьютеров. Почти все веб-сайты и поставщики интернет-услуг хранят журналы активности, которые связывают активность с IP-адресами, во многих случаях, – с конкретными компьютерами или пользователями. Действующее законодательство США не считает IP-адреса персонально идентифицируемой информацией, в то время как другие страны и регулирующие органы считают иначе. Например, Европейский закон о конфиденциальности данных в статье 29 утверждает, что IP-адреса представляют собой ПИИ. Бьюкенен (Buchanan et al. 2011), впрочем, отмечает, что согласно Закону о гражданских правах США, для нужд закона‹6› HIPAA , IP-адреса считаются формой‹7› ПИИ (45 C.F.R. § 164.514 2002) . Возможно, другие федеральные регулирующие органы пересмотрят отношение к IP-адресам как к ПИИ, а исследователи и советы должны быть внимательны, если произойдут такие изменения.

Аналогичные сложности возникают, когда мы рассматриваем значение "частной информации" в контексте исследований, проводимых через Интернет. Федеральные правила США определяют "частную информацию" как:

Любая информация о поведении, которое происходит в контексте, в котором человек может разумно ожидать, что за ним не ведется наблюдение или запись, а также информация, которая была предоставлена человеком для конкретных целей и относительно которой человек может разумно ожидать, что она не будет обнародована (например, медицинская карта) (45 C.F.R. § 46.102(f) 2009).

Это стандартное определение "личной информации" состоит из двух ключевых компонентов. Во-первых, личная информация — это такая, которая, по здравому предположению субъектов, обычно не отслеживается и не собирается. Во-вторых, личная информация — это такая, которая, по здравому предположению субъектов обычно не является общедоступной. И наоборот, определение также предполагает обратное: если пользователи не могут обоснованно ожидать, что данные не наблюдаются или не записываются, или они не могут ожидать, что данные не будут публично доступны, тогда данные не поднимаются до уровня "личной информации", чья конфиденциальность требовала бы особой защиты. Исследователи и СЭИ регулярно работают с этим определением "личной информации", чтобы обеспечить защиту приватности людей.

Однако упомянутые различия приобретают больший вес при рассмотрении среды и методов сбора данных, характерных для исследований в интернете. Исследователи, заинтересованные в сборе или анализе действий испытуемых в онлайн-режиме – возможно, путем сбора журналов серверов, использования отслеживающих файлов cookie или сканирования профилей и лент социальных сетей – могут утверждать: у испытуемых нет разумных ожиданий, что такие действия в онлайн-режиме не подвергаются регулярному мониторингу (поскольку почти все онлайн-транзакции и взаимодействия регулярно регистрируются веб-сайтами и поставщиками услуг). Таким образом, следы данных в интернете могут не достигать уровня "личной информации".

Однако многочисленные исследования показали, что рядовые пользователи интернета имеют весьма неполное представление о том, что их действия регулярно отслеживаются, а также о соответствующей практике и политике конфиденциальности сайтов, которые они посещают (Hoofnagle & King 2008 [Интернет-ресурсы]; Milne & Culnan 2004; Tsai et al. 2006).

Хадсон и Брукман (Hudson and Bruckman 2005) провели эмпирическое исследование ожиданий и понимания пользователями конфиденциальности, обнаружив, что ожидания участников относительно конфиденциальности в публичных чатах противоречат тому, что последние на деле являются довольно публичным онлайн-пространством. Розенберг (Rosenberg 2010) рассмотрел различие между публичным и частным в сфере виртуальных миров, предположив, что, прежде, чем делать предположения о "публичности" информации, которой делятся онлайн-пространстве, исследователи сперва должны определить, какие социальные нормы и отношения там преобладают. Таким образом, остается неясным, действительно ли интернет-пользователи понимают, регулярно ли, – и в принципе когда – их онлайн-активность контролируется и отслеживается, а также какие разумные ожидания действительно существуют на её счёт. Эта двусмысленность создает новые проблемы для исследователей и СЭИ при попытке применить определение "личной информации", чтобы обеспечить надлежащее соблюдение конфиденциальности субъектов исследований (Zimmer 2010).

Сложность решения проблемы приватности испытуемых в интернет-исследованиях усугубляется развитием социальных сетей как местом для обмена информацией и площадок для исследований. Пользователи все чаще делятся все большим количеством личной информации на таких платформах, как Facebook или Twitter. Для исследователей платформы социальных сетей представляют собой богатый ресурс для изучения, большая часть контента которого доступна для просмотра и загрузки с минимальными усилиями. Поскольку большая часть размещенной на сайтах социальных сетей информации доступна для публичного просмотра, она не соответствует стандартному нормативному определению "личной информации".

Поэтому исследователи, пытающиеся собрать и проанализировать сообщения в социальных сетях, могут не рассматривать эти данные как требующие особых соображений конфиденциальности. Тем не менее, платформы социальных сетей представляют собой сложную среду социального взаимодействия, где пользователям часто приходится помещать друзей, возлюбленных, коллег и незначительных знакомых в одну единственную категорию "друзья", где политика конфиденциальности и условия предоставления услуг не до конца понятны (Madejski et al. 2011), а техническая инфраструктура не способна по-настоящему делать конфиденциальность пользователя чем-то прогнозируемым (Bonneau & Preibush 2010) и регулярно меняется с минимальными уведомлениями (Stone 2009 [Интернет-ресурсы]; Zimmer 2009 [Интернет-ресурсы]). В результате трудно точно определить намерения пользователя при размещении информации на платформе социальных сетей (Acquisti & Gross 2006). Возможно, пользователь готовил сообщение для закрытой группы, но не совсем понял, как настроить параметры конфиденциальности. Или же информация могла быть ранее доступна только определенным друзьям, но изменение технической платформы внезапно сделало данные более видимыми для всех.

Ом (Ohm 2010) предупреждает, что полезность и приватность данных связаны между собой, и до тех пор, пока данные хоть в малейшей степени полезны, они также потенциально могут быть повторно идентифицированы (2010: 1751).

С быстрым распространением проводимых в интернете исследований опасения Ома становятся еще более серьезными. Традиционные определения и подходы к пониманию природы приватности, анонимности и того, какая именно информация заслуживает защиты, становятся утрированными, заставляя исследователей и СЭИ создавать более детальные теории приватности (Nissenbaum 2009), а также подходы к уважению и прогнозируемости приватности испытуемых (Markham 2012; Zimmer 2010).

Набор участников

В зависимости от типа интернет-исследования набор участников может осуществляться различными способами. Как и в любой форме исследования, исследуемая популяция или участники отбираются для конкретных целей (например, этнографическое исследование определенной группы онлайн-игроков) или могут быть отобраны с помощью различных методов выборки (например, удобная вероятностная выборка из пользователей краудсорсинговой платформы Mechanical Turk компании Amazon ). В контексте США план набора участников считается частью процесса получения информированного согласия, поэтому любой сценарий набора или объявление должны быть рассмотрены и одобрены СЭИ до размещения или начала сбора заявок (если проект является исследованием на человеке). Кроме того, отбор участников должен быть беспристрастным и объективным, а любые риски и выгоды должны быть справедливо распределены. Эту концепцию сложно применить в контексте интернета, где группы населения часто выбираются самостоятельно и могут быть эксклюзивными, в зависимости от членства и статуса доступа, а также распространенных различий в доступе к интернету, основанных на экономических и социальных переменных. Исследователи также сталкиваются с проблемами поиска участников в связи с их потенциальной анонимностью, особенно в связи с частым использованием псевдонимов в сети, наличием нескольких или альтернативных личностей, а также с общими проблемами проверки возраста и демографической информации о субъекте. Более того, основные этические принципы привлечения и набора участников предполагают защиту их частной жизни и приватности. Интернет-исследования могут как максимально усилить эти меры защиты, – поскольку человек может остаться неизвестным за пределами отображаемого имени или аватара, – так и наоборот: использование IP-адресов, размещение cookies, наличие и доступ к большему количеству информации, чем необходимо для целей исследования, могут свести к минимуму защиту частной жизни и приватности.

Значительная часть набора происходит через социальные сети; примеры включают push-технологии — синхронный подход, при котором исследователь отправляет текст или твит потенциальным участникам на основе данных профиля, активности на платформе или геолокации. Другие методы привлечения участников с помощью pull-технологий включают связь напрямую по электронной почте, специальные веб-страницы, видеоролики на YouTube, прямое привлечение с помощью "стикеров", размещенных на форумах или веб-сайтах, направляющих участников на сайт исследования, или агрегацию данных или обогащение данных для потенциального привлечения. Независимо от используемых средств, исследователи должны следовать условиям сайта — от конкретных норм и нюансов, регулирующих сайт или локальную сеть, до юридически выверенных пунктов в соглашениях о предоставлении услуг. Например, ранние веб-сайты, посвященные поддержки анорексии (см. Overbeke 2008), часто рассматривались как чувствительные пространства, заслуживающие особого внимания, а исследователей просили уважать частную жизнь участников и не заниматься исследованиями (Walstrom 2004). В игровом контексте Рейнольдс и де Зварт (Reynolds and de Zwart 2010) задаются вопросом:

Обнародовал ли исследователь тот факт, что он или она участвует в исследовании и наблюдает/взаимодействует с другими игроками с целью сбора исследовательских данных? Как исследовательский проект влияет на сообщество и общую игру? Допустимо ли исследование в соответствии с условиями предоставления услуг?

Колвин и Лэниган (Colvin and Lanigan 2005: 38) предлагают исследователям

Прежде, чем размещать объявления о наборе, запросите разрешение у владельцев веб-сайтов и модераторов групп. Затем предварите объявление о наборе заявлением о полученном разрешении, указав контактное лицо и дату получения. Определите дату окончания (крайний срок) исследования и приложите все усилия, чтобы удалить объявления о наборе, которые часто оказываются встроенными в сообщения на веб-сайте.

Барратт и Лентон, среди прочих, согласны:

Вот почему очень важно налаживать партнерские отношения с модераторами онлайн-сообществ, не только спрашивая у них разрешения на размещение запроса, но и заручаясь их отзывами и поддержкой (2010: 71).

Мендельсон (Mendelson 2007), а также Смит и Лей (Smith and Leigh 1997) отмечают, что объявления о наборе участников должны содержать больше информации, чем обычные листовки или объявления, используемые в газетной рекламе. Упоминание об одобрении модераторов важно для установления подлинности, как и предоставление подробной информации об исследовании и о том, как связаться как с исследователями, так и с соответствующим советом по этике исследований.

Учитывая множество возможных методов набора респондентов, концепция "исследовательского спама" требует внимания. Совет американских опросных исследований предупреждает

Исследовательским организациям следует принять меры по ограничению количества приглашений на опрос, рассылаемых целевым респондентам по электронной почте или другими способами через интернет, чтобы избежать преследования и смещения ответов, вызванного повторным набором и участием определенного пула (или группы) субъектов данных (CASRO 2011: I.B.3).

В конечном счете, исследователи, подбирающие участников через интернет, должны убедиться, что потенциальные участники достаточно осведомлены как относительно информации о наборе, так и в отношении последующих документов о согласии. Исследователи должны следить за тем, чтобы методы набора не приводили к деанонимизации человека без его разрешения, – а, если таковая возможна, то насколько это рискованно?

Информированное согласие

Будучи краеугольным камнем защиты прав человека, информированное согласие означает, что участники добровольно участвуют в исследовании, имея достаточное представление о соответствующих рисках и выгодах.

Добровольное согласие обычно исходит из объяснения исследователем цели исследования, используемых методов, возможных результатов исследования, а также сопутствующих рисков или вреда, с которыми участники могут столкнуться.

Процесс включает в себя предоставление получателю четких и понятных объяснений этих вопросов в краткой форме, предоставление достаточной возможности рассмотреть их и поинтересоваться любым аспектом исследования до дачи согласия, а также обеспечение того, что субъект не был принужден к участию. Получение согласия в традиционных исследованиях обычно осуществляется в устной или письменной форме, либо при личной встрече, когда исследователь просматривает документ, либо с помощью телефонных сценариев, через документы, отправленные по почте, факсу или видео, а в случае уязвимых групп населения оно может быть получено с помощью адвоката. Самое главное, информированное согласие было построено на идеале "процесса" и проверки понимания, а потому требует постоянных коммуникативных отношений между исследователями и участниками исследований. Появление интернета одновременно как инструмента и как места проведения исследований поставило под сомнение этот традиционный подход к информированному согласию.

В большинстве нормативно-правовых систем существуют случаи, когда информированное согласие может быть отменено или стандартные процессы получения информированного согласия могут быть изменены, если они одобрены советом по этике исследований‹8› . Различные формы интернет-исследований требуют различных подходов к процессу получения согласия. В зависимости от места проведения исследования (например, онлайн-платформа для проведения опросов или частная группа в Facebook) были разработаны определенные стандарты. Однако исследователям рекомендуется рассмотреть возможность отказа от согласия и/или документации, если это целесообразно, используя гибкие возможности действующих нормативных актов.

Если требуется согласие, но совет по этическому надзору отказался от оформления документации, для предоставления информации о согласии можно использовать "портал". Например, исследователь может отправить участнику электронное письмо со ссылкой на отдельный портал или информационную страницу сайта, где содержится информация о проекте. Участник может ознакомиться с документацией и нажать на кнопку "Я согласен". Россер и коллеги (Rosser et al. 2010) рекомендуют использовать документ о согласии в виде "фрагментов", когда участники могут прочитать определенные разделы, согласиться, а затем продолжить заполнение формы согласия, пока не дойдут до места проведения исследования.

В дополнение к порталам исследователи часто используют карточки согласия или жетоны; это снимает опасения, что присутствие исследователя без предупреждения неприемлемо, или что присутствие исследователя вторгается в естественный поток и движение в данной локальной сети. Хадсон и Брукман (Hudson and Bruckman 2004, 2005) подчеркнули уникальные проблемы, связанные с получением согласия в чатах, а Лоусон (Lawson 2004) предлагает целый ряд возможностей получения согласия для синхронной, опосредованной компьютером коммуникации. Существуют различные практические проблемы в процессе получения согласия в интернет-исследованиях, учитывая текучесть и временную природу интернет-пространств.

Если требуется документальное подтверждение согласия, некоторые исследователи используют такие средства, как электронные подписи (которые могут выглядеть как простой электронный флажок, подтверждающий согласие с условиями), так и более надежные средства подтверждения с использованием зашифрованных цифровых подписей, хотя действительность электронных подписей зависит от юрисдикции.

Независимо от площадки, где проводится исследование, содержание документов о добровольном согласии со временем меняется. Хотя основные составляющие согласия остаются неизменными, сегодня исследователи с меньшей определенностью указывают сроки хранения данных, риски для приватности, конфиденциальности и анонимности (см. §4.1 Приватность), а также доступ к данным или право собственности на них. Участники исследований должны понимать, что их согласие на условия предоставления услуг или лицензионное соглашение с конечным пользователем отличается от их согласия на участие в исследованиях. Кроме того, исследователи должны учитывать и информировать участников/субъектов о потенциальном риске доступа третьих лиц к данным или незаконного присвоения данных, если они впоследствии станут публичными или доступными вне рамок первоначального исследования. Заявления должны быть пересмотрены с учетом таких реалий, как облачное хранение (см. §4.4 ниже) и совместное использование данных.

Например, Эйкок (Aycock et al. 2012: 141) описывает набор заявлений о безопасности и доступе, используемых в документах об информированном согласии:

• "Никто другой не будет иметь доступа к этим данным".

• "Анонимные идентификаторы будут использоваться во время сбора и анализа всех данных, а ссылка на идентификаторы субъекта будет храниться в безопасном месте".

• "Файлы данных, содержащие данные анализа амбулаторных карт и опросов, будут содержать только номера исследований, но не данные, позволяющие идентифицировать субъекта. Ключ, [связывающий] имя субъекта и эти идентификаторы исследования, будет храниться в закрытом файле".

• "Электронные данные будут храниться на защищенном паролем и безопасном компьютере, который будет находиться в закрытом офисе. Для защиты всех данных исследования, загруженных на портативные ноутбуки, флэш-накопители или другие носители информации, будет использоваться программное обеспечение "File Vault". Все данные будут закодированы... с использованием стандарта расширенного шифрования со 128-битным ключом (AES-128)".

Использование шифрования в последнем утверждении может быть необходимо в исследованиях, включающих приватные данные, например, медицинские, интимного характера, данные о здоровье, финансовые и так далее. Баррат и Лентон (Barratt and Lenton 2010) в своем исследовании употребления запрещенных наркотиков и поведения на онлайн-форумах также дают рекомендации по использованию безопасной передачи и шифрования в рамках процесса получения согласия.

В дополнение к информированию участников о потенциальных рисках и использованию технологических средств защиты, финансируемые NIH (в США) исследователи, чья работа включает проекты с личной, чувствительной информацией, автоматически выдают Сертификат Конфиденциальности (СК):

СК защищают конфиденциальность субъектов исследования, запрещая раскрывать личную, чувствительную информацию об исследовании любому лицу, не связанному с исследованием, за исключением случаев, когда субъект дает согласие или в некоторых других конкретных ситуациях (NIH 2017 [см. раздел Интернет-ресурсы]).

Однако они не защищают от разглашения данных за пределами США. Учитывая реальность самих интернет-исследований, которые по своей сути пересекают границы, могут потребоваться новые модели для обеспечения конфиденциальности данных и их защиты. Модели информированного согласия для традиционных международных исследований являются принципиально сложными из-за культурных особенностей и норм (Annas 2009; Boga et al. 2011; Krogstad et al. 2010); в случае интернет-исследований, когда исследователи могут не знать о конкретном местонахождении человека, к согласию предъявляются значительно более высокие требования. Хотя современные стандарты практики показывают, что модели согласия исходят из юрисдикции исследователя и спонсорского исследовательского учреждения, возникают сложности, связанные с проверкой возраста, совершеннолетия/согласия, сообщением о неблагоприятных последствиях или жалобах на процесс исследования, а также удостоверением личности. К процессу получения согласия имеют отношение различные локальные законы о конфиденциальности; полезным инструментом является "Тепловая карта приватности данных" компании Forrester, которая основывается на глубоком анализе законов и культур стран мира, связанных с конфиденциальностью данных, и помогает исследователям разработать соответствующие подходы к конфиденциальности и защите данных с учетом конкретного контекста (см. Интернет-ресурсы).

Кроме того, поскольку все больше федеральных агентств и финансирующих организаций по всему миру поощряют публичный доступ к данным исследований (например, NSF, NIH, Wellcome Trust, Research Councils U.K.), используемые в документах о согласии формулировки будут меняться соответствующим образом, чтобы соответствовать предполагаемой долговечности данных и возможностям их будущего, непредвиденного использования. Учитывая легкость, с которой данные в интернете могут перемещаться между интернет-площадками, могут произойти изменения в общей доступности данных (ранние "частные" беседы в группах новостей стали "общедоступными для поиска", когда Google купил DejaNews), а повторное использование и доступ сторонних лиц становятся все более возможными при использовании совместных массивов данных. В процессе получения согласия необходимо учитывать действующие мандаты на совместное использование данных. Согласование политики обмена данными и документа об информированном согласии является обязательным. Оба документа должны включать положения о надлежащей защите частной жизни, конфиденциальности, безопасности и интеллектуальной собственности.

В США существует общее соглашение, что для использования исследователями общедоступных данных, таких как публичные ленты Twitter, индивидуальное согласие не требуется. В 2002 году Национальный консультативный комитет по защите прав человека (NHRPAC) дал рекомендации относительно общедоступных массивов данных (см. Интернет-ресурсы). Обычно применяются соглашения об использовании данных или об ограничении данных, которые устанавливают параметры использования данных исследователями.

Архив данных Великобритании ( U.K. Data Archive 2011 [Интернет-ресурсы]) содержит руководство относительно согласия и обмена данными:

Когда исследование предполагает сбор данных людей, исследователи должны соблюдать строгие этические стандарты, рекомендованные профессиональными организациями, учреждениями и финансирующими организациями, как во время исследования, так и при обмене данными. Данные исследования — даже чувствительные и конфиденциальные данные — могут быть совместно использованы этичным и законным образом, если исследователи с самого начала исследования обращают внимание на три важных аспекта:

• при получении информированного согласия включать положение о совместном использовании данных

• при необходимости защищать личность людей путем анонимизации данных.

• рассмотреть возможность контроля доступа к данным

Эти меры должны рассматриваться совместно. Эти же меры являются частью надлежащей исследовательской практики и управления данными, даже если обмен данными не предусматривается. Данные, собранные от людей и о них, могут содержать личную, чувствительную или конфиденциальную информацию. Это не означает, что все данные, полученные в ходе исследований с участием участников, являются личными или конфиденциальными.

Обмен данными (data sharing) стал достоянием общественности в 2016 году, когда датский исследователь опубликовал массив данных, состоящий из скрейпинга данных почти 70 000 пользователей сайта знакомств OkCupid. Набор данных был в значительной степени повторно идентифицируемым и включал возможную личную информацию, в том числе имена пользователей, возраст, пол, географическое положение, тип интересующих их отношений (или сексуальных предпочтений), черты характера и ответы на тысячи профилирующих вопросов, используемых сайтом. Исследователь утверждал, что эти данные являются общедоступными, а потому их распространение и использование не вызывает никаких проблем. Циммер (Zimmer 2016) был в числе многих занимающихся вопросами конфиденциальности и этики ученых, которые подвергли критике эту позицию.

Датские исследователи не запрашивали никакой формы согласия или дебрифинга на сбор и использование данных, а также не проводили никакого этического мониторинга. Однако многие исследователи и этические советы пытаются смягчить некоторые из этих этических проблем за счёт включения в процесс получения согласия общих заявлений, указывающих на такие меры предосторожности для участников исследования. Например,

Я понимаю, что онлайн-коммуникации в большей степени подвержены риску взлома, кражи и других нарушений. Несмотря на эти возможности, я даю согласие на участие.

Более конкретный пример можно найти в Канаде, где исследователи предлагают использовать определенные размещенные в США инструменты онлайн-опроса; СЭИ обычно рекомендуют следующую формулировку для использования в документах о согласии:

Обратите внимание, что онлайн-опрос проводится компанией ABC, которая является расположенной в США компанией по проведению веб-опросов. Все ответы на вопросы опроса будут храниться и доступны в США. Эта компания подчиняется законам США, в частности, Патриотическому акту США/Акту о расширении внутренней безопасности, который позволяет властям получить доступ к записям о том, что ваши ответы на вопросы будут храниться и доступны в США. С политикой безопасности и конфиденциальности компании ABC можно ознакомиться на сайте‹9› http://.../

Исследователям также рекомендуется изучить условия использования и пользовательское соглашение используемого приложения, показав их детали СЭИ в приложении и сообщив участникам о таких деталях в форме добровольного согласия. Исследователям также рекомендуется учитывать более широкие контекстуальные аспекты используемого источника данных и цели исследования, оценивая возможные нарушения условий использования платформы (Fiesler, Beard, & Keegan 2020).

Несовершеннолетие и согласие

Исследования в интернете порождают особые проблемы, связанные с проверкой возраста, процедурами получения разрешения и согласия, а также соответствующими методологическими подходами к работе с несовершеннолетними. Возраст согласия различается в разных странах, штатах, сообществах и населенных пунктах. Для исследований, проводимых или поддерживаемых федеральными агентствами США, которые обязаны соблюдать Общее правило, детьми являются

лица, не достигшие установленного законом возраста для получения согласия [в США – 18 лет] на лечение или процедуры, участвующие в исследовании, в соответствии с действующим законодательством юрисдикции, в которой будет проводиться исследование (45 C.F.R. § 46.402(a) 2009).

Голдфарб (Goldfarb 2008) подробно рассматривает возраста совершеннолетия в штатах США, уделяя особое внимание клиническим исследованиям, отмечая, что дети должны быть старше семи лет, чтобы дать согласие на участие (см. 45 C.F.R. § 46 Subpart D 2009).

Исходя из австралийского контекста, Сприггс (Spriggs 2010) отмечает, что, хотя в Национальном заявлении нет официального руководства по проблемам интернет-исследований и несовершеннолетних, она советует:

• Согласие родителей может потребоваться, если информация является потенциально опознаваемой. Опознаваемая информация повышает риск для отдельных лиц и может означать, что согласие родителей предпочтительнее.

• Также необходимо учитывать, не ухудшит ли получение согласия родителей ситуацию, например, подвергнув риску подростка из неблагополучной семьи или приведя к раскрытию исследователю дополнительной идентифицирующей информации о личности и местонахождении подростка. Согласие родителей может "противоречить наилучшим интересам" ребенка или подростка, если оно не обеспечивает никакой защиты или ухудшает ситуацию (2010: 30).

Для помощи в процессе получения согласия можно использовать способы проверки возраста. Они могут варьироваться от более технических программ до менее формальных проверок знаний, встроенных в информационный лист или документ о согласии. Несколько точек подтверждения (запрос возраста, позже запрос года рождения и т.д.) являются практичными решениями для исследователей. В зависимости от типов данных, чувствительности данных, использования данных, исследователи и советы тщательно разрабатывают соответствующие варианты согласия, включая отказ от согласия, отказ от документации и/или отказ от родительского согласия.

Облачные вычисления и исследовательская этика

Последние разработки в области облачных вычислений открыли перед исследователями уникальные возможности и породили новые этические проблемы. Облачные вычисления дают доступ к вычислительным ресурсам через интернет, обеспечивая гибкие, масштабируемые и удаленные вычисления по требованию. В качестве примера можно привести веб-сервисы электронной почты и календаря, предоставляемые Google или Yahoo, онлайн-платформы для повышения производительности, такие как Google Docs или Microsoft Office 365, онлайн-платформы для хранения и обмена файлами, такие как Dropbox или Box.net, а также крупномасштабные платформы для разработки приложений и обработки данных, такие как Google Apps, Facebook Developers Platform и Amazon Web Services.

Наряду с предприятиями и потребителями, исследователи начали использовать платформы и услуги облачных вычислений для решения различных задач, включая набор участников, сбор и хранение данных, крупномасштабную обработку данных, а также общение и сотрудничество (Allan 2011 [Интернет-ресурсы]; X. Chen et al. 2010 [Интернет-ресурсы]); Simmhan et al. 2008; Simmhan et al. 2009).

По мере того, как исследователи все больше полагаются на облачные вычисления, растут и этические требования. Наибольшую озабоченность вызывает обеспечение приватности и безопасности данных при использовании облачных сервисов. Если исследователи обмениваются наборами данных в онлайн-режиме для совместной обработки и анализа, необходимо принять меры для обеспечения доступа исключительно уполномоченного персонала к данным, которые могут содержать ПИИ. Также дополнительные меры требуются для того, чтобы при передаче и хранении данных использовалось соответствующее шифрование, и чтобы поставщик облачных услуг поддерживал достаточный уровень безопасности для предотвращения нарушений. Кроме того, после загрузки данных исследования стороннему поставщику облачных услуг следует обратить внимание на условия обслуживания этого поставщика, чтобы определить, какой уровень доступа к данным, – если таковой имеется, – может быть разрешен рекламодателям, правоохранительным органам или другим внешним агентам.

Наряду с проблемами приватности и безопасности, исследователи также несут этическую ответственность за управление данными, которое становится сложнее, когда данные исследования помещаются в облако для хранения или обработки. Облачные провайдеры могут использовать центры обработки данных, расположенные по всему миру, что означает, что данные исследований могут находиться за пределами США и их правовой юрисдикции. Условия предоставления услуг могут давать поставщикам облачных услуг лицензию на доступ и использование данных исследования в целях, изначально не предусмотренных или не одобренных заинтересованными лицами. Управление может потребовать быстрого и полного уничтожения исследовательских данных, что может быть затруднено, если провайдер облачных услуг распределяет и создает резервные копии данных в разных местах.

Более уникальное применение облачных вычислений для исследований включает в себя краудсорсинг функций анализа и обработки данных, то есть использование тысяч пользователей различных онлайн-продуктов и услуг для удаленного выполнения задач, связанных с исследованиями. Примеры включают использование распределенной сети игроков в видеоигры для помощи в решении проблем сворачивания белков (Markoff 2010), а также использование платформы краудсорсингового рынка Mechanical Turk компании Amazon для помощи в крупномасштабной обработке данных и кодировании функций, которые невозможно автоматизировать (Conley & Tosti-Kharas 2014; J. Chen et al. 2011). Использование облачных платформ может вызвать различные критические этические и методологические вопросы.

Во-первых, при широком охвате исследовательских задач в рамках глобальной сети возникают новые проблемы, связанные с конфиденциальностью и безопасностью данных. Исследователи должны тщательно следить за тем, чтобы данные исследования, содержащие личную или конфиденциальную информацию, не были доступны третьим лицам, или чтобы никто из пользователей, занимающихся краудсорингом, не смог собрать и сохранить свою собственную копию набора данных исследования. Во-вторых, краудсорсинг создает этические проблемы, связанные с доверием и достоверностью самого процесса исследования. Вместо локальной команды научных ассистентов, обычно находящейся под наблюдением и контролем главного исследователя, краудсорсинг, как правило, распространяется за пределы прямого управления или контроля исследователя, предоставляя меньше возможностей для обеспечения достаточной подготовки для выполнения необходимых задач. Таким образом, исследователям необходимо будет создать дополнительные средства проверки результатов данных, чтобы подтвердить правильность и корректность выполнения заданий.

Две дополнительные этические проблемы, связанные с краудсорсингом, касаются управления трудовыми ресурсами и проблемы авторства. Прежде всего, пользователи Mechanical Turk изначально не были предназначены на роль исследуемых субъектов. Тем не менее, использующие Mechanical Turk исследователи должны убедиться, что работники на другом конце облака не подвергаются эксплуатации, что они имеют законное право работать по найму, и что предоставляемые стимулы реальны, весомы и уместны (Scholz 2008; Williams 2010 [Интернет-ресурсы]).

Наконец, в завершении опирающегося на краудсорсинг успешного исследовательского проекта исследователь может столкнуться со следующей этической проблемой: как корректно оценить вклад (обычно анонимных) работников. Этическое исследование требует честного и точного описания авторства. Дисциплины различаются в том, как сообщать об относительном вкладе, сделанном сотрудниками и ассистентами исследователя, и эта дилемма возрастает, когда для помощи в исследовательском проекте используется краудсорсинг‹10› .

Размышления о "больших данных"

Алгоритмическая обработка является следствием исследований в области больших данных, в связи с чем возникли новые этические вопросы. От "алгоритмического ущерба" до "предиктивной аналитики" — мощь современных алгоритмов выходит за рамки давно устоявшихся представлений и норм приватности. В частности, Национальный совет по науке и технологиям отмечает:

"Аналитические алгоритмы" как алгоритмы расстановки приоритетов, классификации, фильтрации и прогнозирования. Их использование может приводить к проблемам приватности, когда используемая алгоритмами информация неуместна или неточна, когда принимаются неверные решения, когда нет разумных средств их корректировки, когда самостоятельность человека напрямую связана с алгоритмической оценкой, или когда использование прогностических алгоритмов подавляет желаемое поведение или поощряет другие нарушения приватности". (NSTC 2016: 18).

Хотя концепция больших данных не нова и этот термин вошел в технический дискурс с 1990-х годов, общественное представление о них и реакция на исследования на их основе сформировались гораздо позже. Вслед за ростом исследований, основанных на социальных сетях, Бьюкенен (Buchanan 2016) обозначил время, когда появились основанные на "больших данных" исследования, границей от 2012 года и по настоящее время, без признаков их окончания в обозримом будущем.

Исследования больших данных представляют сложность для советов по этике, часто приводя к тому, что специалист по компьютерной этике Джеймс Мур назвал бы "концептуальной путаницей": неспособность правильно концептуализировать этические ценности и дилеммы, возникающие в новом технологическом контексте. Например, приватность субъекта обычно защищается в контексте исследовательской этики с помощью комбинации различных тактик и практик, включая сбор данных в контролируемой или анонимной среде, ограничение собранной личной информации, очистку данных для удаления или скрытия информации, идентифицирующей личность, и использование ограничений доступа и соответствующих методов защиты данных для предотвращения несанкционированного доступа и использования самих данных исследования. Однако в контексте исследований больших данных природа и понимание приватности становятся запутанными, в результате чего обеспечение ее соблюдения и защиты в этой новой области также становится сложной задачей.

Например, в контексте исследований больших данных труднее определить понятие "личной информации", что вызывает опасения по поводу приватности. Различия в нормативном определении "личной информации" — а именно, что оно применимо только к информации, которая, как разумно предполагают участники, обычно не отслеживается или не собирается и обычно не является общедоступной — становятся менее очевидными при рассмотрении среды и практики сбора данных, характерных для исследований больших данных, таких как массовый скрейпинг содержимого новостной ленты Facebook или публичных аккаунтов OKCupid.

При рассмотрении через призму нормативного определения "личной информации", публикации в социальных сетях часто считаются публичными, особенно когда пользователи не предпринимают никаких видимых, утвердительных шагов для ограничения доступа. В результате исследователи могут прийти к выводу, что участники не озабочены защитой своих данных. Однако соцсети, часто используемые для исследований на больших данных, представляют собой сложную среду социотехнических взаимодействий, где пользователи часто не понимают, как их социальная активность может регулярно отслеживаться, собираться и передаваться третьим лицам, где политика конфиденциальности и условия предоставления услуг не до конца понятны и часто меняются, а технические инфраструктуры и интерфейсы разработаны таким образом, чтобы затруднить ограничение информационных потоков и защиту частной жизни.

Как отмечалось в §4.1 выше, становится трудно установить намерения пользователя, когда он делится информацией в соцсетях, и понять, осознают ли пользователи, что предоставление информации в социальной среде делает ее открытой для широкомасштабного сбора и использования исследователями. Эта неопределенность в намерениях и ожиданиях пользователей соцсетей и интернет-платформ — часто поощряемая дизайном самих платформ — создает многочисленные концептуальные проблемы при попытках должным образом смягчить конфликты, связанные с защитой приватности в исследованиях на больших данных.

Концептуальные пробелы в вопросе приватности и определении ПИИ в контексте исследований на больших данных неизбежно приводят к схожим пробелам в отношении информированного согласия. Исследователи, берущие информацию из профиля Facebook или публичных лент в Twitter, например, обычно утверждают, что никакого специального согласия не требуется, поскольку информация была общедоступна. Остается неизвестным, действительно ли пользователи понимали технические условия, при которых они сделали информацию видимой на этих платформах социальных сетей, или же они предвидели, что их данные будут собраны для исследовательских целей, а не просто появятся на экране для мимолетного взгляда их друзей и подписчиков (Fiesler & Proferes, 2018). В случае с экспериментом Facebook об эмоциональном заражении (Kramer, Guillory, & Hancock 2014) отсутствие согласия было первоначально объяснено тем, что исследование проводилось в соответствии с широкими условиями обслуживания Facebook, в политике использования данных которого, хотя она и состоит из более чем 9000 слов, вскользь упоминается "исследование". Однако позже выяснилось, что в политике использования данных, действовавшей на момент проведения эксперимента, вообще не упоминалось "исследование" (Hill 2014).

Дополнительные этические проблемы возникли в связи с распространением практики сбора данных в контексте машинного обучения и развития искусственного интеллекта. Например, общественность негативно оценила алгоритмы, разработанные для определения сексуальной ориентации по фотографиям, и алгоритмы распознавания лиц, обученные на видеозаписях трансгендерных людей. В обоих случаях были подняты этические вопросы, связанные как с целью этих алгоритмов, так и с тем, что данные, на которых они обучались (фотографии профиля на сайте знакомств и видео с YouTube, соответственно), были "публичными", но собранными у потенциально уязвимых групп населения без согласия (Metcalf 2017; Keyes 2019). Хотя создатели систем ИИ не всегда могут контролировать условия, в которых собираются используемые ими данные, все более широкое использование ими больших массивов данных, полученных из социальных сетей и других источников, вызывает ряд опасений, помимо тех, которые обычно считаются частью растущего внимания к этике ИИ. Справедливость, ответственность и прозрачность в ИИ могут быть полностью возможны лишь тогда, когда сбор данных осуществляется честным, этичным и справедливым образом (Stahl & Wright 2018; Kerry 2020).

Интернет-исследование и отраслевая этика

Рассмотренный выше эксперимент эмоционального заражения в Facebook является лишь одним примером в более широкой тенденции в исследованиях на больших данных, проводимых без традиционных академических механизмов надзора за этикой исследований. Почти все онлайн-компании и платформы анализируют данные и проверяют теории, которые часто опираются на данные отдельных пользователей. Отраслевые исследования данных, которые раньше ограничивались ориентированным на маркетинг "A/B тестированием" позитивных изменений в дизайне интерфейса или корпоративных коммуникационных сообщениях, теперь охватывают информацию о том, как пользователи ведут себя в сети, что они нажимают и читают, как они двигаются, едят и спят, какой контент они потребляют в сети и даже как они передвигаются по своему дому. Такие исследования позволяют сделать выводы о вкусах и предпочтениях людей, их социальных отношениях, коммуникациях, передвижениях и рабочих привычках. Это подразумевает повсеместное тестирование продуктов и услуг, которые являются неотъемлемой частью повседневной жизни, начиная от подключенных домашних устройств, социальных сетей и заканчивая "умными" автомобилями. За исключением случаев партнерства с академическими институтами, компании обычно не подвергают внутренние исследования формальной этической экспертизе, поскольку результаты, как правило, не распространяются публично, а предполагаемое воздействие на пользователей минимально.

Однако рост отраслевых исследований больших данных создает новые риски для личной жизни людей, с одной стороны, и для соблюдения правовых норм, репутации и бренда организаций, с другой стороны. Когда организации обрабатывают персональные данные вне их первоначального контекста, в некоторых случаях люди могут получить большую выгоду, но в других случаях могут быть удивлены, возмущены или даже пострадать. Получение согласия от затронутых лиц может быть непрактичным: организации могут собирать данные косвенно или на основе идентификаторов, которые напрямую не совпадают с контактными данными людей. Более того, по определению, некоторые неконтекстуальные виды использования — в том числе хранение данных дольше, чем предполагалось, для целей вновь возникшего использования — могут быть непредвиденными на момент сбора. Как отмечают Кроуфорд и Шульц (Crawford and Schultz 2014),

как уведомить и получить согласие на бесчисленные и, возможно, даже еще не установленные запросы, которые можно сделать и которые формируют "персональные данные"? (2014: 108)

Поскольку корпорации создают огромные "живые лаборатории" для исследований на больших данных, исследовательская этика стала важнейшим компонентом разработки и мониторинга этой деятельностью. Например, в ответ на споры вокруг эксперимента по эмоциональному заражению компания Facebook разработала внутренний процесс этического анализа, который, по словам его организаторов,

использует организационную структуру компании, создавая множество возможностей для обучения и контрольных точек анализа исследований в существующем организационном потоке (Jackman & Kanerva 2016: 444).

Хотя такие усилия важны и достойны похвалы, они по-прежнему требуют улучшений. Хоффманн (Hoffmann 2016), например, раскритиковал Facebook за запуск

процесса этической экспертизы, который инновационен в отношении процесса, но мало что говорит нам об этических ценностях, лежащих в основе разработки их продуктов.

Кроме того, в своем исследовании сотрудников, занимающихся вопросами этики в многочисленных компаниях Кремниевой долины, Меткалф и его коллеги обнаружили значительное противоречие между попытками разрешить острые этические дилеммы, возникающие в рамках практики работы с данными в организации, и более широкой бизнес-моделью и корпоративной логикой, доминирующей в принятии внутренних решений (Metcalf, Moss, & Boyd 2019).

Руководства этических комиссий

В то время как многие исследователи и экспертные советы по всему миру работают без официального руководства, многие комиссии по исследовательской этике разработали руководящие принципы для интернет-исследований. Хотя существует множество таких руководств, ниже приведены примеры для исследователей, готовящихся к проверке СЭИ, или для комиссий, разрабатывающих свою собственную политику.

• Бард-колледж (Нью-Йорк). Руководство по проведению исследований в Интернете

• Университет Лойолы в Чикаго. Правила проведения онлайн исследований с участием людей

• Университет штата Пенсильвания. Руководство по проведению компьютерных и интернет-исследований с участием людей

• Архив данных Великобритании. Дополнительные ресурсы

• Университет Калифорнии-Беркли. Матрица оценки рисков безопасности данных и данных исследований человека

• Университета Коннектикута. Руководство по проведению компьютерных и интернет-исследований с участием людей

Другие источники можно найти в разделе "Интернет-ресурсы"

Библиография

• Acquisti, Alessandro and Ralph Gross, 2006, “Imagined Communities: Awareness, Information Sharing, and Privacy on the Facebook”, in Privacy Enhancing Technologies: PET 2006, George Danezis and Philippe Golle (eds.), (Lecture Notes in Computer Science 4258), Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 36–58. doi:10.1007/11957454_3

• Allen, Christina, 1996, “What’s Wrong with the ‘Golden Rule’? Conundrums of Conducting Ethical Research in Cyberspace”, The Information Society, 12(2): 175–188. doi:10.1080/713856146

• Annas, George J., 2009, “Globalized Clinical Trials and Informed Consent”, New England Journal of Medicine, 360(20): 2050–2053. doi:10.1056/NEJMp0901474

• Aycock, John, Elizabeth Buchanan, Scott Dexter, and David Dittrich, 2012, “Human Subjects, Agents, or Bots: Current Issues in Ethics and Computer Security Research”, in Financial Cryptography and Data Security, George Danezis, Sven Dietrich, and Kazue Sako (eds.), (Lecture Notes in Computer Science 7126), Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 138–145. doi:10.1007/978-3-642-29889-9_12

• Banks, Will and Michelle Eble, 2007, “Digital Spaces, Online Environments, and Human Participant Research: Interfacing with Institutional Review Boards”, in Digital Writing Research: Technologies, Methodologies, and Ethical Issues, Heidi A. McKee and Dànielle Nicole DeVoss (eds.), Cresskill, NJ: Hampton Press, pp. 27–47.

• Barbaro, Michael and Tom Zeller Jr., 2006, “A Face Is Exposed for AOL Searcher No. 4417749”, The New York Times, 9 August 2006, pp. A1.

• Barratt, Monica Jane and Simon Lenton, 2010, “Beyond Recruitment? Participatory Online Research with People Who Use Drugs”, International Journal of Internet Research Ethics, 3(1): 69–86. [Barratt and Lenton 2010 available online]

• BBC, 2011, “US Scientists ‘Knew Guatemala Syphilis Tests Unethical’”, BBC News, 30 August 2011, sec. Latin America & Caribbean. [BBC 2011 available online]

• Beauchamp, Tom L. and James F. Childress, 2008, Principles of Biomedical Ethics, Oxford: Oxford University Press.

• Blackstone, Mary, Lisa Given, Joseph Levy, Michelle McGinn, Patrick O’Neill, Ted Palys, and Will van den Hoonaard, 2008, Extending the Spectrum: The TCPS and Ethical Issues Involving Internet-Based Research, Interagency Advisory Panel and Secretariat on Research Ethics, Ottawa, Canada. [Blackstone et al. 2008 available online]

• Boehlefeld, Sharon Polancic, 1996, “Doing the Right Thing: Ethical Cyberspace Research”, The Information Society, 12(2): 141–152. doi:10.1080/713856136

• Boga, Mwanamvua, Alun Davies, Dorcas Kamuya, Samson M. Kinyanjui, Ester Kivaya, Francis Kombe, Trudie Lang, Vicki Marsh, Bibi Mbete, Albert Mlamba, et al., 2011, “Strengthening the Informed Consent Process in International Health Research through Community Engagement: The KEMRI-Wellcome Trust Research Programme Experience”, PLoS Medicine, 8(9): e1001089. doi:10.1371/journal.pmed.1001089

• Bonneau, Joseph and Sören Preibusch, 2010, “The Privacy Jungle: On the Market for Data Protection in Social Networks”, in Economics of Information Security and Privacy, Tyler Moore, David Pym, and Christos Ioannidis (eds.), Boston: Springer US, pp. 121–167. doi:10.1007/978-1-4419-6967-5_8

• Booth, Robert, 2014, “Facebook reveals news feed experiment to control emotions”, The Guardian, 29 June 2014. [Booth 2014 available online]

• Bromseth, Janne C. H., 2002, “Public Places: Public Activities? Methodological Approaches and Ethical Dilemmas in Research on Computer-mediated Communication Contexts”, in Researching ICTs in Context, Andrew Morrison (ed.), InterMedia Report 3/2002, Oslo: University of Oslo, pp. 33–61. [Bromseth 2002 available online]

• Brothers, Kyle Bertram and Ellen Wright Clayton, 2010, “‘Human Non-Subjects Research’: Privacy and Compliance”, The American Journal of Bioethics, 10(9): 15–17. doi:10.1080/15265161.2010.492891

• Bruckman, Amy, 2006, “Teaching Students to Study Online Communities Ethically”, Journal of Information Ethics, 15(2): 82–98. doi:10.3172/JIE.15.2.82

• Buchanan, Elizabeth A. (ed.), 2004, Readings in Virtual Research Ethics: Issues and Controversies, Hershey, PA: Information Science Publishing.

• –––, 2006, “Introduction: Internet Research Ethics at a Critical Juncture”, Journal of Information Ethics, 15(2): 14–17. doi:10.3172/JIE.15.2.14

• –––, 2011, “Internet Research Ethics: Past, Present, and Future”, in Consalvo and Ess 2011: 83–108. doi:10.1002/9781444314861.ch5

• –––, 2016, “Ethics in Digital Research”, in Handbuch Soziale Praktiken und Digitale Alltagswelten, Heidrun Friese, Gala Rebane, Marcus Nolden, and Miriam Schreiter (eds.), Wiesbaden: Springer Fachmedien Wiesbaden, pp. 1–9. doi:10.1007/978-3-658-08460-8_47-1

• Buchanan, Elizabeth A. and Charles M. Ess, 2008, “Internet Research Ethics: The Field and Its Critical Issues”, in The Handbook of Information and Computer Ethics, Kenneth Einar Himma and Herman T. Tavani (eds.), Hoboken, NJ: John Wiley & Sons, Inc., pp. 273–292. doi:10.1002/9780470281819.ch11

• –––, 2009, “Internet Research Ethics and the Institutional Review Board: Current Practices and Issues”, ACM SIGCAS Computers and Society, 39(3): 43–49. doi:10.1145/1713066.1713069

• Buchanan, Elizabeth A. and Erin E. Hvizdak, 2009, “Online Survey Tools: Ethical and Methodological Concerns of Human Research Ethics Committees”, Journal of Empirical Research on Human Research Ethics, 4(2): 37–48. doi:10.1525/jer.2009.4.2.37

• Buchanan, Elizabeth, John Aycock, Scott Dexter, David Dittrich, and Erin Hvizdak, 2011, “Computer Science Security Research and Human Subjects: Emerging Considerations for Research Ethics Boards”, Journal of Empirical Research on Human Research Ethics, 6(2): 71–83. doi:10.1525/jer.2011.6.2.71

• Carpenter, Katherine J. and David Dittrich, 2012, “Bridging the Distance: Removing the Technology Buffer and Seeking Consistent Ethical Analysis in Computer Security Research”, in Digital Ethics: Research & Practice (Digital Formations 85), Don Heider and Adrienne Massanari (eds.), New York: Peter Lang, pp. 1–29.

• [CASRO] Council of American Survey Research, 2011, “CASRO Code of Standards and Ethics for Survey Research”, First adopted 1977 and revised since. [CASRO code available online]

• Chen, Jenny J., Natala J. Menezes, and Adam D. Bradley, 2011, “Opportunities for Crowdsourcing Research on Amazon Mechanical Turk”, Interfaces, 5(3). [J. Chen, Menezes, and Bradley 2011 available online]

• Colvin, Jan and Jane Lanigan, 2005, “Ethical Issues and Best Practice Considerations for Internet Research”, Journal of Family and Consumer Sciences, 97(3): 34–39.

• Conley, Caryn and Jennifer Tosti-Kharas, 2014, “Crowdsourcing Content Analysis for Managerial Research”, Management Decision, 52(4): 675–688. doi:10.1108/MD-03-2012-0156

• Consalvo, Mia and Charles Ess (eds.), 2011, The Handbook of Internet Studies, Oxford: Wiley-Blackwell. doi:10.1002/9781444314861

• Crawford, Kate and Jason Schultz, 2014, “Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms”, Boston College Law Review, 55(1): 93–128.

• Dittrich, David, Michael Bailey, and Sven Dietrich, 2011, “Building an Active Computer Security Ethics Community”, IEEE Security & Privacy Magazine, 9(4): 32–40. doi:10.1109/MSP.2010.199

• Drew, David A., Long H. Nguyen, Claire J. Steves, Cristina Menni, Maxim Freydin, Thomas Varsavsky, Carole H. Sudre, M. Jorge Cardoso, Sebastien Ourselin, Jonathan Wolf, et al., 2020, “Rapid Implementation of Mobile Technology for Real-Time Epidemiology of COVID-19”, Science, 368(6497): 1362–1367. doi:10.1126/science.abc0473

• Elgesem, Dag, 2002, “What Is Special about the Ethical Issues in Online Research?”, Ethics and Information Technology, 4(3): 195–203. doi:10.1023/A:1021320510186

• Emanuel, Ezekiel J., Robert A. Crouch, John D. Arras, Jonathan D. Moreno, and Christine Grady (eds.), 2003, Ethical and Regulatory Aspects of Clinical Research: Readings and Commentary, Baltimore: Johns Hopkins University Press.

• Ess, Charles, 2016, “Phronesis for machine ethics? Can robots perform ethical judgments?”, Frontiers in Artificial Intelligence and Applications, 290: 386–389. doi:10.3233/978-1-61499-708-5-386

• Ess, Charles and the Association of Internet Researchers (AoIR) Ethics Working committee, 2002, “Ethical Decision-Making and Internet Research: Recommendations from the AoIR Ethics Working Committee”, Approved by the AoIR, 27 November 2002. [Ess and AoIR 2002 available online]

• Eysenbach, Gunther, 1999, “Welcome to the Journal of Medical Internet Research”, Journal of Medical Internet Research, 1(1): e5. doi:10.2196/jmir.1.1.e5

• Eysenbach, Gunther and James E. Till, 2001, “Ethical Issues in Qualitative Research on Internet Communities”, BMJ, 323(7321): 1103–1105. doi:10.1136/bmj.323.7321.1103

• Fairfield, Joshua A., 2012, “Avatar Experimentation: Human Subjects Research in Virtual Worlds”, U.C. Irvine Law Review, 2: 695–772.

• Federal Register, 2011, “Submission for Review and Comment: ‘The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research’” (“Menlo Report”) for the Department of Homeland Security (DHS), Science and Technology, Cyber Security Division (CSD), Protected Repository for the Defense of Infrastructure Against Cyber Threats (PREDICT)”, 28 December 2011, Volume 76, Number 249, Docket No. DHS-2011-0074. [Federal Register 2011 available online]

• –––, 2017, “Federal Policy for the Protection of Human Subjects”, 19 January 2017, Volume 82, Number 12 [Federal Register 2017 available online]

• Fiesler, Casey, Nathan Beard, and Brian C. Keegan, 2020, “No Robots, Spiders, or Scrapers: Legal and Ethical Regulation of Data Collection Methods in Social Media Terms of Service”, Proceedings of the International AAAI Conference on Web and Social Media, 14: 187–196. [Fiesler, Beard, and Keegan 2020 available online]

• Fiesler, Casey, Jeff Hancock, Amy Bruckman, Michael Muller, Cosmin Munteanu, and Melissa Densmore, 2018, “Research Ethics for HCI: A Roundtable Discussion”, in Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems, , Montreal QC Canada: ACM, 1–5. doi:10.1145/3170427.3186321

• Fiesler, Casey and Nicholas Proferes, 2018, “‘Participant’ Perceptions of Twitter Research Ethics”, Social Media + Society, 4(1), first online 10 March 2018. doi:10.1177/2056305118763366

• Flicker, Sarah, Dave Haans, and Harvey Skinner, 2004, “Ethical Dilemmas in Research on Internet Communities”, Qualitative Health Research, 14(1): 124–134. doi:10.1177/1049732303259842

• Fossheim, Hallvard and Helene Ingierd (eds.), 2016, Internet Research Ethics:, Oslo: Cappelen Damm Akademisk/NOASP. doi:10.17585/noasp.3.1

• Frankel, Mark S. and Sanyin Siang, 1999, “Ethical and Legal Aspects of Human Subjects Research in Cyberspace”, A Report of a Workshop, 10–11 June 1999, Washington, DC: American Association for the Advancement of Science. [Frankel and Siang 1999 available online]

• Franzke, Aline Shakti, Anja Bechmann, Michael Zimmer, Charles M. Ess, and the Association of Internet Researchers (AoIR), 2020, Internet Research: Ethical Guidelines 3.0, AoIR. [Franzke et al. available online (pdf)]

• Frauenberger, Christopher, Amy S. Bruckman, Cosmin Munteanu, Melissa Densmore, and Jenny Waycott, 2017, “Research Ethics in HCI: A Town Hall Meeting”, in Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems – CHI EA ’17, Denver: ACM Press, pp. 1295–1299. doi:10.1145/3027063.3051135

• Gaw, Allan and Michael H. J. Burns, 2011, On Moral Grounds: Lessons from the History of Research Ethics, Westerwood, Glasgow: SA Press.

• [GDPR] General Data Protection Regulation (GDPR), 2016, “Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46”. [available online]

• Gilbert, Brendan James, 2009, “Getting to Conscionable: Negotiating Virtual Worlds’ End User License Agreements without Getting Externally Regulated”, Journal of International Commercial Law and Technology, 4(4): 238–251. [Gilbert 2009 available online]

• Glickman, Seth W., Sam Galhenage, Lindsay McNair, Zachry Barber, Keyur Patel, Kevin A. Schulman, and John G. McHutchison, 2012, “The Potential Influence of Internet-Based Social Networking on the Conduct of Clinical Research Studies”, Journal of Empirical Research on Human Research Ethics, 7(1): 71–80. doi:10.1525/jer.2012.7.1.71

• Goldfarb, Norman M., 2008, “Age of Consent for Clinical Research”, Journal of Clinical Research Best Practices, 4(6). [Goldfarb 2008 available online]

• [HHS] Health and Human Services, 2017, “Excerpts from the January 19, 2017 Revised Common Rule Preamble”. [HHS 2017 available online]

• Hill, Kashmir, 2014, “Facebook Added ‘Research’ To User Agreement 4 Months After Emotion Manipulation Study”, Forbes.com., 30 June 2014. [Hill 2014 available online]

• Hoffmann, Anna Lauren, 2016, “Facebook has a New Process for Discussing Ethics. But is It Ethical?” The Guardian, 17 June 2016. [Hoffmann 2016 available online]

• Homeland Security Department, 2011, “Submission for Review and Comment: ‘The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research’”, Federal Register: The Daily Journal of the United States Government, FR Doc. 2011-3323, 28 December 2011. [Homeland Security Department 2011 available online].

• Hubach, Randolph D., Andrew O’Neil, Mollie Stowe, Zachary Giano, Brenda Curtis, and Celia B. Fisher, forthcoming, “Perceived Confidentiality Risks of Mobile Technology-Based Ecologic Momentary Assessment to Assess High-Risk Behaviors Among Rural Men Who Have Sex with Men”, Archives of Sexual Behavior, first online: 20 February 2020. doi:10.1007/s10508-019-01612-x

• Hudson, James M. and Amy Bruckman, 2004, “‘Go Away’: Participant Objections to Being Studied and the Ethics of Chatroom Research”, The Information Society, 20(2): 127–139. doi:10.1080/01972240490423030

• –––, 2005, “Using Empirical Data to Reason about Internet Research Ethics”, in ECSCW 2005: Proceedings of the Ninth European Conference on Computer-Supported Cooperative Work, 18–22 September 2005, Paris, France, Hans Gellersen, Kjeld Schmidt, Michel Beaudouin-Lafon, and Wendy Mackay (eds.), Berlin/Heidelberg: Springer-Verlag, pp. 287–306. doi:10.1007/1-4020-4023-7_15

• Hunsinger, Jeremy, Lisbeth Klastrup, and Matthew Allen (eds.), 2010, International Handbook of Internet Research, Dordrecht: Springer Netherlands. doi:10.1007/978-1-4020-9789-8

• Illingworth, Nicola, 2001, “The Internet Matters: Exploring the Use of the Internet as a Research Tool”, Sociological Research Online, 6(2): 79–90. doi:10.5153/sro.600 [Illingworth 2001 available online]

• International Telecommunications Union, 2019, “New ITU Data Reveal Growing Internet Uptake but a Widening Digital Gender Divide”, ITU Media Centre, [ITU 2019 available online]

• Jackman, Molly and Lauri Kanerva, 2016, “Evolving the IRB: Building Robust Review for Industry Research”, Washington and Lee Law Review Online, 72(3): 442–457.

• Jacobson, David, 1999, “Doing Research in Cyberspace”, Field Methods, 11(2): 127–145. doi:10.1177/1525822X9901100204

• Johns, Mark D., Shing-Ling Sarina Chen, and G. Jon Hall (eds.), 2003, Online Social Research: Methods, Issues, and Ethics, New York: Peter Lang.

• Jones, Arnita, 2008, “AHA Statement on IRB’s and Oral History Research”, American Historical Association Activities, 1 February 2008. [A. Jones 2008 available online]

• Jones, Steve (ed.), 1999, Doing Internet Research: Critical Issues and Methods for Examining the Net, Thousand Oaks, CA: Sage.

• Kaplan, Andreas M. and Michael Haenlein, 2010, “Users of the World, Unite! The Challenges and Opportunities of Social Media”, Business Horizons, 53(1): 59–68. doi:10.1016/j.bushor.2009.09.003

• Kerry, Cameron F., 2020, “Protecting privacy in an AI-driven world” (AI Governance), 10 February 2020, Center for Technology Innovation, Brookings Institute. [Kerry 2020 available online]

• Keyes, Os, 2019, “Counting the Countless: Why data science is a profound threat for queer people”, Real Life, 8 April 2019. [Keyes 2019 available online]

• King, Storm A., 1996, “Researching Internet Communities: Proposed Ethical Guidelines for the Reporting of Results”, The Information Society, 12(2): 119–128. doi:10.1080/713856145

• Kitchin, Heather A., 2003, “The Tri-Council Policy Statement and Research in Cyberspace: Research Ethics, the Internet, and Revising a ‘Living Document’”, Journal of Academic Ethics, 1(4): 397–418. doi:10.1023/B:JAET.0000025671.83557.fa

• –––, 2008, Research Ethics and the Internet: Negotiating Canada’s Tri-Council’s Policy, Winnipeg, Manitoba: Fernwood Publishing

• Kramer, Adam D. I., James E. Guillory, and Jeffrey T. Hancock, 2014, “Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks”, Proceedings of the National Academy of Sciences, 111(24): 8788–8790. doi:10.1073/pnas.1320040111

• Kraut, Robert, Judith Olson, Mahzarin Banaji, Amy Bruckman, Jeffrey Cohen, and Mick Couper, 2004, “Psychological Research Online: Report of Board of Scientific Affairs’ Advisory Group on the Conduct of Research on the Internet.”, American Psychologist, 59(2): 105–117. doi:10.1037/0003-066X.59.2.105

• Krogstad, Donald J., Samba Diop, Amadou Diallo, Fawaz Mzayek, Joseph Keating, Ousmane A. Koita, and Yéya T. Touré, 2010, “Informed Consent in International Research: The Rationale for Different Approaches”, The American Journal of Tropical Medicine and Hygiene, 83(4): 743–747. doi:10.4269/ajtmh.2010.10-0014

• Lawson, Danielle, 2004, “Blurring the Boundaries: Ethical Considerations for Online Research Using Synchronous CMC Forums”, in Buchanan 2004: 80–100.

• Leibovici, Didier G., Suchith Anand, Jerry Swan, James Goulding, Gobe Hobona, Lucy Bastin, Sergiusz Pawlowicz, Mike Jackson, and Richard James, 2010, “Workflow Issues for Health Mapping ‘Mashups’ of OGC”, University of Nottingham, CGS Technical Report, 2010 DL1. [Leibovici et al. 2010 available online]

• Madejski, Michelle, Maritza Lupe Johnson, and Steven Michael Bellovin, 2011, “The Failure of Online Social Network Privacy Settings”. Columbia Research Report CUCS-010-11, Columbia University. doi:10.7916/D8NG4ZJ1

• Mann, Chris, 2003, “Generating Data Online: Ethical Concerns and Challenges for the C21 Researcher”, in Thorseth 2003: 31–49.

• Markham, Annette N., 1998, Life Online: Researching Real Experience in Virtual Space, Walnut Creek, CA: Altamira Press.

• –––, 2012, “Fabrication as Ethical Practice: Qualitative Inquiry in Ambiguous Internet Contexts”, Information, Communication & Society, 15(3): 334–353. doi:10.1080/1369118X.2011.641993

• Markham, Annette N. and Nancy K. Baym (eds.), 2008, Internet Inquiry: Conversations about Method, Thousand Oaks, CA: Sage Publications.

• Markham, Annette, N. and Elizabeth Buchanan, 2012. : Ethical decision-making and internet research: Version 2.0. recommendations from the AoIR ethics working committee Association of Internet Researchers. [Markham and Buchanan 2012 available online]

• Markoff, John, 2010, “In a Video Game, Tackling the Complexities of Protein Folding”, New York Times, 4 August 2010. [Markoff 2010 available online]

• McKee, Heidi A. and James E. Porter, 2009, The Ethics of Internet Research: A Rhetorical, Case-based Process, New York: Peter Lang Publishing.

• Mendelson, Cindy, 2007, “Recruiting Participants for Research From Online Communities”, CIN: Computers, Informatics, Nursing, 25(6): 317–323. doi:10.1097/01.NCN.0000299653.13777.51

• Metcalf, Jacob, 2017, “‘The Study Has Been Approved by the IRB’: Gayface AI, Research Hype and the Pervasive Data Ethics Gap”. PERVADE Team: Pervasive Data Ethics for Computational Research, Report. [Metcalf 2017 available online]

• Metcalf, Jacob, Emanuel Moss, and danah boyd, 2019, “Owning Ethics: Corporate Logics, Silicon Valley, and the Institutionalization of Ethics”, Social Research: An International Quarterly, 86(2): 449–476.

• Milne, George R. and Mary J. Culnan, 2004, “Strategies for Reducing Online Privacy Risks: Why Consumers Read (or Don’t Read) Online Privacy Notices”, Journal of Interactive Marketing, 18(3): 15–29. doi:10.1002/dir.20009

• Mondschein, Christopher F. and Cosimo Monda, 2018, “The EU’s General Data Protection Regulation (GDPR) in a Research Context”, in Fundamentals of Clinical Data Science, Pieter Kubben, Michel Dumontier, and Andre Dekker (eds.), Cham: Springer International Publishing, pp. 55–71. doi:10.1007/978-3-319-99713-1_5

• Moor, James H., 1985, “What Is Computer Ethics?”, Metaphilosophy, 16(4): 266–275. doi:10.1111/j.1467-9973.1985.tb00173.x

• Alexander, Larry and Michael Moore, 2007, “Deontological Ethics”, The Stanford Encyclopedia of Philosophy (Winter 2007 Edition), Edward N. Zalta (ed.). URL = <https://plato.stanford.edu/archives/win2007/entries/ethics-deontological/>

• Narayanan, Arvind and Vitaly Shmatikov, 2008, “Robust de-anonymization of Large Sparse Datasets”, Proceedings of the 29th IEEE Symposium on Security and Privacy, Oakland, CA, May 2008, IEEE, pp. 111–125. doi:10.1109/SP.2008.33 [Narayanan and Shmatikov 2008 available online (pdf)]

• [NCPHSBBR] The National Commission for the Protection of Human Subjects of Biomedical and Behavioral Research, 1979, “The Belmont Report: Ethical Principles and Guidelines for the Protection of Human Subjects of Research”, Office for Human Research Protections, Department of Health and Human Services, United States. [NCPHSBBR 1979 available online]

• [NESH] The National Committee for Research Ethics in the Social Sciences and the Humanities [Norway], 2006, “Guidelines for Research Ethics in the Social Sciences, Law, and Humanities”, Published September 2006. [NESH 2006 available online].

• –––, 2019, “A Guide to Internet Research Ethics”. [NESH 2019 available online].

• Nissenbaum, Helen, 2009, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford, CA: Stanford University Press.

• [NSTC] National Science and Technology Council, 2016, “National Privacy Research Strategy”, Office of the President of the United States, June 2016. [NSTC 2016 available online]

• Nuremberg Code, 1947 (1996), “The Nuremberg Code”, BMJ, 313. doi:https://doi.org/10.1136/bmj.313.7070.1448

• Ohm, Paul, 2010, “Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization”, UCLA Law Review, 57: 1701–1777.

• Overbeke, Grace, 2008, “Pro-Anorexia Websites: Content, Impact, and Explanations of Popularity”, Mind Matters: The Wesleyan Journal of Psychology, 3: 49–62. [Overbeke 2008 available online]

• [PRIM&R] Public Responsibility in Medicine and Research, Bankert, E., Gordon, B., Hurley, E., and Shriver, S. (eds), 2021, Institutional Review Board: Management and Function (third edition). Burlington, MA: Jones and Bartlett.

• Reid, Elizabeth, 1996, “Informed Consent in the Study of On-Line Communities: A Reflection on the Effects of Computer-Mediated Social Research”, The Information Society, 12(2): 169–174. doi:10.1080/713856138

• Reynolds, Ren, and Melissa de Zwart, 2010, “The Duty to ‘Play’: Ethics, EULAs and MMOs”, International Journal of Internet Research Ethics, 3(1): 48–68. [Reynolds & de Zwart 2010 available online]

• Ritchie, Donald A., 2003, Doing Oral History: A Practical Guide, New York: Oxford University Press.

• Rosenberg, Åsa, 2010, “Virtual World Research Ethics and the Private/Public Distinction”, International Journal of Internet Research Ethics, 3(1): 23–37.

• Rosser, B. R. Simon, J. Michael Oakes, Joseph Konstan, Simon Hooper, Keith J. Horvath, Gene P. Danilenko, Katherine E. Nygaard, and Derek J. Smolenski, 2010, “Reducing HIV Risk Behavior of Men Who Have Sex with Men through Persuasive Computing: Results of the Menʼs INTernet Study-II”, AIDS, 24(13): 2099–2107. doi:10.1097/QAD.0b013e32833c4ac7

• [SACHRP] Secretary’s Advisory Committee to the Office for Human Research Protections, Unitd States Department of Health & Human Services, 2010, “SACHRP July 20–21, 2010 Meeting Presentations”.

• –––, 2013, “Attachment B: Considerations and Recommendations concerning Internet Research and Human Subjects Research Regulations, with Revisions”, Final document approved 12–13 March 2013. (SACHRP 2013 pdf version)

• –––, 2013, “Considerations and Recommendations Concerning Internet Research and Human Subjects Research Regulations, with Revisions”. [SACHRP 2013 available online]

• –––, 2015, “Attachment A: Human Subjects Research Implications of ‘Big Data’ Studies”, 24 April 2015.

• Samuel, Gabrielle and Elizabeth Buchanan, 2020, “Guest Editorial: Ethical Issues in Social Media Research”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 3–11. doi:10.1177/1556264619901215

• Scholz, Trebor, 2008, “Market Ideology and the Myths of Web 2.0”, First Monday, 13(3): 3 March 2008. [Scholz 2008 available online]

• Schwartz, Paul M. and Daniel J. Solove, 2011, “The PII Problem: Privacy and a New Concept of Personally Identifiable Information”, New York University Law Review, 86(6): 1814–1893.

• Seaboldt, James A. and Randy Kuiper, 1997, “Comparison of Information Obtained from a Usenet Newsgroup and from Drug Information Centers”, American Journal of Health-System Pharmacy, 54(15): 1732–1735. doi:10.1093/ajhp/54.15.1732

• Sharf, Barbara F., 1997, “Communicating Breast Cancer On-Line: Support and Empowerment on the Internet”, Women & Health, 26(1): 65–84. doi:10.1300/J013v26n01_05

• Sieber, Joan E., 1992, Planning Ethically Responsible Research: A Guide for Students and Internal Review Boards, Thousand Oaks, CA: Sage.

• –––, 2015, Planning Ethically Responsible Research: A Guide for Students and Internal Review Boards, second edition, Thousand Oaks, CA: Sage.

• Simmhan, Yogesh, Roger Barga, Catharine van Ingen, Ed Lazowska, and Alex Szalay, 2008, “On Building Scientific Workflow Systems for Data Management in the Cloud”, in 2008 IEEE Fourth International Conference on EScience, Indianapolis, IN: IEEE, pp. 434–435. doi:10.1109/eScience.2008.150

• Simmhan, Yogesh, Catharine van Ingen, Girish Subramanian, and Jie Li, 2009, “Bridging the Gap between the Cloud and an EScience Application Platform”. Microsoft Research Tech Report MSR-TR-2009-2021. [Simmhan et al. 2009 available online]

• Skloot, Rebecca, 2010, The Immortal Life of Henrietta Lacks, New York: Crown Publishers.

• Sloan, Luke, Curtis Jessop, Tarek Al Baghal, and Matthew Williams, 2020, “Linking Survey and Twitter Data: Informed Consent, Disclosure, Security, and Archiving”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 63–76.

• Smith, Michael A. and Brant Leigh, 1997, “Virtual Subjects: Using the Internet as an Alternative Source of Subjects and Research Environment”, Behavior Research Methods, Instruments, & Computers, 29(4): 496–505. doi:10.3758/BF03210601

• Spriggs, Merle, 2010, A Handbook for Human Research Ethics Committees and Researchers: Understanding Consent in Research Involving Children: The Ethical Issues, Melbourne: The University of Melbourne/Murdoch Childrens Research Institute/The Royal Children’s Hospital Melbourne, version 4. Spriggs 2010 available online]

• Stahl, Bernd Carsten and David Wright, 2018, “Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation”, IEEE Security & Privacy, 16(3): 26–33. doi:10.1109/MSP.2018.2701164

• Sveningsson, Malin, 2004, “Ethics in Internet Ethnography” in Buchanan 2004: 45–61.

• Sweeney, Latanya, 2002, “K-Anonymity: A Model for Protecting Privacy”, International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 10(5): 557–570. doi:10.1142/S0218488502001648

• Thomas, Jim, 2004, “Reexamining the Ethics of Internet research: Facing the Challenge of Overzealous Oversight”, in Johns, Chen, and Hall 2004: 187–201.

• Thorseth, May (ed.), 2003, Applied Ethics in Internet Research (Programme for Applied Ethics Publication Series No. 1), Trondheim, Norway: NTNU University Press.

• Tsai, Janice, Lorrie Faith Cranor, Alessandro Acquisti, and Christina M. Fong, 2006, “What’s It To You? A Survey of Online Privacy Concerns and Risks”. NET Institute Working Paper No. 06–29. doi:10.2139/ssrn.941708

• Turkle, Sherry,1997, Life on the Screen: Identity in the Age of the Internet, New York: Touchstone.

• Van Heerden, Alastair, Doug Wassenaar, Zaynab Essack, Khanya Vilakazi, and Brandon A. Kohrt, 2020, “In-Home Passive Sensor Data Collection and Its Implications for Social Media Research: Perspectives of Community Women in Rural South Africa”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 97–107. doi:10.1177/1556264619881334

• Vitak, Jessica, Nicholas Proferes, Katie Shilton, and Zahra Ashktorab, 2017, “Ethics Regulation in Social Computing Research: Examining the Role of Institutional Review Boards”, Journal of Empirical Research on Human Research Ethics, 12(5): 372–382. doi:10.1177/1556264617725200

• Walstrom, Mary K., 2004, “Ethics and Engagement in Communication Scholarship: Analyzing Public, Online Support Groups as Researcher/Participant-Experiencer”, in Buchanan 2004: 174–202.

• Walther, Joseph B., 2002, “Research Ethics in Internet-Enabled Research: Human Subjects Issues and Methodological Myopia”, Ethics and Information Technology, 4(3): 205–216. doi:10.1023/A:1021368426115

• White, Michele, 2002, “Representations or People?”, Ethics and Information Technology, 4(3): 249–266. doi:10.1023/A:1021376727933

• World Medical Association, 1964/2008, “Declaration of Helsinki: Ethical Principles for Medical Research Involving Human Subjects”. Adopted by the 18th World Medical Assembly. Amended 1975, 1983, 1989, 1996, 2000, 2002, 2004, 2008. [Declaration of Helsinki available online]

• Wright, David R., 2006, “Research Ethics and Computer Science: An Unconsummated Marriage”, in Proceedings of the 24th Annual Conference on Design of Communication: SIGDOC ’06, Myrtle Beach, SC: ACM Press, pp. 196–201. doi:10.1145/1166324.1166369

• Zimmer, Michael T., 2010, “‘But the Data Is Already Public’: On the Ethics of Research in Facebook”, Ethics and Information Technology, 12(4): 313–325. doi:10.1007/s10676-010-9227-5

• –––, 2016, “OkCupid Study Reveals the Perils of Big-Data Science”, Wired.com, 14 May 2016. [Zimmer 2016 available online]

• Zimmer, Michael and Edward Chapman, 2020, “Ethical Review Boards and Pervasive Data Research: Gaps and Opportunities”, Paper presented at AoIR 2020: The 21st Annual Conference of the Association of Internet Researchers. [Zimmer and Chapman 2020 extended abstract available online (pdf)]

• Zimmer, Michael T. and Katharina Kinder-Kurlanda (eds.), 2017, Internet Research Ethics for the Social Age: New Challenges, Cases, and Contexts, New York: Peter Lang Publishing.

Интернет-источники

Цитируемые в статье

• Allan, Rob, 2012, “Cloud and Web 2.0 Services for Supporting Research”.

• Chen, Xiaoyu, Gary Wills, Lester Gilbert, and David Bacigalupo, 2010, “Using Cloud for Research: A Technical Review”, JISC Final Report for the TeciRes project. [X. Chen et al. 2010 available online]

• Dittrich, David and Erin Kenneally, 2012, The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research, Homeland Security, United States Government.

• Hoofnagle, Chris Jay and Jennifer King, 2008, “What Californians Understand About Privacy Online”, Research Report from Samuelson Law Technology & Public Policy Clinic, UC Berkeley Law: Berkeley, CA. doi:10.2139/ssrn.1262130 [Hoofnagle and King 2008 available online]

• [NHRPAC] National Human Subjects Protection Advisory Committee, 2002, “Recommendations on Public Use Data Files”.

• [NIH] National Institutes of Health, 2010, “Guide for Identifying and Handling Sensitive Information at the NIH”

• –––, 2017, “What is a Certificate of Confidentiality”, National Institutes of Health [NIH 2017 available online]

• Rudder, Christian, 2014, “We Experiment on Humans!”, OkTrends, 28 July 2014. [Rudder 2014 available online]

• Sparks, Joel, 2002, Timeline of Laws Related to the Protection of Human Subjects, National Institutes of Health.

• Stone, Brad, 2009, “Facebook Rolls Out New Privacy Settings”, New York Times, 9 December 2009. [Stone 2009 available online]

• U.K. Data Archive, 2011, “Managing and Sharing Data: Best Practices for Researchers”. [UK Data Archive available online]

• Williams, George, 2010, “The Ethics of Amazon’s Mechanical Turk”, ProfHacker Blog, The Chronicle of Higher Education, 1 March 2010.

• Zimmer, Michael, 2009, “Facebook’s Privacy Upgrade is a Downgrade for User Privacy”, MichaelZimmer.Org. [Zimmer 2009 available online]

Законы и правительственные документы США

• Department of Health and Human Services, Code of Federal Regulations [C.F.R.], United States

o 45 C.F.R. § 46, “Protection of Human Subjects”, and in particular the Common Rule, 45 C.F.R. 46 Subpart A

o 45 C.F.R. § 164.514, “Other requirements relating to uses and disclosures of protected health information”

• [OHRP] U.S Department of Health and Human Services, 2008, “Office for Human Research Protections”, [Office for Human Research Protection]

• The Belmont Report: Ethical Principles and Guidelines for the Protection of Human Subjects of Research

• U.S. Department of Health and Human Services: Can an electronic signature be used to document consent on parental permission?

• U.S. Department of Health and Human Services: What are the basic elements of informed consent?

Другие страны

• Tri-Council Policy Statement: Ethical Conduct for Research Involving Humans, Канада

• Европейский парламент и Совет Европейского Союза (2016) Regulation (EU) 2016/679. ... Data Protection Act 2018, c. 12 [Data Protection Act 2018 available online]

Профессиональные стандарты

• American Counseling Association: Ethics and Professional Standards, версия 2014 г.

• American Psychological Association: Advisory Group on Conduction Research on the Internet

• Association of Internet Researchers Ethics Guidelines

Журналы, форумы и блоги

• International Journal of Internet Science

• Journal of Empirical Research on Human Research Ethics

• Journal of Medical Internet Research

• IRB Forum, (ограничено для зарегистрированных пользователей) Совет по институциональному надзору.

• MethodSpace, создали SAGE Publishing.

• Research Ethics Blog, ведет Нэнси Болтон

Сноски
[1] автоматическая доставка специфической информации с Web-сервера на компьютер клиента – прим.ред.
[2] эмоциональное заражение (воздействие на человека путем передачи собственного эмоционального состояния) – прим. ред.
[3] Прокол вены, в осн. для взятия крови – прим.ред.
[4] Существенно переработанная версия, начало 2021г. – прим.ред.
[5] За эти примеры я выражаю благодарность Дэвиду Диттриху из лаборатории прикладной физики Вашингтонского университета – прим.авт.
[6] HIPAA означает "Закон о переносимости и подотчетности медицинского страхования". – прим. авт.
[7] С благодарностью Лауре Одвазни из Министерства здравоохранения и социального обеспечения США. – прим. авт
[8] В контексте США эти условия включают: Исследовательский или показательный проект проводится должностными лицами штата или местного правительства или подлежит их одобрению и предназначен для изучения, оценки или иного рассмотрения: (i) программы государственных пособий или услуг; (ii) процедуры получения пособий или услуг в рамках этих программ; (iii) возможные изменения или альтернативы этим программам или процедурам; или (iv) возможные изменения в методах или уровнях оплаты пособий или услуг в рамках этих программ; если исследование не может быть практически осуществлено без отказа или изменения; исследование связано не более чем с минимальным риском для испытуемых; отказ или изменение не окажет негативного влияния на права и благополучие испытуемых; или, в случае необходимости, испытуемым будет предоставлена дополнительная соответствующая информация после участия (45 C. F.R. §§ 46.116c,d, 46.117, 46.408c). – прим.авт.
[9] См., например, формулировки, предложенные этическими комиссиями в Университете Святой Марии и Университете Маунт-Эллисон. – прим.авт.
[10] Наглядный пример подобной нюансировки выражен в статье по молекулярной биологии 2011 года, в которой отмечается вклад распределённых вычислений (на платформе игры FoldIt), позволивший учёным расшифровать структуру кристалла белка обезьяньего СПИДа (Foldit Khatib F., Dimaio F., et al. Crystal Structure of a Monomeric Retroviral Protease Solved by Protein Folding Game Players. Nature Structural & Molecular Biology, 2011, vol. 18, no. 10.): “Мы также обнаружили, что участники могут предпочитать неканоническую форму упоминания их вклада — гражданские ученые куда меньше заинтересованы в соавторстве. Все три участника Foldit, чьи модели позволили решить задачу MPMV-PR, отклонили соавторство — вместо этого они предпочли быть опубликованными под именами своих команд … [В разделе «благодарности» написано] F.C.G. (Foldit Contenders Group) и F.V.C.G. (Foldit Void Crusher Group) внесли вклад путем своего геймплея, который произвел результаты для данной статьи”. Однако никнеймы 3-х ключевых участников также известны: spvincent, grabhorn и mimi – прим.ред.
Поделиться статьей в социальных сетях: