входрегистрация
философытеорииконцепциидиспутыновое времяматематикафизика
Поделиться статьей в социальных сетях:

Информационные технологии и моральные ценности

Ссылка на оригинал: Stanford Encyclopedia of Philosophy
  1. Моральные противоречия информационной технологии
  2. Фундаментальный характер информационных технологий
  3. Моральные ценности и технология записи информации
  4. Моральные ценности и технология передачи информации и обеспечения доступа к ней
  5. Моральные ценности и технология организации и синтеза информации
  6. Моральный парадокс информационных технологий
  7. Особые моральные противоречия на культурном уровне
  8. Социальные медиа и социальные сети
  9. Онлайн-игры и онлайн-миры
  10. Притягательная сила виртуального мира игр
  11. Вредоносные и шпионские программы, а также программы для ведения информационных войн
  12. Будущие проблемы
  13. Ускорение изменений
  14. Искусственный интеллект и искусственная жизнь
  15. Искусственный интеллект
  16. Искусственная жизнь
  17. Роботы и моральные ценности
  18. Информационные технологии морали
  19. Информационная технология как модель морального открытия
  20. Информационная технология как система морали
  21. Информационные организмы как субъекты морали
  22. Библиография

Впервые опубликовано 12 июня 2012 г.

Сегодня информационные технологии массово используются людьми во всем мире. Они принимают разные формы: например, персональные компьютеры, смартфоны, интернет, мобильные и веб-приложения, цифровые помощники и облачные вычисления. Список постоянно растет, и новые формы этих технологий продолжают проникать во все аспекты повседневной жизни. В некоторых случаях, таких как, например, многопользовательские онлайн-игры, эти технологии даже открывают новые возможности для взаимодействия друг с другом. По сути, информационная технология — это технология, которая записывает, передает, синтезирует или организует информацию.

Под информацией можно понимать любые полезные данные, инструкции или контент, содержащий информативное сообщение. Само слово «информация» буквально означает «придать форму» или сформировать чьи-либо мысли.

Таким образом, простейшим вариантом информационных технологий, возможно, является крестик, который рисуют на руке, чтобы напомнить (или сообщить) себе о каком-либо деле, которое необходимо сегодня выполнить. Здесь крестик замещает более сложное предложение – например, «купить продукты по дороге домой». Он сам не является информацией, а только символизирует ее, и, следовательно, этот символ необходимо правильно интерпретировать, чтобы его можно было использовать. В результате возникает вопрос: что такое сама информация?

К сожалению, не существует полного и строгого с философской точки зрения определения, хотя есть по меньшей мере два очень хороших исходных положения. Те, кого волнуют онтологические вопросы применительно к информации, могут просто сосредоточить внимание на символах и определить информацию как любой значимый упорядоченный набор символов.

Такое определение может быть очень удобным — математики и инженеры предпочитают фокусироваться на этом аспекте информации, который называется «синтаксис», а задачи смысловой части информации, т. е. «семантики», оставить другим. Клод Э. Шеннон, работая в лаборатории Белла, создал знаковую математическую теорию информации (1948 г.), в которой он, опираясь на свой опыт в криптографии и технологиях телефонной связи, разработал математическое описание того, как синтаксическая информация может быть преобразована в сигнал, который передается таким образом, что шум и посторонние сигналы подавляются, а затем декодируется желаемым получателем сообщения (Шеннон, 1948; Шеннон и Уивер, 1949). Описанные Шенноном концепции, а также другие важные инновации, разработанные огромным количеством людей, объясняют принцип работы информационной технологии. Однако, если мы хотим тщательно исследовать влияние информационных технологий на моральные ценности, нам понадобится разобраться с более глубокими проблемами. 

Второе исходное положение несколько более философское по своей природе. Здесь мы начнем с утверждения, что информация — это либо основа, либо то, что тесно связано с основой нашего существования и существования всего, что нас окружает. Это означает, что информация играет онтологическую роль в функционировании вселенной. Такое определение помещает информацию в центр философской проблематики, и эта идея служит источником возникновения новых областей: информационной философии и информационной этики. Мы не будет здесь подробно рассматривать философию информации, однако интересующийся читатель может для начала ознакомиться с работами Флориди (2010b, 2011b). Ниже будут подробно рассмотрены некоторые из наиболее важных аспектов информационной этики.

Каждое наше действие оставляет информационный след, который можно записать и сохранить для последующего использования.

Например, вы можете использовать простую технологию: вести подробные записи обо всех своих делах и мыслях в течение дня. Однако сегодня этот дневник можно дополнить еще большим количеством подробностей, полученных с помощью передовых информационных технологий. К числу таких данных относятся все ваши экономические операции, построенная с помощью GPS схема вашего передвижения, перечень всех посещенных веб-адресов и подробные сведения о всех выполненных поисковых запросах в интернете, список всех жизненно важных показателей, таких как кровяное давление и частота пульса, потребленные за день продукты и многое другое. Проводя этот мысленный эксперимент, вы начинаете видеть сложный след данных, создаваемых вами изо дня в день, и понимать, как эти данные можно собрать и хранить, используя информационные технологии. Здесь начинает просматриваться влияние информационных технологий на моральные ценности. Поскольку сбор этих данных становится более автоматизированным и повсеместным, мы должны спросить, кто контролирует эти данные, что с ними будут делать и кто обеспечит их достоверность. Например, какие данные должны быть открытыми, какие — приватными, а какие могут стать собственностью третьих сторон, например, компаний? Проблемы создания информации, обеспечения доступа к ней и управления лежат в центре моральных противоречий, связанных с использованием информационных технологий. 

Можно возразить, сказав, что эта ситуация не отличается от моральных вопросов, затрагивающих создание и контроль любых жизненно необходимых вещей, а также получение доступа к ним. Однако главное отличие заключается в том, что если одна сторона контролирует доступ к какому-либо естественному ресурсу, то другие не могут его использовать. Это не обязательно так, когда речь заходит о цифровой информации, т. е. мы можем (по крайней мере теоретически) владеть той же цифровой информацией, поскольку при копировании ее с одного цифрового источника на другой удалять предыдущую копию не требуется. Поскольку не существует физического препятствия, способного остановить распространение информации в целом, остается только взывать к морали или экономической справедливости, которые могут предотвратить распространение определенных форм информации. Поэтому понимание роли моральных ценностей в информационных технологиях является неотъемлемой частью разработки и использования этих технологий (Джонсон, 1985; Мур, 1985; Ниссенбаум, 1998; Спинелло, 2001). Стоит заметить, что настоящая статья не связана напрямую с феноменологическим подходом к этике информационных технологий, поскольку эти вопросы подробно рассмотрены в отдельном материале (см статью).

Моральные противоречия информационной технологии

Переход от одного множества доминирующих информационных технологий к другим всегда спорен с моральной точки зрения. Сократ жил в долгий период перехода от преимущественно устной традиции к более новой информационной технологии, которая заключалась в записи слов и информации и объединении этих сочинений в свитки и книги.

Знаменитый Сократ был настроен враждебно к письму и сам никогда ничего не записывал. По иронии судьбы мы знаем об аргументах Сократа против письма только потому, что его ученик Платон не послушал своего учителя и записал этот диалог, получивший название «Федр» (Платон).

В конце этого диалога Сократ предлагает своему другу Федру «разобрать, подобает ли записывать речи или нет, чем это хорошо, а чем не годится» (часть 274b–479c).

Сократ рассказывает предание о египетском боге по имени Тевт, который принес в дар королю Тамусу письменность. Тамусу подарок не понравился, и он так говорит о письменах:

«В души научившихся им они вселят забывчивость, так как будет лишена упражнения память: припоминать станут извне, доверяясь письму, по посторонним знакам, а не изнутри, сами собою». («Федр», часть 275а)

Сократ, который умело цитировал и вставлял в разговор строки из поэм и былин, беспокоился, что те, кто полагается на записи, никогда полностью не будут понимать и проживать эти слова. Для Сократа письменное изложение в некотором роде аморально или лживо. Книги могут предоставлять информацию, но они не могут сами по себе передать мудрость, необходимую, чтобы использовать или глубоко понимать эту информацию. В устной традиции наоборот: вы не просто советуетесь с библиотекой, вы и есть библиотека, вы являетесь живым воплощением информации, которую знаете наизусть. Для Сократа чтение книги далеко не так содержательно, как разговор с ее автором.

Письмена «...говорят как разумные существа, но если кто спросит о чем-нибудь из того, что они говорят, желая это усвоить, они всегда отвечают одно и то же» («Федр», часть 275d).

На первый взгляд, его критика письменности кажется смешной. Однако стремление использовать напоминание и называть это памятью получает все большее распространение в современных информационных технологиях. Зачем учить что-либо, если информацию можно быстро найти в интернете? Чтобы избежать того, о чем беспокоился Сократ, информационные технологии должны не только предоставлять доступ к информации, но и помогать воспитывать мудрость и понимание.

Фундаментальный характер информационных технологий

В начале революции информационных технологий Ричард Мейсон предположил, что грядущие перемены информационных технологий потребуют переосмысления социальных взаимоотношений (Мейсон, 1986). О чем он не знал, так это о том, как часто нам придется их обновлять, поскольку эти технологии стремительно меняются. Информационные технологии быстро обновляются, входят в моду и выходят из нее ошеломляющими темпами.

Поэтому перечислить их и каталогизировать моральное воздействие каждой из них очень сложно.

Исходя из самого факта столь быстрых и значимых изменений, некоторые заявляют о необходимости глубже исследовать процесс развития появляющихся технологий с этической точки зрения (Мур, 2008). Утверждается также, что поскольку информационная технология по своей природе постоянно трансформируется, это меняет нашу способностью к полному пониманию моральных ценностей по мере их изменения.

Лоренцо Маньяни заявляет, что приобретение знаний о том, как эти изменения разрушают нашу способность рассуждать с моральной точки зрения, «становится обязанностью в нашем технологическом мире» (Маньяни, 2007, 93)

Правовой теоретик Ларри Лессиг предупреждает, что темп изменения информационных технологий настолько стремителен, что он опережает медленный и вдумчивый процесс развития законов и политики, в результате чего эти технологии не попадают под действия законов. Это происходит из-за того, что к моменту создания закона, ограничивающего, например, определенную технологию совместного использования файлов, с помощью которой можно легко нарушить авторские права, эта технология устаревает, и пользователи переходят на другое аналогичное средство (Лессиг, 1999). Однако даже при таком быстром темпе изменения информационные технологии и приложения могут быть разделены на по меньшей мере три разных типа, которые мы рассмотрим ниже. 

Все информационные технологии записывают (хранят), передают, организуют и синтезируют информацию. Например, книга используется для записи информации, телефон — для ее передачи, а десятичная система Дьюи — для ее организации. Многие информационные технологии могут содержать в себе несколько вышеназванных функций, а компьютер, что особо примечательно, — их все, потому что его можно описать как универсальную машину (см. статью) и запрограммировать на имитирование любой формы информационной технологии. В Части 7 мы рассмотрим пример определенных технологий и приложений каждого из вышеперечисленных трех типов информационных технологий и проследим моральные изменения, вызванные использованием или разработкой этих конкретных технологий. В дополнение к вышеизложенному нам необходимо рассмотреть все более широкое использование таких информационных технологий, как массовые многопользовательские игры, представляющие собой среды, которые полностью состоят из информации и в которых люди могут разрабатывать альтернативные жизни, наполненные различными формами социальной активности. В завершении мы рассмотрим не только влияние информационной технологии на моральное восприятие, но и то, как она может менять саму природу моральной оценки. В части 18 мы рассмотрим информацию как технологию морали и возможности программирования приложений и роботов, чтобы они взаимодействовали с нами приемлемым с точки зрения морали образом.

Моральные ценности и технология записи информации

Мы живем в мире, богатом данными, и технология, позволяющая записывать и хранить огромные объемы этих данных, стремительно развивается. Здесь главная моральная проблема заключается в том, что когда мы собираем, храним и (или) получаем доступ к информации, это делается совершенно прозрачно, в соответствии с законом и в интересах всех вовлеченных сторон. Как было замечено ранее, любой из нас ежедневно производит огромное количество информации, которая может быть записана и сохранена в качестве полезных данных и к которой можно обратиться при необходимости. Однако моральный парадокс возникает, когда сбор, хранение и использование нашей информации осуществляется третьими сторонами без нашего ведома или с нашего молчаливого согласия. В контроле над информацией заключена сила. Традиционно эту силу использовали такие социальные институты, как, например, религиозные организации, университеты, библиотеки, органы здравоохранения, правительственные учреждения, банки и корпорации. Эти субъекты имеют доступ к хранимой информации, которая предоставляет им определенную власть над клиентами и группами населения. Сегодня каждый гражданин имеет доступ ко все большему объему хранимой информации без необходимости использовать традиционных посредников этой информации и, следовательно, большей индивидуальной доле социальной власти (см. Лессиг, 1999). 

Одно из главных достоинств современной информационной технологии — она упрощает (а в некоторых случаях и автоматизирует) запись информации. Сегодня все больше людей заносят биометрические данные, такие как кровяное давление, потребляемые калории, планы тренировок и т. п., в специальные приложения, разработанные, чтобы помогать вести более здоровый образ жизни. Этот тип сбора данных может стать более автоматизированным в ближайшем будущем. Уже сейчас есть приложения, которые используют возможность GPS-отслеживания, доступную во многих телефонах, чтобы получать информацию о протяженности и продолжительности прогулки или пробежки пользователя.

Долго ли ждать того момента, когда смартфон будет собирать поток данных о кровяном давлении на протяжении всего дня и, возможно, отмечать местоположения с особенно высокими или низкими значениями?

В определенном смысле эти данные могут быть чрезвычайно действенными и способствовать выбору более здорового образа жизни.

Однако они могут быть серьезной брешью в конфиденциальности, если информация попадет в плохие руки, что вполне вероятно, поскольку у третьих сторон есть доступ к информации, собираемой смартфонами и онлайн-приложениями. В следующей части мы рассмотрим несколько теорий о наиболее эффективных, с этической точки зрения, способах передачи этой записанной информации для сохранения конфиденциальности. Однако здесь мы должны обратиться к более скрытой проблеме безопасности: сбору и записи данных о пользователе без его или ее ведома или согласия. При поиске информации в интернете браузер записывает все возможные данные о посещенных веб-сайтах, которые могут, например, загружать страницы быстрее при следующем посещении. Даже сами веб-сайты используют различные средства для записи информации, когда компьютер выполняет к ним доступ. Они могут оставлять информацию на вашем компьютере и использовать ее при следующем вашем посещении. Некоторые веб-сайты способны определять, какие другие сайты вы посещали или на каких страницах веб-сайта вы провели больше всего времени. Если бы кто-нибудь ходил за вами по библиотеке и записывал подобную информацию, вам было бы некомфортно или неприятно, но в интернете подобное поведение скрыто и вряд ли будет замечено обычным пользователем.

По мнению некоторых специалистов, информационная технология практически ликвидировала частную жизнь.

Скотт Макнили из Sun Microsystems в 1999 году сказал знаменитые слова:

«У вас нет никакой частной жизни, пора с этим смириться» (Шпренгер, 1999).

Хелен Ниссенбаум замечает,

что «...тогда как раньше физические барьеры и неудобства могли помешать всем, кроме наиболее упорных, раскрыть информацию, технология делает ее доступной по щелчку мыши или за несколько долларов» (Ниссенбаум, 1997). 

С тех пор сбор данных подешевел и стал более автоматизирован. Очевидно, что прежние теории о конфиденциальности, предполагающие нерушимость физических стен, более не применимы, однако Ниссенбаум утверждает, что ради личной автономии и близких отношений необходимо защищать конфиденциальность во что бы то ни стало (Ниссенбаум, 1997). 

Последний вопрос в этой части посвящен тому, что информационные технологии теперь хранят пользовательские данные в облаке, т. е. данные хранятся на удаленном от пользователя устройстве, которое не принадлежит ему и не управляется им. При этом данные доступны пользователю из любого места и на любом устройстве. Удобство доступа приводит к тому, что взаимосвязь пользователя и его данных становится непрочной из-за неопределенности физического расположения данных. Поскольку личные данные чрезвычайно важно защищать, третьи стороны, предлагающие «облачные» услуги, должны понимать ответственность за доверие, оказанное им пользователем. Если вы загрузите все свои фотографии в сервис наподобие Flickr, и они каким-либо образом будут утеряны или удалены, это будет трагическая ошибка, которую нельзя исправить.

Моральные ценности и технология передачи информации и обеспечения доступа к ней

Информационная технология заставила нас переосмыслить простое понятие конфиденциальности и создать сложные теории, признающие как преимущества, так и риски передачи всех видов информации. Основные моральные ценности, вызывающие озабоченность, — это конфиденциальность, принадлежность, объективность и достоверность переданной информации.

Кто принимает окончательное решение о том, можно ли передавать информацию о пользователе или нет? Кто может продать вашу медицинскую карту, финансовые записи, список друзей, историю вашего браузера, и т. д.? Если вы не контролируете этот процесс, как вы можете претендовать на право конфиденциальности? Например, Алан Уэстин в первые десятилетия существования цифровой информационной технологии утверждал, что контроль доступа к своей личной информации — ключ к сохранению конфиденциальности (Уэстин, 1967). Из этого следует, что если мы беспокоимся о конфиденциальности, то должны передать полный контроль доступа к личной информации индивидууму.

Большинство компаний против этого понятия, поскольку информация о пользователях стала основным видом товара в цифровом мире, способствующего наращиванию капитала таких организаций, как Google и Facebook.

Каждый из нас пользуется преимуществами услуг интернет-поиска, предоставляемых соответствующими компаниями. В действительности это можно назвать честным обменом: они бесплатно предоставляют результаты поиска, основываясь на данных, полученных в результате анализа поведения отдельных пользователей, который помогает оценивать результаты. Эта услуга предоставляется вкупе с рекламой, предназначенной для конкретного пользователя и основанной на его или ее истории поиска.

Таким образом, каждый пользователь молчаливо соглашается отдавать немного личной информации при каждом использовании сервиса. Если следовать вышеприведенной идее, что конфиденциальность эквивалентна контролю над информацией, то, похоже, мы действительно понемногу отказываемся от неприкосновенности своей личной информации. Герман Тавани и Джеймс Мур (2004) утверждают, что в некоторых случаях передача пользователю большего контроля над информацией может привести к большей потере конфиденциальности. Один из основных аргументов заключается в том, что в действительности никто не может контролировать всю информацию, которую производит каждый день. Если сосредоточить все внимание на том крошечном объеме информации, который мы можем контролировать, то потеряются из вида горы данных, которые мы контролировать не можем (Тавани и Мур, 2004).

Тавани и Мур считают, что конфиденциальность должна быть признана третьими сторонами, которые действительно контролируют вашу информацию, и наша конфиденциальность будет настоящей только в том случае, если эти стороны будут стремиться защищать ее. Для достижения этой цели они предлагают нам говорить об ограниченном доступе к информации, а не о ее жестком контроле (Тавани и Мур, 2004). 

Информационная безопасность также является важной моральной ценностью, которая влияет на передачу пользовательской информации и доступ к ней. Если мы предоставляем контроль над своей информацией третьим сторонам в обмен на их услуги, то они должны нести ответственность за ограничение доступа к информации другими лицами, которые могут использовать ее во вред (см. Эпштейн, 2007; Маньяни, 2007; Тавани, 2007). При достаточном объеме информации можно украсть личность человека и использовать ее для мошенничества и дальнейших краж. Жертвы этих преступлений могут пытаться восстановить, к примеру, кредитный рейтинг или банковские счета, но их жизни уже будут разрушены. Это привело к разработке компьютерных систем, доступ к которым получить труднее, и развитию новой индустрии, нацеленной на защиту компьютерных систем. 

Сложность обеспечения полностью цифровой безопасности заключается в том, что безопасность противоречит таким моральным ценностям, как совместное использование и открытость, на которые опирались первые создатели информационной технологии.

Стивен Леви в своей книге «Хакеры: герои компьютерной революции» (1984) описывает своего рода «этику хакеров», которая включает в себя идею, что компьютеры должны быть полностью доступными и децентрализованными, что будет способствовать улучшению мира и становлению социальной справедливости (Леви, 1984; см. также Маркофф, 2005). Похоже, это серьезный диссонанс в информационной технологии, возникший на стыке конкурирующих ценностей, присущих разработчикам этих технологий: безопасности и открытости. 

Этот конфликт ценностей обсуждался философами. Хотя многие хакеры, опрошенные Леви, утверждали, что хакерство не так опасно, как кажется, и что в основном это сбор знаний о том, как работают системы, Юджин Спаффорд полагает, что не бывает безобидных взломов компьютера и что вред исключает возможность этического хакерства, не считая наиболее экстремальных случаев (Спаффорд, 2007). Кеннет Химма согласен, что хакерство в целом не этично, однако заявляет, что политически мотивированному хакерству или «хактивизму» можно найти определенное моральное оправдание. Тем не менее, он не решается полностью одобрить эту практику из-за по большей части анонимности движения, сопровождаемого акциями протеста против хактивистов (Химма, 2007b). Марк Мэньон и Эбби Гудрум соглашаются с тем, что хактивизм можно выделить отдельно как этичное хакерство, но предупреждают, что оно должно соответствовать моральным нормам, установленным в результате актов гражданского неповиновения, которыми был ознаменован XX век, или угроз, классифицированных как онлайн-терроризм (Мэньон и Гудрум, 2007). 

Очень похожее разделение ценностей складывается и в других областях, особенно касающихся прав интеллектуальной собственности (см. статью Интеллектуальная собственность), порнографии и цензуры (см. статью Порнография и цензура). К этим давним моральным дебатам информационная технология добавляет возможность практически беспрепятственного доступа к информации, которую другие могут захотеть контролировать, например к интеллектуальной собственности, опасной информации и порнографии (Флориди, 1999), а также обеспечивает анонимность и пользователю, и тем, кто предоставляет доступ к информации (Ниссенбаум, 1999; Саллинс, 2010). Например, даже при том, что случаи запугивания и преследования происходят регулярно, анонимность и удаленность значительно облегчают аналогичные действия в киберпространстве, а вероятность поймать правонарушителей снижается. Пожалуй, подобное неэтичное поведение становится более вероятным, поскольку сама структура киберпространства негласно этому способствует (Адамс, 2002; Гродзински и Тавани, 2002). Поскольку даже свойства структуры информационных технологий влияют на жизнь их пользователей, моральные обязательства разработчиков этих технологий могут определять курс развития общества и принятие нами определенных моральных ценностей (Брей, 2010; Байнем, 2000; Эсс, 2009; Джонсон, 1985; Маньяни, 2007; Мур, 1985; Спинелло, 2001; Саллинс, 2010).

Если предположить, что мы получили право предоставлять доступ к некоторому хранилищу контролируемой нами информации, то нашей обязанностью становится обеспечение эффективности и точности этой информации. Если вы используете несколько разных поисковых систем, чтобы найти какую-либо информацию, результаты каждой их них будут отличаться. Это показывает, что не все поисковые запросы являются одинаковыми, а используемая поисковая система имеет значение. Все поисковые запросы в той или иной мере фильтруются, чтобы на первом месте появлялась информация, которая, по мнению поисковой системы, наиболее важна для пользователя. Значительная часть этого процесса фильтрации основывается на доверии, а формулы, используемые поисковыми системами, являются тщательно охраняемой коммерческой тайной. Есть надежда, что эти решения обоснованы с моральной точки зрения, но мы не знаем наверняка. Предположим, нам говорят, что ссылка приведет нас в определенное место сети. Когда мы нажимаем на нее и попадаем в другое место, то сталкиваемся со злоупотреблением доверием. Обычно это называется «кликджекинг».

Вредоносное ПО может осуществлять кликджекинг с помощью браузера, перенаправляя пользователя на другие ненужные сайты. Обычно они изобилуют разными ссылками, которые будут заражать вашу машину, или сайтами, которые платят кликджекерам за трафик (Хансен и Гроссман, 2008). И опять, анонимность и простота использования информационной технологии могут способствовать распространению обманных практик. Петтит (2009) предполагает, что это заставит нас пересмотреть роль таких моральных ценностей, как доверие и уверенность, в мире информационных технологий.

В завершении этой части необходимо поговорить о влиянии доступа к информации на социальную справедливость. Информационная технология развивалась главным образом в западных индустриальных обществах на протяжении XX века. Однако даже сегодня преимущества этой технологии не распространились равномерно по всему миру и всем социально-экономическим слоям населения. В некоторых обществах или социальных классах либо вообще нет доступа к информации, либо он очень ограничен по сравнению с более состоятельными и развитыми странами, или же доступ подвергается жесткой цензуре со стороны государства. Эта ситуация получила название «цифровая пропасть», и, несмотря на все усилия, эта пропасть продолжает увеличиваться. Несмотря на то, что этот разрыв по большей части обусловлен экономикой (см. Варшауэр, 2003), Чарльз Эсс замечает, что существует проблема, связанная с новым типом колониализма и этноцентризма в киберпространстве. И эта проблема может сдерживать желание тех, кто не относится к индустриальному Западу, присоединиться к этому новому «глобальному мегаполису» (Эсс, 2009). Джон Векерт замечает, что культурные различия в том, как люди «обижают» и «обижаются», играют важную роль в разработке более эгалитарных информационных технологий (Векерт, 2007). Другие возражают, что значимость основных моральных проблем, таких как конфиденциальность, в азиатских культурах иная (Хонгладаром, 2008; Лю, 2005).

Моральные ценности и технология организации и синтеза информации

Кроме хранения и передачи информации, многие информационные технологии автоматизируют организацию информации, а также ее синтез, механическое создание или действие на основе новой информации. Норберт Винер первым разработал теорию автоматического синтеза информации, которую он называл «Кибернетика» (Винер, 1961 [1948]). Винер понял, что можно спроектировать машину, чтобы собирать информацию о мире и делать логические выводы. Для этого потребуются определенные действия, которые машина может выполнять без непосредственного участия человека. Винер быстро осознал, что если его видение кибернетики было бы реализовано, то с появлением подобных машин возникло бы огромное количество моральных вопросов, которые он изложил в своей книге «Кибернетика и общество» (Винер, 1950). Винер утверждал, что несмотря на то, что эта технология может иметь серьезные моральные последствия, можно действовать с упреждением и развивать технологию таким образом, чтобы расширить возможности принятия морально обоснованных решений как для людей, так и для машин (Байнем, 2008).

Машины принимают решения, имеющие моральные последствия.

Вендел Уоллах и Колин Аллен рассказывают смешную историю в своей книге «Моральные машины» (2008). Один из авторов отправился в отпуск, и когда он приехал за границу, его кредитная карточка не работала. Озадаченный, он позвонил в банк и узнал, что автоматическая программа защиты от кражи отклонила транзакции по кредитной карте. Она решила защитить автора, т. к. по ее мнению существовала высокая вероятность того, что платеж, который он совершает, выполняет укравший карточку человек. Здесь мы сталкиваемся с ситуацией, когда продукт информационной технологии принял решение о вероятности нечестного действия, в результате чего был нанесен незначительный вред человеку, которому он хотел помочь. Машины все чаще принимают важные, меняющие жизнь финансовые решения, касающиеся людей, без особого контроля со стороны человека. Будет ли одобрена ваша кредитная карта или дадут ли вам ипотечный кредит, какова будет стоимость вашей страховки и т. д. — все это очень часто определяет машина. Например, если вы подаете заявление на выпуск кредитной карты, машина оценивает определенные данные, такие как ваша зарплата, кредитная история, экономическое положение вашей области и т. п., а затем вычисляет вероятность дефолта по кредитной карте. По результатам этой оценки вы либо преодолеваете пороговое значение вероятности, либо нет, что определяет, получаете ли вы карточку или нет. К

ак правило, машина может обучаться и принимать более взвешенные решения, основываясь на результатах своих предыдущих решений. Машинное обучение и прогнозирование основывается на сложной логике и математике (например, см. работы Рассела и Норвига, 2010), которые могут привести к в некотором смысле забавным случаям, как в вышеописанном примере. Либо может получиться так, что в результате ошибочной интерпретации данных о каком-либо человеке, его или ее недавних покупках и других социальных сведениях и их неверной классификации этот человек (чей-то друг или знакомый) может быть объявлен потенциальным террористом, что сильно испортит ему жизнь (Саллинс, 2010). Все зависит от алгоритма обучения и прогнозирования, и именно его обычно держат в секрете.

Моральный парадокс информационных технологий

Некоторые из поднятых выше вопросов являются следствием морального парадокса информационных технологий. Многие пользователи хотят, чтобы информация была легко доступна и удобна в использовании, предоставлялась по максимально низкой цене, а еще лучше бесплатно. Но пользователи также хотят, чтобы важная и конфиденциальная информация была защищенной, стабильной и надежной. Максимальное увеличение ценности, заключающейся в удобстве и низкой цене, минимизирует возможность обеспечить безопасность и высокое качество информации. Обратное утверждение тоже верно. Таким образом, разработчики информационных технологий постоянно сталкиваются с необходимостью идти на неприятные компромиссы. Стюарт Брэнд, один из тех, кто стоял у истоков интернета, отлично резюмирует эту проблему.

Эта фраза была произнесена им во время одного обсуждения осенью 1984 года на первой конференции хакеров:

«С одной стороны, информация хочет быть дорогой из-за своей ценности. Нужная информация в нужном месте способна изменить вашу жизнь. С другой стороны, информация хочет быть бесплатной, потому что стоимость ее получения постоянно падает. В результате вы получаете две противоборствующие стороны». (Кларк, 2000—см. Другие интернет-ресурсы).

Поскольку эти соревнующиеся моральные ценности практически невозможно примирить, скорее всего в обозримом будущем они так и останутся в центре моральных споров, касающихся использования и проектирования информационных технологий.

Особые моральные противоречия на культурном уровне

В предыдущей части мы рассматривали моральные последствия информационных технологий для отдельного пользователя. В этой части особое внимание будет уделено тому, как эти технологии формируют моральные устои на социальном уровне. На рубеже веков появился термин «Web 2.0», который обозначал новый способ использования Всемирной паутины в качестве средства для совместного использования информации и взаимодействия, а также изменение образа мышления веб-разработчиков в сторону веб-сайтов, ориентированных на пользователей и на их совместные действия. Этот термин стал также ассоциироваться с «соцмедиа» или «социальными сетями». Первоначальная структура сети, созданная Тимом Бернерсом-Ли, всегда включала понятия встречи и взаимодействия. Однако пользователи смогли наконец в полной мере оценить эти возможности в 2004 году на первой конференции Web 2.0, проводимой O'Reilly Media (О'Райли, 2005—см. Другие интернет-ресурсы). Это изменение означало, что все большее количество людей стало проводить значительную часть своей жизни в интернете, взаимодействуя с другими пользователями, и вести принципиально новый образ жизни.

Сейчас социальные сети являются важной частью жизни многих людей: огромное количество пользователей собираются на таких сайтах, как Facebook, и общаются со старыми и новыми, реальными и виртуальными друзьями.

Интернет открывает огромные возможности для взаимодействия с другими пользователями в виртуальном мире, где среда формируется из информации. Сейчас появляются технологии, которые позволят нам объединять реальное и виртуальное. Появлению новой «дополненной реальности» способствовал тот факт, что многие люди имеют при себе смартфоны и другие портативные компьютеры с GPS, на которых они могут запускать приложения и с их помощью взаимодействовать одновременно с окружающими и их компьютерами (возможно, они наводят на объект камеру своего устройства, и «приложение» ищет информацию об этом объекте и отображает ее в облаке над ним). К каждой из этих технологий прилагается набор новых моральных проблем, некоторые из которых будут рассмотрены ниже.

Социальные медиа и социальные сети

Социальные сети — это сайты и приложения, обеспечивающие удобное социальное взаимодействие, которое обычно подразумевает обмен информацией с другими пользователями, обозначенными как «друзья». В настоящий момент наиболее известный сайт — Facebook. Существование подобных сайтов поднимает вопросы, связанные с рядом моральных ценностей. Шэннон Вэллор (2011) размышляла о том, как сайты, подобные Facebook, меняют или даже ставят под угрозу наше понятие дружбы. Ее анализ основывается на теории дружбы Аристотеля (см. статью Этика Аристотеля). 

Аристотель говорил, что люди проживают хорошую и настоящую жизнь через достойную дружбу.

Вэллор замечает, что четыре основных аспекта «достойной дружбы» по Аристотелю: взаимность, сочувствие, самопознание и общая жизнь — можно найти в социальных сетях в таких формах, которые в действительности могут укрепить дружбу (Вэллор, 2011). С другой стороны она утверждает, что соцмедиа не способствуют тому, что Аристотель называл «общая жизнь», и, таким образом, эти медиа сами по себе не могут полностью соответствовать понятию Аристотеля о полной и достойной дружбе (Вэллор, 2011). Вэллор также провела похожий анализ других добродетелей по Аристотелю, таких как терпение, честность и сочувствие, поскольку они пропагандируются в социальных сетях (Вэллор, 2010). Джонни Хартц Соракер (2012) призывал не торопиться выносить нормативные суждения о достоинстве виртуальной дружбы, а стремиться к ее более глубокому пониманию.

Разумеется, существуют вопросы конфиденциальности, возникающие в огромном количестве при использовании социальных медиа. Джеймс Пэрриш и Мэйсон (1986) рекомендуют четыре правила, которым должен следовать пользователь социальных сетей, чтобы реализовать правильный, с этической точки зрения, подход к чужой личной жизни:

  • 1. Обмениваясь информацией в социальных сетях, необходимо обеспечивать конфиденциальность не только своей личной информации, но и информации других пользователей, с которыми она может быть связана.
  • 2. Обмениваясь информацией в социальных сетях, пользователь, который хочет предоставить информацию, обязан предварительно проверить ее достоверность.
  • 3. Пользователи социальной сети не должны размещать информацию о себе, которую в будущем они, возможно, захотят скрыть. Кроме того, пользователи социальной сети не должны размещать информацию, которая является продуктом деятельности другого человека, если они не получили от него разрешение. В этих случаях размещенную информацию может быть невозможно скрыть.
  • 4. Пользователи социальной сети самостоятельно отвечают за оценку подлинности человека или программы перед тем, как предоставить человеку или программе доступ к информации (Пэрриш, 2010).

Обычно такие системы не предусматривают защиту частной жизни, однако, поскольку эти услуги в основном бесплатны, их поставщики имеют мощный экономический стимул для сбора по меньшей мере некоторой части информации о действиях пользователей на сайте, чтобы продать информацию рекламодателям для таргетированного маркетинга.

Онлайн-игры и онлайн-миры

При рассмотрении влияния онлайн-игр на моральные аспекты мы в первую очередь сталкиваемся с изображением насилия. Существует много историй, которые называют компьютерные игры причиной реального насилия или устанавливают связь между играми и насилием. Утверждение о том, что насилие в видеоиграх имеет причинно-следственную связь с реальным насилием, было подвергнуто серьезной критике Кристофером Дж. Фергюсоном (Фергюсон, 2007).

Тем не менее, Марк Кокельберг утверждает, что эта связь, вероятно, слабая, но существует, и проблема заключается во влиянии таких игр на нравственные качества человека (Кокельберг, 2007). Однако Кокельберг также утверждает, что компьютерные игры могут разрабатываться для продвижения таких добродетелей, как сочувствие и космополитическое моральное развитие.

Поэтому он выступает не против всех игр, а только против тех, в которых насилие мешает моральному росту (Кокельберг, 2007). Маркус Шульцке (2010) придерживается другого мнения, предполагая, что насилие в компьютерных играх морально оправдано. Его главный аргумент заключается в том, что действия в виртуальном мире сильно отличаются от действий в реальном мире, и хотя игрок может «убивать» другого игрока в виртуальном мире, этот игрок мгновенно возвращается в игру, и эти двое почти наверняка останутся друзьями в реальности. Таким образом виртуальное насилие сильно отличается от реального, и геймерам по душе это различие (Шульцке, 2010). Тогда как одним виртуальное насилие кажется приемлемым, Морган Лак (2009) придерживается моральной теории, которая допускает приемлемость виртуального убийства, но не допускает другие аморальные действия, такие как педофилия. Кристофер Бартел (2011) не так обеспокоен различиями, которые пытался провести Лак. Он утверждает, что виртуальная педофилия — это реальная детская порнография, что уже заслуживает осуждения с моральной точки зрения и противозаконна во всем мире.

В то время как насилие можно часто увидеть в онлайн-играх, в виртуальных мирах присутствует намного более значительная моральная ценность — их политическая жизнь.

Питер Ладлоу и Марк Уоллес описывают первые шаги к политической онлайн-культуре в своей книге The Second Life Herald: The Virtual Tabloid that Witnessed the Dawn of the Metaverse (2007). Ладлоу и Уоллес записывают в летопись то, как игроки в масштабных онлайн-мирах начинают формировать группы и гильдии, которые зачастую сбивают с толку разработчиков игры и порой противоречат самой игре.

Они утверждают, что разработчики редко осознают, что они создают пространство, в котором люди проживают значительную часть своей жизни, вовлечены в настоящую экономическую и социальную деятельность, и, следовательно, разработчики имеют моральные обязательства, отчасти как и те, кто создает политическую конституцию (Ладлоу и Уоллес, 2007). Согласно Перселлу (2008), в онлайн-играх не особенно стремятся к демократии или эгалитаризму, и это необходимо изменить, если все больше людей собираются проводить время в этих виртуальных мирах.

Притягательная сила виртуального мира игр

Постоянная обеспокоенность по поводу использования компьютеров и особенно компьютерных игр связана с тем, что это может привести к антисоциальному поведению и изоляции. Хотя исследования пока не подтверждают эти гипотезы (Гибба и др., 1983). С появлением масштабных многопользовательских игр, а также видеоигр, разработанных для семей, гипотезе о социальной изоляции верится с еще большим трудом.

Тем не менее, эти игры действительно поднимают вопросы равенства полов. Джеймс Айвори использовал онлайн-обзоры игр, чтобы провести исследование, которое показало, что количество персонажей-мужчин превышает количество персонажей-женщин, а изображения женщин в играх, как правило, чрезмерно сексуализировано (Айвори, 2006). Сукап (2007) предполагает, что игровой процесс в этих виртуальных мирах чаще всего ориентирован на мужской стиль игры, что потенциально отталкивает игроков-женщин. А те женщины, которые все-таки участвуют в игровом процессе на самом высоком уровне, играют в игровой культуре роли, сильно отличающиеся от ролей по большей части гетеросексуальных белых игроков-мужчин, и часто используют свою сексуальность, чтобы добиться признания (Тейлор и др., 2009).

Кроме того, Джоан М. МакМахон и Рони Сохен изучили связь пола игроков и принятия этических решений в виртуальном мире и установили, что женщины более склонны к осуждению спорного действия как неэтичного, чем мужчины (2009). Маркус Йохансон предполагает, что мы можем уменьшить виртуальную аморальность путем введения виртуальных штрафов и наказания за виртуальные преступления, таким образом способствуя становлению более этичных виртуальных сообществ (Йохансон, 2009). 

В средствах массовой информации поднимался вопрос о том, как меняются дети при использовании информационных технологий (например, см. Джонс, 2011). Сейчас многие приложения разрабатываются специально для маленьких детей, поощряя их взаимодействовать с компьютерами с максимально раннего возраста. Поскольку дети могут быть подвержены манипулированию со стороны медиа, например рекламе, мы должны спросить, является ли такая практика морально приемлемой или нет. Это зависит от конкретных используемых приложений: одни могут поощрять одиночную игру и способствовать изоляции, а другие — вовлекают как родителей, так и детей (Сирадж-Блэчфорд, 2010). Также необходимо заметить: педиатры считают, что известных преимуществ раннего использования медиа среди маленьких детей нет, однако существуют потенциальные риски (Кристакис, 2009). Исследования показали, что в период с 1998 по 2008 гг. сидячий образ жизни среди детей в Англии привел к первому установленному снижению физической силы со времен Второй мировой войны (Кохен и др., 2011). Непонятно, обусловлен ли этот феномен использованием информационных технологий, но они могут быть одним из влияющих факторов. 

Вредоносные и шпионские программы, а также программы для ведения информационных войн

Вредоносные программы и компьютерные вирусы стремительно развиваются. Специалисты в области безопасности сообщают, что определенные типы атак, например спам, выходят из моды. Но мы не успеем почувствовать облегчение от этого, поскольку набирают силу новые типы атак, направленные на мобильные вычислительные устройства и взлом облачной инфраструктуры (Cisco Systems, 2011; Лаборатория Касперского, 2011). Очевидно, что этот вид деятельности останется с нами в обозримом будущем. Кроме вредоносного ПО, которое по большей части носит преступный характер, мы должны учитывать связанные, но менее однозначные с моральной точки зрения действия: хакерство, хактивизм, программы для коммерческого шпионажа и ведения информационных войн. Каждая из этих тем сопровождается рядом неявных моральных двусмысленностей. Далее мы рассмотрим некоторые из них. 

Можно говорить о всеобщем согласии в вопросе того, что моральная сторона целенаправленного распространения вредоносного ПО сомнительна, но вместе с тем возникает интересный вопрос о моральности средств защиты и антивирусного ПО. Во время развития вредоносного ПО наблюдался соответствующий рост отрасли безопасности, которая теперь представляет собой многомиллиардный рынок. Несмотря на все деньги, потраченные на ПО, обеспечивающее безопасность, похоже, скорость появления новых вирусов не снижается, а совсем наоборот. Это поднимает интересный вопрос деловой этики: какую ценность получают за свои деньги заказчики от отрасли безопасности? Доказано, что массовое распространение вредоносного ПО намного опережает способность антивирусного ПО его полностью нейтрализовать. Между моментом обнаружения нового вредоносного ПО сообществом безопасности и последующим выпуском обновления для системы безопасности или средств удаления вредоносного ПО существует очень важное время задержки.

Тактика антивирусов, заключающаяся в получении шаблона, его анализе, добавлении определения шаблона, выполнении контроля качества, создании обновления и, наконец, отправке обновления пользователям, оставляет злоумышленникам огромное количество возможностей (даже если предположить, что пользователи антивирусов регулярно выполняют обновления) (Айкок и Саллинс, 2010).

Эту задержку постоянно используют производители вредоносного ПО, и в такой модели всегда будет существовать дыра в системе безопасности, которую невозможно заполнить. Таким образом, очень важно, чтобы специалисты по безопасности не переоценивали свои возможности защиты систем, поскольку к тому моменту, как новая вредоносная программа обнаружена и обезврежена, она уже наносит значительный вред, и в настоящей момент не существует способа это остановить (Айкок и Саллинс, 2010).

В прошлом большая часть вредоносного ПО создавалась любителями и в качестве хобби. Но все изменилось, и теперь эта деятельность носит по большей части преступный характер (Cisco Systems, 2011; Лаборатория Касперского, 2011). Айкок и Саллинс (2010) утверждают, что нельзя полагаться только на надежную защиту, и ситуация требует контрнаступления. Они предлагают этически мотивированную программу, посвященную исследованию и созданию вредоносного ПО. Эта идея не нова.

Первоначально ее предложил компьютерный специалист Джордж Ледин в редакционной статье Not Teaching Viruses and Worms is Harmful для журнала Communications of the ACM (2005). Она идет в разрез с мнением большинства в отношении этики изучения и разработки вредоносного ПО. Большинство компьютерных специалистов и исследователей в области информационной этики соглашаются в том, что все вредоносное ПО неэтично (Эдган, 2003; Химма, 2007a; Ньюман, 2004; Спаффорд, 1992; Спинелло, 2001). Согласно работе Айкока и Саллинса, беспокойство в отношении этих вопросов можно смягчить, проведя открытое исследование, чтобы понять, как создается вредоносное ПО, и бороться с этой угрозой более эффективно (2010).

Когда вредоносное и шпионское ПО создается на государственном уровне, мы вступаем в мир информационных войн и новых моральных вопросов. Любая развитая страна мира ежедневно отражает кибер-атаки. Большая их часть, а именно 1,8 млрд атак в месяц, приходится на США (Лавли, 2010). По-видимому, большая часть этих атак является зондированием слабых мест, однако они могут и разорять национальные сети, как в случае кибер-атак на Эстонию в 2007 г. или Грузию в 2008 г. Атаки на Эстонию и Грузию были разработаны, в основном чтобы сократить количество связей с целевыми странами, а недавно информационная война использовалась для содействия удаленному саботажу.

Знаменитый вирус Stuxnet, атаковавший иранские ядерные центрифуги, — возможно, первый пример военизированного ПО, способного удаленно наносить ущерб физическим объектам (Cisco Systems, 2011). В следующем десятилетии мы, наверняка, увидим больше кибер-оружия, направленного государствами в сторону известных политических проблем, таких как конфликт между Израилем, Америкой, Западной Европой и Ираном, а также Америкой, Западной Европой и Китаем (Лаборатория Касперского, 2011). Моральная проблема здесь заключается в определении той границы, когда эти атаки считаются достаточно серьезной угрозой суверенитету государства, чтобы оправдать боевые действия и обоснованно отреагировать на них в соответствии с этическими нормами (Арквилла, 2010; Дэннинг, 2008; Лаборатория Касперского, 2011).

Основная трудность, связанная с моральной стороной информационных войн, заключается в том, чтобы определить, как использовать военизированные информационные технологии и при этом соблюсти обязательства по справедливому и законному ведению войны.

Поскольку понятие войны само по себе сомнительно с моральной точки зрения, было бы целесообразно использовать информационные технологии для снижения количества жестоких боевых действий. Например, можно возразить, что вирус Stuxnet разрушил то, что, возможно, раньше было бы разрушено с помощью авиационных ударов с многочисленными жертвами среди гражданского населения. На сегодняшний день никто не говорил о жертвах среди населения в результате атаки Stuxnet. Вредоносное ПО, известное как Flame, было создано для шпионажа, и можно утверждать, что более точная информация, предоставленная ответственным лицам во время войны, поможет им принимать более обоснованные решения на поле боя. С другой стороны, возможности новых информационных войн могут позволить государствам постоянно находиться в состоянии вялотекущего конфликта, избегая попыток к примирению, для которого может потребоваться политический компромисс.

Будущие проблемы

Как было замечено во введении, информационные технологии постоянно меняются и совершенствуются. Интернет-технологии, которые способствовали столь сильным социальным переменам, едва ли можно было представить себе за несколько десятилетий до их появления. И хотя мы не можем предугадать все возможные информационные технологии будущего, очень важно пытаться представить вероятные изменения вследствие возникновения новых технологий. Джеймс Мур утверждает, что философы-моралисты должны уделить особо пристальное внимание развивающимся технологиям и оказать влияние на их проектирование до того, как они негативно скажутся на состоянии морали (Мур, 2005). Далее описываются некоторые потенциальные технологические проблемы.

Ускорение изменений

Информационная технология имеет интересную схему развития, которая наблюдается с момента возникновения этой отрасли. Инженер компании Intel Гордон И. Мур заметил, что количество компонентов, которые можно установить на интегральную схему, с каждым годом удваивается с минимальными расходами. И он подумал, что так будет продолжаться на протяжении приблизительно одного десятилетия с того момента (это было в 1965 году) (Мур, 1965). История показала, что его прогнозы были слишком консервативны. Процесс двукратного увеличения скорости и возможностей при двукратном сокращении стоимости приблизительно каждые 18 месяцев продолжается с 1965 года и, похоже, не собирается останавливаться. Этот феномен не ограничивается компьютерными микросхемами, а распространяется на все информационные технологии. Потенциальная сила этого быстрого изменения захватила воображение известного изобретателя Рэя Курцвейла.

Согласно его прогнозу, если это удваивание возможностей продолжится и все большее количество технологий станет информационными, то наступит такой момент, когда скачок от одного поколения информационной технологии до следующего станет таким значительным, что он изменит само понятие «человек», и в этот момент, который он называет «сингулярностью», наша технология позволит нам стать новым пост-человеческим видом (2006). Если это верно, то наши моральные ценности ожидает самое основательное изменение. Этот тезис поддержали некоторые технологические сообщества и институты, такие как Институт Сингулярности, Общество изучения ускорения, Институт будущего человечества и H+.

Реакция на этот тезис со стороны философского сообщества была неоднородной, но в основном критической. Например, Мэри Миджли (1992) утверждает, что вера в возможность бессмертия и физического превосходства, полученных с помощью науки и технологии, основана на псевдонаучных верованиях и глубоком страхе смерти. Саллинс (2000) рассуждает в аналогичном ключе и заявляет, что псевдорелигиозный аспект принятия трансгуманизм{{1}} и соответствующих гипотез влияет на ценности, являющиеся неотъемлемой частью компьютерных технологий, которые пренебрегают или настроены враждебно к человеческому телу. Тогда как во многих этических системах основной моральной ценностью является поддержка и охрана природы, трансгуманизм не видит никакой ценности в определении, что есть природное, и считает аргументы в защиту восприятия естественного состояния человеческого тела необдуманным препятствием на пути к прогрессу. Не все философы настроены критично к трансгуманизму, например, Ник Бостром из Института будущего человечества в Университете Оксфорда утверждает (2008), что, оставив в стороне аргумент целесообразности, мы должны согласиться с существованием форм постгуманизма, которые могли бы привести к долгой и состоятельной жизни, и для людей было бы очень хорошо стать постлюдьми (если все это возможно). 

Искусственный интеллект и искусственная жизнь

Искусственный интеллект (ИИ) возник в результате долгосрочных исследовательских проектов, направленных на создание информационных технологий, проявляющих некоторые или все аспекты человеческого интеллекта и способности к решению задач. Искусственная жизнь (ALife) — это проект, появившийся существенно позже искусственного интеллекта. Он сосредоточен на развитии информационных технологий и/или синтетических биологических технологий, проявляющих жизненные функции, свойственные только биологическим объектам. Более полное описание логики и искусственного интеллекта можно найти в статье Логика и искусственный интеллект. Искусственная жизнь рассматривает биологию как часть естественной информационной технологии, которую можно воспроизвести и использовать для синтеза других видов технологий. И искусственный интеллект, и искусственная жизнь – это быстро развивающиеся проекты, выходящие за рамки простых объяснений. В этой статье основное внимание уделено моральным ценностям, на которые влияют эти технологии, и тому, как некоторые из этих технологий используются, чтобы влиять на эмоциональные и моральные проблемы.

Искусственный интеллект

Алан Тьюринг занимался разработкой исследовательского проекта, который впоследствии стал известен как искусственный интеллект, благодаря его основополагающей работе «Вычислительные машины и разум» (1950). Он описывал «игру в имитацию», в которой компьютер пытается обмануть партнера-человека и убедить его, что он не компьютер, а другой человек (Тьюринг, 1948, 1950). В 1950 году он сделал знаменитое заявление:

«Я верю, что через приблизительно пятьдесят лет... люди смогут говорить о разуме машин как об общепринятом факте».

Описание теста и его значения для философии, не связанного с моральными ценностями, можно найти здесь (см. статью Тест Тьюринга). Прогноз Тьюринга, возможно, чрезмерно амбициозен, и некоторые заявляют, что нам еще очень далеко до воплощения его мечты. Например, Лучано Флориди (2011a) утверждает, что хотя ИИ очень успешен как средство расширения нашего собственного интеллекта, но в качестве области когнитивной науки, заинтересованной в получении интеллекта, ИИ стал глубоким разочарованием.

Предположим, что Тьюринг прав, несмотря на то, что он ошибся в оценке времени, которое потребуется, чтобы ИИ мог успешно создавать машины, способные разговаривать. Профессор Йельского университета Дэвид Гелернтер беспокоится, что в этом случае могут возникнуть определенные неприятные с точки зрения морали вопросы. «У нас не было бы никаких оснований обращаться с ним как с живым существом, по отношению к которому у нас имеются моральные обязательства, а не как с инструментом, который можно использовать по своему усмотрению» (Гелернтер, 2007). Согласно Гелернтеру, самосознание является необходимым требованием для морального управления, и без него мы можем использовать что угодно и как угодно, не учитывая моральные обязательства. Саллинс (2006) оспаривает этот аргумент, замечая, что самосознание не обязательно для морального управления. Например, животным и другим живым и неживым объектам нашей среды должны быть предоставлены определенные моральные права. И действительно, любой ИИ по Тьюрингу имел бы моральные обязательства, также как и права, несмотря на свой статус сознательного существа (Саллинс, 2006). 

Но даже если ИИ не может создавать машины, способные продуктивно общаться с людьми, существует множество других приложений, которые используют технологию ИИ. Многие информационные технологии, рассмотренные выше, такие как поиск, компьютерные игры, сбор данных, фильтрация вредоносного ПО, роботы и т. д., — все используют программные методики ИИ. Таким образом, преждевременно говорить об отсутствии прогресса в области ИИ.

Искусственная жизнь

Искусственная жизнь (ALife) вырастает из ИИ и относится к сфере использования информационных технологий для симуляции и синтеза жизненных функций. Проблема определения жизни интересовала философию с момента ее появления. См. статью О жизни, чтобы узнать больше о понятии «жизнь» и его философских аспектах. Если ученые и технические специалисты смогли бы преуспеть в поиске необходимых и достаточных условий жизни, а затем успешно синтезировать ее в машине или с помощью синтетической биологии, то мы бы переступили определенную черту и столкнулись с серьезными моральными последствиями. Марк Бедо уже некоторое время отслеживает философские последствия реализации искусственной жизни и утверждает, что возможны две различные формы искусственной жизни. Каждая из них будет иметь разные моральные последствия, когда мы сможем их реализовать (если сможем) (Бедо, 2004; Бедо и Парк, 2009). Одна из форм искусственной жизни полностью вычислительная и, по сути, является самой ранней формой изученной искусственной жизни. Вдохновением для идеи об искусственной жизни послужила работа математика Джона фон Неймана, посвященная самовоспроизводящимся клеточным автоматам, которые, по мнению фон Неймана, могли способствовать вычислительному пониманию биологии и биологических наук (1966).

Компьютерный специалист Кристофер Лэнгтон значительно упростил модель фон Неймана и в начале 80-х годов создал простой клеточный автомат «Циклы», а также способствовал развитию области, организовав несколько первых конференций, посвященных искусственной жизни (1989). Программы искусственной жизни весьма отличаются от программ ИИ. Тогда как ИИ стремится создавать и повышать интеллект, искусственная жизнь довольствуется крайне простыми программами, отражающими жизненные функции, а не интеллект. Здесь основная моральная проблема заключается в том, что эти программы разрабатываются для самовоспроизведения и в этом похожи на компьютерные вирусы. Поэтому успешно реализованные программы искусственной жизни могут стать переносчиками вредоносного ПО. Вторая форма искусственной жизни имеет намного более глубокое моральное значение. Она основана на манипулировании настоящими биологическими и биохимическими процессами для создания новых, не существующих в природе форм жизни.

В 2010 году ученые из института Дж. Крейга Вентера смогли синтезировать искусственную бактерию, получившую название JCVI-syn1.0. Поскольку этот прорыв привлек внимание СМИ, они постарались уделить особое внимание его потенциальным этическим и социальным последствиям. Сам Крейг Вентер запустил кампанию по связям с общественностью, посредством которой попытался перевести обсуждение к проблемам, связанным с созданием жизни. Первый случай синтеза жизни оказался волнительным и заставил задуматься о противоречиях, которые возникнут при синтезе более жизнеспособных и мощных искусственных протоклеток{{2}}. 

Этот вид исследования называется «Жизнь в пробирке». Поднятые им этические вопросы скорее можно отнести к биоэтике (см. статью Теория и биоэтика). Однако для нас также есть ряд вопросов. Жизнь в пробирке является частью переходного процесса от биологических наук к информационным технологиям. Границы между биоэтикой и информационной этикой будут постепенно стираться. Так же как и ПО, искусственная жизнь может способствовать созданию вредоносного ПО, а жизнь в пробирке — опасных бактерий и других возбудителей заболеваний. Критики предлагают весомые моральные аргументы против развития этой технологии и утверждают, что необходимо следовать принципу предосторожности. Согласно этому принципу, если существует вероятность того, что технология нанесет катастрофический ущерб, и ученые не могут прийти к согласию и доказать невозможность ущерба, тогда те, кто стремится развивать эту технологию и продвигать исследования, должны сначала предоставить доказательства ее безопасности (см. Эпштейн, 1980). Марк Бедо и Марк Трэйнт выступают против слишком твердой приверженности этому принципу, предлагая вместо этого продемонстрировать моральное мужество и сделать столь важный шаг к пониманию жизни (2009). Они обращаются к понятию «мужество» по Аристотелю: не опрометчивое и безрассудное устремление в неизвестность, но решительный и осторожный шаг вперед к возможностям, которые открывает это исследование.

Роботы и моральные ценности

Применение информационных технологий никогда не ограничивалось виртуальными мирами и программным обеспечением. Помимо прочего, эти технологии взаимодействуют с нами напрямую посредством роботов. Робототехника стремительно развивается, но некоторые ее применения имеют важные моральные последствия. Роботы для военных, медицинских и личных целей, а также целая индустрия секс-роботов — это лишь немногие уже существующие области применения робототехники, которые влияют на наши этические нормы и отражают их (см. Капуро и Нагенборг, 2009; Лин и др., 2011).

Ряд авторов уже внесли свой значимый вклад в развитие этики роботов (или робоэтики). Например, Уоллах и Аллен в своей книге «Моральные машины: как научить роботов отличать хорошее от плохого» (2010) рассказывают о создании и программировании машин, которые могут выносить моральные суждения, и приводят соответствующие примеры из робототехники, когда инженеры работают над созданием машин, поведение которых подчиняется правилам морали. Будет не просто внедрить полуавтономные и полностью автономные машины в общественную жизнь. Уоллах (2011) также внес свой вклад в обсуждение роли философии в разработке общественных правил, касающихся использования роботов и управления ими. 

Военные роботы – одно из наиболее этически спорных применений робототехники. Сегодня эти машины по большей части управляются дистанционно (телероботы) или работают полуавтономно. Однако в будущем необходимость развития военной техники приведет к тому, что они будут становиться все более и более автономными (Сингер, 2009). На протяжении первого десятилетия войн в XXI веке роботизированное оружие использовалось в ряде случаев убийств солдат и гражданских лиц. Уже один этот факт вызывает серьезную обеспокоенность моральной стороной вопроса. Герхард Дабрингер опросил многих специалистов по этике и технических специалистов по поводу последствий автоматизированной войны (Дабрингер, 2010). Многие специалисты по этике, допуская применение автоматизированного оружия, проявляют осторожность, поскольку предполагают, что эта технология будет только способствовать расширению военных действий (см. Лин и др., 2008; Саллинс, 2009b).Другие же относятся к вероятности полностью автономных войн весьма скептически из-за существования таких проблем, как риск для гражданских лиц (Асаро, 2008; Шарки, 2011).

Информационные технологии морали

Ключевой аспект информационных технологий — это то, что они не только выступают объектом дискуссий о морали, но и начинают использоваться в качестве инструмента в самой дискуссии. Поскольку технологии и приложения ИИ являются своего рода автоматическими решателями проблем, а моральные дискуссии — своего рода проблемой, появление технологии, способной мыслить морально, было лишь вопросом времени. Эта технология только формируется, но имеет ряд очень интересных моральных последствий, которые будут описаны ниже. Вероятно, в следующие десятилетия эта область продемонстрирует множество достижений, и когда эти события будут происходить, специалистам по этике будет необходимо обратить на них пристальное внимание. Сьюзан и Майкл Андерсон собрали ряд статей на эту тему в своей книге Machine Ethics (2011), а Рочи Люппичини посвятил этой теме раздел в своей антологии Handbook of Research on Technoethics (2009).

Информационная технология как модель морального открытия

Патрик Грим долгое время придерживался идеи, что философия должна использовать информационные технологии, чтобы автоматизировать и иллюстрировать философские мысленные эксперименты (Грим и др., 1998; Грим, 2004). Питер Дэниелсон (1998) также является автором многих публикаций на эту тему, начиная с книги Modeling Rationality, Morality, and Evolution. Большинство его ранних исследований вычислительной теории морали было сосредоточено на использовании компьютерных моделей, чтобы прояснить возникновение взаимодействия между простыми программными субъектами ИИ и искусственной жизни (Саллинс, 2005). 

Лучано Флориди и Дж. В. Сандерс утверждают, что информация в том виде, в котором она используется в теории вычислений, может стать мощной идеей, с помощью которой можно решить некоторые знаменитые моральные парадоксы философии, такие как природа зла (1999, 2001). Они предложили к известным в философии понятиям морального и естественного зла (см. статью Проблема зла) добавить третью концепцию — так называемое искусственное зло (2001). Флориди и Сандерс утверждают, что, сделав так, мы сможем оценить действия искусственных субъектов 

... определить, являются ли они добром или злом с моральной точки зрения, можно даже при отсутствии биологически разумных участников, что позволяет искусственным субъектам не только совершать зло (или добро), но и «принимать» его или «страдать» от него. (Флориди и Сандерс, 2001) Зло можно оценить с помощью информационного разделения, когда безвозвратная потеря информации — это плохо, а сохранение информации — хорошо (Флориди и Сандерс, 2001). Эта идея подводит нас ближе к способу оценки моральных последствий конкретного действия в информационной среде.

Информационная технология как система морали

Ранее в двадцатом веке американский философ Джон Дьюи предложил теорию познания на основе инструментального использования технологии. Дьюи дал расширенное определение технологии, которое включало в себя не только стандартные инструменты и машины, но и информационные системы, такие как логика, законодательство и даже языки (Хикман, 1990). Дьюи утверждал, что нас и все эти технологии объединяет «транзакционная» связь, в рамках которой мы открываем и создаем свой мир (Хикман, 1990). Это удобная исходная точка, позволяющая развить идею о том, что информационная технология морали и этики может существовать. Кроме того, она позволяет нам серьезно рассмотреть идею о том, что связи и взаимодействия субъектов-людей между собой и взаимодействия между людьми и их артефактами имеют важные онтологические сходства. Несмотря на то, что Дьюи мог только смутно предчувствовать грядущие революции в информационных технологиях, его теория все еще полезна для нас, потому что он предположил, что этика — это не только теория, но и практика, и что в этике проблемы можно решать так же, как в алгебре (Хикман, 1990). Если он прав, то это открывает интересную возможность – возможность того, что этика и мораль являются вычислительными проблемами, и, следовательно, можно создать информационную технологию, которая будет отражать моральные системы мышления. 

В 1974 году философ Марио Бунге предложил серьезно рассмотреть понятие «техноэтика», утверждая, что философы морали должны перенять инженерный подход к решению проблемы. Инженеры не говорят в терминах категорических императивов, а вместо этого используют ... формы. Если A производит B, и вы цените B, предпочтите A, а если A производит B, C производит D, и для вас предпочтительнее B, чем D, выберите A, а не C. Иными словами, правила, к которым он пришел, основываются на фактах и ценностях. Именно таким образом должны быть сформулированы моральные правила, т. е. как правила поведения, вытекающие из научных утверждений и оценочных суждений. Т. е. необходимо рассматривать этику как ветвь технологии. (Бунге, 1977, 103) Серьезное рассмотрение этого мнения подразумевает, что само создание информационных технологий является также актом создания особых моральных систем, в рамках которых субъекты-люди и искусственные субъекты будут, по меньшей мере иногда, общаться посредством моральных взаимодействий. Таким образом, специалисты по информационным технологиям могут принимать участие в создании систем морали, знают они об этом или нет, хотят они принять на себя такую ответственность или нет.

Информационные организмы как субъекты морали

Наиболее всесторонние работы, высказывающиеся в пользу возможности использовать информационную технологию для создания искусственных субъектов морали, — это работы Лучано Флориди (1999, 2002, 2003, 2010b, 2011b) и совместные работы Флориди и Джеффа В. Сандерса (1999, 2001, 2004). Флориди (1999) признает, что вопросы, связанные с этическим влиянием информационных технологий, оказывают давление на наши традиционные моральные теории.

Чтобы ослабить это напряжение, необходимо расширить философию информации (2002). Сделав этот шаг, он заявил (2003), что информация — это полноправная среда, которая существует сама по себе и имеет собственную внутреннюю ценность, с одной стороны, аналогичную природной среде, а с другой — радикально от нее отличающуюся. Однако в любом случае информация сама по себе является вещью, заслуживающей моральной оценки. Флориди (2003) использовал эти идеи, чтобы создать теоретическую модель морального действия с помощью логики объектно-ориентированного программирования. 

Его модель состоит из семи компонентов: 1) моральный агент a, 2) объект воздействия морали p, 3) взаимодействия этих субъектов, 4) структура информации агента, 5) фактическая информация, доступная агенту с учетом ситуации, которую он пытается разрешить, 6) среда, в которой происходит взаимодействие, и 7) ситуация, в рамках которой происходит взаимодействие (Флориди, 2003, 3). Обратите внимание, что ничего не сказано об онтологии субъектов, участвующих в моделируемой моральной взаимосвязи (Саллинс, 2009a).

Можно ознакомиться с дополнительной литературой, содержащей критику и расширение идеи автоматизированного морального мышления (Адам, 2008; Андерсон и Андерсон, 2011; Джонсон и Пауерс, 2008; Шмидт, 2007; Уоллах и Аллен, 2010). Тогда как ученые признают, что у нас есть еще немного времени до создания информационной технологии, которая будет безоговорочно признана искусственным моральным агентом, имеются весомые теоретические аргументы в пользу этой потенциальной возможности, и, следовательно, они являются предметом беспокойства для тех, кто интересуется моральным влиянием информационных технологий.

Библиография

  1. Adam, A., 2002, “Cyberstalking and Internet pornography: Gender and the gaze,” Ethics and Information Technology, 4(2): 133–142.
  2. –––, 2008, “Ethics for things,” Ethics and Information technology, 10(2–3): 149–154.
  3. American Academy of Pediatrics, 2018, “Children and Media Tips from the American Academy of Pediatrics,” May 1, available online.
  4. Anderson, M. and S. L. Anderson (eds.), 2011, Machine Ethics, Cambridge: Cambridge University Press.
  5. Arkin, R., 2009, Governing Lethal Behavior in Autonomous Robots, New York: Chapman and Hall/CRC.
  6. Arquilla, J., 2010, “Conflict, Security and Computer Ethics,” in Floridi 2010a.
  7. Asaro, P., 2008. “How Just Could a Robot War Be?” in Philip Brey, Adam Briggle and Katinka Waelbers (eds.), Current Issues in Computing And Philosophy, Amsterdam, The Netherlands: IOS Press, pp. 50–64.
  8. –––, 2009. “Modeling the Moral User: Designing Ethical Interfaces for Tele-Operation,” IEEE Technology & Society, 28(1): 20–24.
  9. Au-Yeung A., 2018. “Why Investors Remain Bullish On Facebook in Day Two Of Zuckerberg’s Congressional Hearnings,”Forbes, April 11, available online.
  10. Aycock, J. and J. Sullins, 2010, “Ethical Proactive Threat Research,” Workshop on Ethics in Computer Security Research (LNCS 6054), New York: Springer, pp. 231–239.
  11. Bartell, C., 2011, “Resolving the gamer’s dilemma,” Ethics and Information Technology, 14(1):11–16.
  12. Baase, S., 2008, A Gift of Fire: Social, Legal, and Ethical Issues for Computing and the Internet, Englewood Cliffs, NJ: Prentice Hall.
  13. BBC, 2014, “Computer AI passes Turing test in ‘world first’,” BBC Technology [available online]
  14. Bedau, M., 2004, “Artificial Life,” in Floridi 2004.
  15. Bedau, M. and E. Parke (eds.), 2009, The Ethics of Protocells: Moral and Social Implications of Creating Life in the Laboratory, Cambridge: MIT Press.
  16. Bedau, M. and M. Traint, 2009, “Social and Ethical Implications of Creating Artificial Cells,” in Bedau and Parke 2009.
  17. Bostrom, N., 2008, “Why I Want to be a Posthuman When I Grow Up,” in Medical Enhancement and Posthumanity, G. Gordijn and R. Chadwick (eds), Berlin: Springer, pp. 107–137.
  18. Brey, P., 2008, “Virtual Reality and Computer Simulation,” in Himma and Tavanni 2008
  19. –––, 2010, “Values in Technology and Disclosive Computer Ethics,” in Floridi 2010a.
  20. Bunge, M. 1977, “Towards a Technoethics,” The Monist, 60(1): 96–107.
  21. Bynum, T., 2000, “Ethics and the Information Revolution,” Ethics in the Age of Information Technology, pp. 32–55, Linköping, Sweden: Center for Applied Ethics at Linköping University.
  22. –––, 2008, “Norbert Wiener and the Rise of Information Ethics,” in van den Hoven and Weckert 2008.
  23. Capurro, R., Nagenborg, M., 2009, Ethics and Robotics, [CITY]: IOS Press
  24. Christakis, D. A., 2009, “The effects of infant media usage: what do we know and what should we learn?” Acta Pædiatrica, 98 (1): 8–16.
  25. Cisco Systems, Inc., 2018, Cisco 2018 Annual Security Report: Small and Mighty: How Small and Midmarket Businesses Can Fortify Their Defenses Against Today’s Threats, San Jose, CA: Cisco Systems Inc. [available online]
  26. Coeckelbergh, M., 2007, “Violent Computer Games, Empathy, and Cosmopolitanism,” Ethics and Information Technology, 9(3): 219–231
  27. Cohen, D. D., C. Voss, M. J. D. Taylor, A. Delextrat, A. A. Ogunleye, and G. R. H. Sandercock, 2011, “Ten-year secular changes in muscular fitness in English children,” Acta Paediatrica, 100(10): e175–e177.
  28. Danielson, P., 1998, Modeling Rationality, Morality, and Evolution, Oxford: Oxford University Press.
  29. Dabringer, G., (ed.) 2010, Ethica Themen: Ethical and Legal Aspects of Unmanned Systems, Interviews, Vienna, Austria: Austrian Ministry of Defence and Sports. [available online]
  30. Denning, D., 2008, “The Ethics of Cyber Conflict,” In Himma and Tavanni 2008.
  31. Dodig-Crnkovic, G., Hofkirchner, W., 2011, “Floridi’s ‘Open Problems in Philosophy of Information’, Ten Years Later,” Information, (2): 327–359. [available online]
  32. Edgar, S.L., 2003, Morality and Machines, Sudbury Massachusetts: Jones and Bartlett.
  33. Epstein, R., 2007, “The Impact of Computer Security Concerns on Software Development,” in Himma 2007a, pp. 171–202.
  34. Epstein, L.S. 1980. “Decision-making and the temporal resolution of uncertainty”. International Economic Review 21 (2): 269–283.
  35. Ess, C., 2009, Digital Media Ethics, Massachusetts: Polity Press.
  36. Facebook, Inc., 2012, Form S-1: Registration Statement, filed with the United States Securities and Exchange Commission, Washington, DC, available online.
  37. Floridi, L., 1999, “Information Ethics: On the Theoretical Foundations of Computer Ethics”, Ethics and Information Technology, 1(1): 37–56.
  38. –––, 2002, “What is the Philosophy of Information?” in Metaphilosophy, 33(1/2): 123–145.
  39. –––, 2003, “On the Intrinsic Value of Information Objects and the Infosphere,” Ethics and Information Technology, 4(4): 287–304.
  40. –––, 2004, The Blackwell Guide to the Philosophy of Computing and Information, Blackwell Publishing.
  41. ––– (ed.), 2010a, The Cambridge Handbook of Information and Computer Ethics, Cambridge: Cambridge University Press.
  42. –––, 2010b, Information: A Very Short Introduction, Oxford: Oxford University Press.
  43. –––, 2011a, “Enveloping the World for AI,” The Philosopher’s Magazine, 54: 20–21
  44. –––, 2011b, The Philosophy of Information, Oxford: Oxford University Press.
  45. –––, 2016, “Should We be Afraid of AI?”, Neigel Warburton (ed.), Aeon, 09 May 2016, available online.
  46. Floridi, L. and J. W. Sanders, 1999, “Entropy as Evil in Information Ethics,” Etica & Politica, special issue on Computer Ethics, I(2). [available online]
  47. –––, 2001, “Artificial evil and the foundation of computer ethics,” in Ethics and Information Technology, 3(1): 55–66. [available online]
  48. –––, 2004, “On the Morality of Artificial Agents,” in Minds and Machines, 14(3): 349–379 [available online]
  49. Furguson, C. J., 2007, “The Good The Bad and the Ugly: A Meta-analytic Review of Positive and Negative Effects of Violent Video Games,” Psychiatric Quarterly, 78(4): 309–316.
  50. Gelernter, D., 2007, “Artificial Intelligence Is Lost in the Woods,” Technology Review, July/August, pp. 62–70. [available online]
  51. Gibba, G. D., J. R. Baileya, T. T. Lambirtha, and W. Wilsona, 1983, “Personality Differences Between High and Low Electronic Video Game Users,” The Journal of Psychology, 114(2): 159–165.
  52. Grim, P., 2004, “Computational Modeling as a Philosophical Methodology,” In Floridi 2004.
  53. Grim, P., G. Mar, and P. St. Denis, 1998, The Philosophical Computer: Exploratory Essays in Philosophical Computer Modeling, MIT Press.
  54. Grodzinsky, F. S. and H. T. Tavani, 2002, “Ethical Reflections on Cyberstalking,” Computers and Society, 32(1): 22–32.
  55. Hansen, R. and J. Grossman, 2008, “Clickjacking,” SecTheory: Internet Security. [available online]
  56. Hickman, L. A. 1990, John Dewey’s Pragmatic Technology, Bloomington, Indiana: Indiana University Press.
  57. Himma, K. E. (ed.), 2007a, Internet Security, Hacking, Counterhacking, and Society, Sudbury Massachusetts: Jones and Bartlett Publishers.
  58. Himma, K. E., 2007b, “Hacking as Politically Motivated Digital Civil Disobedience: Is Hacktivisim Morally Justified?” In Himma 2007a, pp. 73–98.
  59. Himma, K. E., and H. T. Tavanni (eds.), 2008, The Handbook of Information and Computer Ethics, Wiley-Interscience; 1st edition
  60. Hongladarom, S., 2008, “Privacy, Contingency, Identity and the Group,”Handbook of Research on Technoethics. Vol. II, R. Luppicini and Rebecca Adell Eds. Hershey, PA: IGI Global, pp. 496–511.
  61. IEEE 2018, “Ethically Aligned Design: The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”, IEEE [available online ]
  62. Ivory, J. D., 2006, “Still a Man’s Game: Gender Representation in Online Reviews of Video Games,” Mass Communication and Society, 9(1): 103–114.
  63. Johansson, M., 2009, “Why unreal punishments in response to unreal crimes might actually be a really good thing,” Ethics and Information Technology, 11(1): 71–79
  64. Johnson, D.G., 1985, Computer Ethics, Englewood Cliffs, New Jersey: Prentice Hall. (2nd ed., 1994; 3rd ed., 2001; 4th ed., 2009).
  65. Johnson D. G., and T. Powers, 2008, “Computers and Surrogate Agents,” In van den Hoven and Weckert 2008.
  66. Jones, T., 2011, “Techno-toddlers: A is for Apple,” The Guardian, Friday November 18. [available online ]
  67. Kaspersky Lab, 2017, Kaspersky Security Bulletin: KASPERSKY LAB THREAT PREDICTIONS FOR 2018,Moscow, Russia: Kaspersky Lab ZAO. [available online]
  68. Keen, A., 2011, “Your Life Torn Open, Essay 1: Sharing is a trap,” Wired, 03 Feb 2011, available online.
  69. Kurzweil, R., 2006, The Singularity is Near, New York: Penguin Press.
  70. Langton, C. G., (ed.), 1989, Artificial Life: the Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems, Redwood City: Addison-Wesley.
  71. Ledin G., 2005, “Not Teaching Viruses and Worms is Harmful” Communications of the ACM , 48(1): 144.
  72. Lessig, L., 1999, Code and Other Values of Cyberspace, New York: Basic Books.
  73. Levy, S., 1984, Hackers: Heroes of the Computer Revolution, New York: Anchor Press.
  74. Lin P., 2010, “Ethical Blowback from Emerging Technologies”, Journal of Military Ethics, 9(4): 313–331.
  75. Lin, P., K. Abney, and R. Jenkins, 2017, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, Oxford: Oxford University Press.
  76. Lin, P., K. Abney, and G. Bekey, 2012, Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, MA: MIT Press.
  77. –––2013, “Ethics, War, and Robots”, Ethics and Emerging Technologies, London: Palgrave–Macmillan.
  78. Lin, P., G. Bekey, and K. Abney, 2008, Autonomous Military Robotics: Risk, Ethics, and Design, Washington, DC: U.S. Department of the Navy, Office of Naval Research. [available online]
  79. Lovely, E., 2010, “Cyberattacks explode in Congress,” Politico, March 5, 2010. [available online]
  80. Lü, Yao-Hui, 2005, “Privacy and Data Privacy Issues in Contemporary China,” Ethics and Information Technology, 7(1): 7–15
  81. Ludlow, P. and M. Wallace, 2007, The Second Life Herald: The Virtual Tabloid that Witnessed the Dawn of the Metaverse, Cambridge, MA: MIT Press.
  82. Luck, M., 2009, “The gamer’s dilemma: An analysis of the arguments for the moral distinction between virtual murder and virtual paedophilia,” Ethics and Information Technology, 11(1): 31–36.
  83. Luppicini, R. and R. Adell (eds.), 2009, Handbook of Research on Technoethics, Idea Group Inc. (IGI).
  84. Magnani, L., 2007, Morality in a Technological World: Knowledge as Duty, Cambridge, Cambridge University Press.
  85. Mason, R. O., 1986, Four ethical issues of the information age. MIS Quarterly, 10(1): 5–12.
  86. Markoff, J., 2005, What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer Industry, New York: Penguin.
  87. Manion, M. and A. Goodrum, 2007, “Terrorism or Civil Disobedience: Toward a Hacktivist Ethic,” in Himma 2007a, pp. 49–59.
  88. McAfee, 2018, Economic Impact of Cybercrime: No Slowing Down, Report [available online]
  89. McMahon, J. M. and R. Cohen, 2009, “Lost in cyberspace: ethical decision making in the online environment,” Ethics and Information technology, 11(1): 1–17.
  90. Midgley, M., 1992, Science as Salvation: a modern myth and its meaning, London: Routledge.
  91. Moor, J. H., 1985, “What is Computer Ethics?” Metaphilosophy, 16(4): 266–275.
  92. –––, 2005, “Why We Need Better Ethics for Emerging Technologies,” Ethics and Information Technology, 7(3): 111–119. Reprinted in van den Hoven and Weckert 2008, pp. 26–39.
  93. Moore, Gordon E. 1965. “Cramming more components onto integrated circuits”. Electronics, 38(8): 114–117. [available online]
  94. Neumann, P. G., 2004, “Computer security and human values,” Computer Ethics and Professional Responsibility, Malden, MA: Blackwell
  95. Nissenbaum, H., 1997. “Toward an Approach to Privacy in Public: Challenges of Information Technology,” Ethics and Behavior, 7(3): 207–219. [available online]
  96. –––, 1998. “Values in the Design of Computer Systems,” Computers and Society, March: pp. 38–39. [available online]
  97. –––, 1999, “The Meaning of Anonymity in an Information Age,” The Information Society, 15: 141–144.
  98. –––, 2009, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford Law Books: Stanford University Press.
  99. Northcutt, S. and C. Madden, 2004, IT Ethics Handbook: Right and Wrong for IT Professionals, Syngress.
  100. O’Neil, O., 2002, “Trust is the first casualty of the cult of transparency,” The Telegraph, 24 April, available online.
  101. O’Reilly, T., 2007 [2005], “What is Web 2.0: Design Patterns and Business Models for the Next Generation of Software,” Communications & Strategies, 65(1): 17–37; available online. [The earlier, 2005 version, is linked into the Other Internet Resources section below.]
  102. Parrish, J., 2010, “PAPA knows best: Principles for the ethical sharing of information on social networking sites,” Ethics and Information Technology, 12(2): 187–193.
  103. Pettit, P., 2009, “Trust, Reliance, and the Internet,” In van den Hoven and Weckert 2008.
  104. Plaw, A. 2013, “Counting the Dead: The Proportionality of Predation in Pakistan,” In Strawser 2013.
  105. Planned Parenthood, 2017, “New Study Shows Virtual Reality Can Move People’s Views on Abortion and Clinic Harassment,” [available online]
  106. Plato, “Phaederus,” in Plato: The Collected Dialogues, E. Hamilton and H. Cairns (eds.), Princeton: Princeton University Press, pp. 475–525.
  107. Poushter J., 2016, “Smartphone Ownership and Internet Usage Continues to Climb in Emerging Economies: But advanced economies still have higher rates of technology use,” Pew Research Center, 22 February 2018 [available online]
  108. Powers, T., 2011, “Prospects for a Kantian Machine,” in Anderson and Anderson 2011.
  109. Purcell, M., 2008, “Pernicious virtual communities: Identity, polarisation and the Web 2.0,” Ethics and Information Technology, 10(1): 41–56.
  110. Reynolds, G., 2009, Ethics in Information Technology, (3rd ed.), Course Technology.
  111. Russell, S. and P. Norvig, 2010, Artificial Intelligence: A Modern Approach, (3rd ed.), Massachusetts: Prentice Hall.
  112. Schmidt, C. T. A., 2007, “Children, Robots and… the Parental Role,” 17(3): 273–286.
  113. Schulzke, M., 2010, “Defending the Morality of Violent Video Games,” Ethics and Information Technology, 12(2): 127–138.
  114. Searle, J., 1980, “Minds, Brains, and Programs,” Behavioral and Brain Sciences, 3: 417–57.
  115. Shannon, C.E., 1948, “A Mathematical Theory of Communication”, Bell System Technical Journal, 27(July, October): 379–423, 623–656. [available online]
  116. Shannon, C. E. and W. Weaver, 1949, The Mathematical Theory of Communication, University of Illinois Press.
  117. Sharkey, N.E. 2011, “The automation and proliferation of military drones and the protection of civilians,” Journal of Law, Innovation and Technology, 3(2): 229–240.
  118. Singer, P. W., 2009, Wired for War:The Robotics Revolution and Conflict in the 21st Century, Penguin (Non-Classics); Reprint edition.
  119. Siraj-Blatchford, J., 2010, “Analysis: ‘Computers Benefit Children’,” Nursery World, October 6. [available online]
  120. Soukup, C., 2007, “Mastering the Game: Gender and the Entelechial Motivational System of Video Games,” Women’s Studies in Communication, 30(2): 157–178.
  121. Søraker, Johnny Hartz, 2012, “How Shall I Compare Thee? Comparing the Prudential Value of Actual Virtual Friendship,” Ethics and Information technology, 14(3): 209–219. doi:10.1007/s10676-012-9294-x [available online]
  122. Spafford, E.H., 1992, “Are computer hacker break-ins ethical?” Journal of Systems and Software 17(1):41–47.
  123. –––, 2007, “Are Computer Hacker Break-ins Ethical?” in Himma 2007a, pp. 49–59.
  124. Spinello, R. A., 2001, Cyberethics, Sudbury, MA: Jones and Bartlett Publishers. (2nd ed., 2003; 3rd ed., 2006; 4th ed., 2010).
  125. –––, 2002, Case Studies in Information Technology Ethics, Prentice Hall. (2nd ed.).
  126. Sprenger P., 1999, “Sun on Privacy: ‘Get Over It’,” Wired, January 26, 1999. [available online]
  127. Statista, 2018, “Number of social media users worldwide from 2010 to 2021 (in billions)”, [available online].
  128. Strawser, B.J., 2013, Killing by Remorte Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press.
  129. Sullins, J. P., 2000, “Transcending the meat: immersive technologies and computer mediated bodies,” Journal of Experimental and Theoretical Artificial Intelligence, 12(1): 13–22.
  130. –––, 2005, “Ethics and Artificial life: From Modeling to Moral Agents,” Ethics and Information technology, 7(3): 139–148. [available online]
  131. –––, 2006, “When Is a Robot a Moral Agent?” International Review of Information Ethics, 6(12): 23–30. [available online]
  132. –––, 2009a, “Artificial Moral Agency in Technoethics,” in Luppicini and Adell 2009.
  133. –––, 2009b, “Telerobotic weapons systems and the ethical conduct of war,” APA Newsletter on Philosophy and Computers, P. Boltuc (ed.) 8(2): 21.
  134. –––, 2010, “Rights and Computer Ethics,” in Floridi 2010a.
  135. –––, forthcoming, “Deception and Virtue in Robotic and Cyber Warfare,” Presentation for the Workshop on The Ethics of Informational Warfare, at University of Hertfordhire, UK, July 1–2 2011
  136. Symantec, 2018, Internet Security Threat Report (ISTR), Symantec Security Response, [available online]
  137. Tavani, H. T., 2007, “The Conceptual and Moral Landscape of Computer Security,” in Himma 2007a, pp. 29–45.
  138. –––, 2010, Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing, (3rd ed.), Wiley.
  139. Tavani, H. and J. Moor, 2004, “Privacy Protection, Control of Information, and Privacy-Enhancing Technologies,” in Readings in Cyberethics, second edition, Spinello, R. and Tavani, H. (eds.), Sudsbury: Jones and Bartlett.
  140. Taylor, N., J. Jensona, and S. de Castellb, 2009. “Cheerleaders/booth babes/ Halo hoes: pro-gaming, gender and jobs for the boys,” Digital Creativity, 20(4): 239–252.
  141. Turing, A. M., 1948, “Machine Intelligence”, in B. Jack Copeland, The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press.
  142. –––, 1950, “Computing Machinery and Intelligence”, Mind, 59(October): 433–460. [available online]
  143. Vallor, S., 2010, “Social Networking Technology and the Virtues,” Ethics and Information Technology, 12(2, Jan. 6): 157–170.
  144. –––, 2011, “Flourishing on Facebook: Virtue Friendship and New Social Media,” Ethics and Information technology, 1388–1957, pp. 1–15, Netherlands: Springer.
  145. –––, 2016, Technology and the Virtues: A Philosophical Guide to a Future worth Wanting, Oxford: Oxford University Press.
  146. Van den Hoven, J. and J. Weckert (eds), 2008, Information Technology and Moral Philosophy, Cambridge: Cambridge University Press.
  147. Von Neumann, J., 1966, Theory of Self Reproducing Automata, edited and completed by A. Burks, Urbana-Champaign: University of Illinois Press.
  148. Wallach, W., 2011. From Robots to Techno Sapiens: Ethics, Law and Public Policy in the Development of Robotics and Neurotechnologies, Law, Innovation and Technology, 3(2): 185–207.
  149. Wallach, W. and C. Allen, 2010, Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press.
  150. Warschauer, M., 2003, Technology and Social Inclusion: Rethinking the Digital Divide, Cambridge: MIT Press.
  151. Weckert, John, 2007, “Giving and Taking Offence in a Global Context,” International Journal of Technology and Human Interaction, 3(3): 25–35.
  152. Westin, A., 1967, Privacy and Freedom, New York: Atheneum.
  153. Wiener, N., 1950,The Human Use of Human Beings, Cambridge, MA: The Riverside Press (Houghton Mifflin Co.).
  154. –––, 1961, Cybernetics: Or Control and Communication in the Animal and the Machine, 2nd revised ed., Cambridge: MIT Press. First edition, 1948.
  155. Woodbury, M. C., 2010, Computer and Information Ethics, 2nd edition; 1st edition, 2003, Champaign, IL: Stipes Publishing LLC.
Поделиться статьей в социальных сетях: