Исследовательская этика традиционно также включала такие темы, как научное мошенничество и распределение кредитов. Они более подробно обсуждаются в разделе « О науке » Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Ситуация в этой главе сильно зависит от ситуации в Соединенных Штатах. Подробнее о процедурах этического анализа в других странах см. В главах 6-9 « Desposato (2016b) . Для аргументации, что биомедицинские этические принципы, которые повлияли на эту главу, чрезмерно американы, см. Holm (1995) . Для дальнейшего исторического обзора комиссий по институциональному обзору в Соединенных Штатах см. Stark (2012) . Журнал PS: Политология и политика провели профессиональный симпозиум по вопросу о взаимосвязи между политологами и IRB; см. Martinez-Ebers (2016) для резюме.
Отчет Белмонт и последующие правила в Соединенных Штатах, как правило, проводят различие между исследованиями и практикой. Я не сделал такого различия в этой главе, потому что я считаю, что этические принципы и рамки применимы к обеим установкам. Более подробно об этом различии и проблемах, которые он представляет, см. Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) и Metcalf and Crawford (2016) .
Более подробно об исследованиях в Facebook см. Jackman and Kanerva (2016) . За идеями о надзоре за исследованиями в компаниях и НПО см. Calo (2013) , Polonetsky, Tene, and Jerome (2015) , Tene and Polonetsky (2016) .
Что касается использования данных мобильных телефонов для содействия вспышке Ebola в 2014 году в Западной Африке (Wesolowski et al. 2014; McDonald 2016) , то для получения дополнительной информации о рисках конфиденциальности данных мобильных телефонов см. Mayer, Mutchler, and Mitchell (2016) . Примеры ранних исследований, связанных с кризисом, с использованием данных мобильных телефонов, см. Bengtsson et al. (2011) и Lu, Bengtsson, and Holme (2012) , а также более подробно об этике исследований, связанных с кризисом, см. ( ??? ) .
Многие люди писали об эмоциональном заражении. Журнал Research Ethics посвятил весь свой вопрос в январе 2016 года обсуждению эксперимента; см. Hunter and Evans (2016) для обзора. В Трудах национальных Kahn, Vayena, and Mastroianni (2014) наук были опубликованы две статьи об эксперименте: Kahn, Vayena, and Mastroianni (2014) Fiske and Hauser (2014) . Другие части около эксперимента включают в себя: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) , и ( ??? ) .
Что касается массового наблюдения, то широкие обзоры представлены в Mayer-Schönberger (2009) и Marx (2016) . Для конкретного примера изменения расходов на эпиднадзор Bankston and Soltani (2013) считают, что отслеживание подозреваемого в уголовном преступлении с использованием мобильных телефонов примерно в 50 раз дешевле, чем использование физического наблюдения. См. Также Ajunwa, Crawford, and Schultz (2016) для обсуждения наблюдения за работой. Bell and Gemmell (2009) обеспечивают более оптимистичную перспективу самоконтроля.
Помимо возможности отслеживать наблюдаемое поведение, которое является публичным или частично общедоступным (например, Tastes, Ties и Time), исследователи могут все чаще определять, что многие участники считают приватными. Например, Михал Косински и его коллеги (2013) показали, что они могут вывести конфиденциальную информацию о людях, такую как сексуальная ориентация и использование привыкающих веществ, от, казалось бы, обычных цифровых данных трассировки (Facebook Likes). Это может показаться волшебным, но подход Косински и его коллег, которые комбинировали цифровые следы, опросы и контролируемое обучение, - это то, о чем я уже говорил вам. Напомним, что в главе 3 (задание вопросов). Я рассказал вам, как Джошуа Блюменсток и его коллеги (2015) объединили данные обследований с данными мобильных телефонов для оценки бедности в Руанде. Этот точный подход, который может быть использован для эффективного измерения уровня бедности в развивающейся стране, также может быть использован для потенциального нарушения конфиденциальности.
Более подробно о возможных непреднамеренных вторичных использовании данных о здоровье см. O'Doherty et al. (2016) . В дополнение к потенциальным непредсказуемым вторичным потребностям создание даже неполной базы данных-получателя могло бы оказать холодное воздействие на социальную и политическую жизнь, если бы люди не захотели прочитать определенные материалы или обсудить определенные темы; см. Schauer (1978) и Penney (2016) .
В ситуациях с перекрывающимися правилами исследователь иногда занимается «регулированием покупок» (Grimmelmann 2015; Nickerson and Hyde 2016) . В частности, некоторые исследователи, которые хотят избежать контроля IRB, могут создавать партнерские отношения с исследователями, которые не охвачены IRB (например, люди в компаниях или НПО), и эти коллеги собирают и деидентифицируют данные. Затем исследователь, охваченный IRB, может анализировать эти деидентифицированные данные без контроля IRB, потому что исследование больше не рассматривается как «исследование человеческих предметов», по крайней мере, согласно некоторым интерпретациям действующих правил. Такое уклонение от IRB, вероятно, не согласуется с основанным на принципах подходом к этике исследований.
В 2011 году началось обновление Общего правила, и этот процесс был завершен в 2017 году ( ??? ) . Более подробно об этих усилиях по обновлению Общего правила см. Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) и Metcalf (2016) .
Классический основанный на принципах подход к биомедицинской этике - это метод Beauchamp and Childress (2012) . Они предлагают, чтобы четыре основных принципа должны руководствоваться биомедицинской этикой: уважение к автономии, немощи, бенефициару и справедливости. Принцип немолости побуждает человека воздерживаться от причинения вреда другим людям. Эта концепция глубоко связана с идеей Гиппократа «Не навреди». В этике исследований этот принцип часто сочетается с принципом бенефициара, но см. Главу 5 of @ beauchamp_principles_2012 для более подробного различия между ними. Для критики, что эти принципы чрезмерно американские, см. Holm (1995) . Более подробно о балансировании, когда конфликтуют принципы, см. Gillon (2015) .
Было также предложено четыре принципа в этой главе, чтобы руководствоваться этическим надзором за исследованиями, проводимыми в компаниях и НПО (Polonetsky, Tene, and Jerome 2015) через органы, называемые «Потребительские тематические обзоры» (CSRB) (Calo 2013) .
Помимо уважения к автономии, в докладе Бельмона также признается, что не каждый человек способен на истинное самоопределение. Например, дети, люди, страдающие от болезни, или люди, живущие в ситуациях строго ограниченной свободы, не могут действовать как полностью автономные люди, и поэтому эти люди подлежат дополнительной защите.
Применение принципа «Уважение к людям в цифровом веке» может быть сложным. Например, в исследованиях в цифровом возрасте может быть сложно обеспечить дополнительную защиту для людей с ограниченной способностью к самоопределению, потому что исследователи часто очень мало знают об их участниках. Кроме того, осознанное согласие в социальных исследованиях в цифровом возрасте является огромной проблемой. В некоторых случаях подлинно информированное согласие может страдать от парадоксальности прозрачности (Nissenbaum 2011) , где информация и понимание находятся в конфликте. Грубо говоря, если исследователи предоставят полную информацию о характере сбора данных, анализе данных и методах обеспечения безопасности данных, многим участникам будет сложно понять. Но если исследователи предоставляют понятную информацию, у нее могут не быть важных технических деталей. В медицинских исследованиях в аналоговом возрасте - доминирующей настройке, рассматриваемой в отчете Белмонта, можно представить, что врач разговаривает индивидуально с каждым участником, чтобы помочь разрешить парадокс прозрачности. В онлайн-исследованиях, в которых участвуют тысячи или миллионы людей, такой подход лицом к лицу невозможно. Вторая проблема с согласием в эпоху цифровых технологий заключается в том, что в некоторых исследованиях, таких как анализ массивных хранилищ данных, было бы нецелесообразно получать информированное согласие от всех участников. Я более подробно обсужу эти и другие вопросы об информированном согласии в разделе 6.6.1. Однако, несмотря на эти трудности, мы должны помнить, что информированное согласие не является ни необходимым, ни достаточным для уважения к лицам.
Более подробно о медицинских исследованиях до получения информированного согласия см. Miller (2014) . Для учета информированного согласия в книжной форме см. Manson and O'Neill (2007) . См. Также предлагаемые показания об информированном согласии ниже.
Вред на контекст - это вред, который исследования могут причинить не конкретным людям, а социальным условиям. Эта концепция немного абстрактна, но я проиллюстрирую классический пример: исследование жюри Уичита (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) также иногда называемое проектом Chicago Jury Project (Cornwell 2010) . В этом исследовании исследователи из Чикагского университета, как часть более широкого изучения социальных аспектов правовой системы, тайно записали шесть обсуждений в жюри в Уичите, штат Канзас. Судьи и адвокаты по делам утвердили записи, и был строго контролирован этот процесс. Однако присяжные не знали, что записи происходят. Как только исследование было обнаружено, было публичное возмущение. Отдел юстиции начал исследование исследования, и исследователи были призваны давать показания перед Конгрессом. В конечном счете, Конгресс принял новый закон, который запрещает тайно записывать присяжные.
Озабоченность критиков исследования Жюри Уичита была не риском нанесения вреда участникам; скорее, это был риск причинения вреда контексту обсуждения присяжных. То есть, люди думали, что, если члены жюри не верят, что они проводят обсуждения в безопасном и защищенном пространстве, было бы труднее обсуждать жюри в будущем. В дополнение к обсуждению присяжных существуют другие конкретные социальные условия, которые общество предоставляет с помощью дополнительной защиты, таких как отношения адвоката и клиента и психологическая помощь (MacCarthy 2015) .
Риск вреда для контекста и нарушения социальных систем также возникает в некоторых полевых экспериментах в политической науке (Desposato 2016b) . Для примера более контекстно-зависимого расчета затрат и выгод для полевого эксперимента в политической науке см. Zimmerman (2016) .
Компенсация для участников обсуждалась в ряде настроек, связанных с исследованиями цифрового возраста. Lanier (2014) предлагает заплатить участникам за цифровые следы, которые они генерируют. Bederson and Quinn (2011) обсуждают платежи на онлайн-рынках труда. Наконец, Desposato (2016a) предлагает платить участникам полевых экспериментов. Он указывает, что даже если участники не могут быть выплачены напрямую, пожертвование может быть сделано группе, работающей от их имени. Например, в Encore исследователи могли сделать пожертвование группе, работающей над поддержкой доступа в Интернет.
Соглашения об условиях предоставления услуг должны иметь меньший вес, чем договоры, заключенные между равными сторонами, и законы, созданные законными правительствами. Ситуации, в которых исследователи в прошлом нарушали соглашения о предоставлении услуг, обычно включали автоматические запросы для аудита поведения компаний (так же как полевые эксперименты для измерения дискриминации). Дополнительные обсуждения см. В Vaccaro et al. (2015) , Bruckman (2016a) и Bruckman (2016b) . Пример эмпирического исследования, в котором обсуждаются условия обслуживания, см. Soeller et al. (2016) . Более подробно о возможных юридических проблемах, с которыми сталкиваются исследователи, если они нарушают условия обслуживания, см. Sandvig and Karahalios (2016) .
Очевидно, огромное количество было написано о косвенности и деонтологии. Пример того, как эти этические рамки и другие могут быть использованы для обоснования исследований цифрового времени, см. Zevenbergen et al. (2015) . Пример того, как они могут быть применены к полевым экспериментам в экономике развития, см. Baele (2013) .
Более подробно о аудиторских исследованиях дискриминации см. Pager (2007) и Riach and Rich (2004) . Мало того, что эти исследования не имеют информированного согласия, они также включают в себя обман без разбора.
Оба Desposato (2016a) и Humphreys (2015) предлагают консультации о полевых экспериментах без согласия.
Sommers and Miller (2013) рассматривают многие аргументы в пользу не дебрифинга участников после обмана и утверждают, что исследователи должны отказаться от дебрифинга
«При очень узком круге обстоятельств, а именно в полевых исследованиях, в которых дебрифинг создает значительные практические барьеры, но исследователи не будут испытывать никаких угрызений совести, если смогут. Исследователям не следует отказываться от дебрифинга, чтобы сохранить наивный пул участников, оградить себя от гнева участника или защитить участников от вреда ».
Другие утверждают, что в некоторых ситуациях, если дебрифинг причиняет больше вреда, чем пользы, его следует избегать (Finn and Jakobsson 2007) . Разбор полетов - это случай, когда некоторые исследователи уделяют первоочередное внимание уважению лиц, живущих за бенефициария, тогда как некоторые исследователи делают обратное. Одним из возможных решений было бы найти способы сделать опрос опытом для участников. То есть, вместо того, чтобы думать о дебрифинге как о чем-то, что может нанести вред, возможно, дебрифинг может быть тем, что приносит пользу участникам. Пример такого рода образовательного Jagatic et al. (2007) см. Jagatic et al. (2007) . Психологи разработали методики дебрифинга (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , и некоторые из них могут быть с пользой применимы к исследованиям цифрового возраста. Humphreys (2015) предлагает интересные мысли о отложенном согласии , которое тесно связано с описанной мной стратегией дебрифинга.
Идея просить выборку участников для их согласия связана с тем, что Humphreys (2015) называет предполагаемым согласием .
Еще одна идея, связанная с осознанным согласием, которая была предложена, заключается в создании группы людей, которые согласны быть в онлайн-экспериментах (Crawford 2014) . Некоторые утверждают, что эта группа будет неслучайным образцом людей. Но глава 3 (задание вопросов) показывает, что эти проблемы потенциально могут быть устранены с помощью постстратификации. Кроме того, согласие на участие в этой группе могло бы охватывать различные эксперименты. Другими словами, участникам, возможно, не нужно было соглашаться на каждый эксперимент индивидуально, что называется широким согласием (Sheehan 2011) . Более подробно о различиях между одноразовым соглашением и соглашением для каждого исследования, а также возможным гибридом см. Hutton and Henderson (2015) .
В отличие от уникальной, Приз Netflix иллюстрирует важное техническое свойство наборов данных, которые содержат подробную информацию о людях, и, таким образом, дает важные уроки о возможности «анонимизации» современных социальных наборов данных. Файлы со многими сведениями о каждом человеке, вероятно, будут скудными , в смысле, определенном формально в Narayanan and Shmatikov (2008) . То есть для каждой записи нет одинаковых записей, и на самом деле нет очень похожих записей: каждый человек находится далеко от своего ближайшего соседа в наборе данных. Можно представить, что данные Netflix могут быть скудными, потому что около 20 000 фильмов в пятизвездном масштабе имеют около \(6^{20,000}\) возможных значений, которые могут иметь каждый человек (6, поскольку, кроме 1 5 звезд, кто-то, возможно, не оценил фильм вообще). Этот номер настолько велик, его трудно даже понять.
Сокращение имеет два основных значения. Во-первых, это означает, что попытка «анонимизировать» набор данных, основанный на случайном возмущении, скорее всего, не удастся. То есть, даже если Netflix будет произвольно корректировать некоторые рейтинги (что они и сделали), этого будет недостаточно, потому что возмущенная запись по-прежнему является самой близкой записью к информации, которую имеет атакующий. Во-вторых, разреженность означает, что повторная идентификация возможна, даже если злоумышленник обладает несовершенными или беспристрастными знаниями. Например, в данных Netflix давайте представим, что злоумышленник знает ваши рейтинги для двух фильмов и даты, когда вы делали эти рейтинги \(\pm\) 3 дня; только одной информации достаточно, чтобы однозначно идентифицировать 68% людей в данных Netflix. Если злоумышленник знает восемь фильмов, которые вы оценили \(\pm\) 14 дней, то даже если два из этих известных рейтингов полностью ошибочны, 99% записей могут быть однозначно идентифицированы в наборе данных. Другими словами, разреженность является фундаментальной проблемой для усилий по «анонимизации» данных, что является неудачным, поскольку большинство современных социальных наборов данных являются скудными. Более подробно о «анонификации» редких данных см. Narayanan and Shmatikov (2008) .
Телефонные метаданные также могут казаться «анонимными» и не чувствительными, но это не так. Телефонные метаданные являются идентифицируемыми и чувствительными (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
На рисунке 6.6 я наметил компромисс между риском для участников и преимуществами для общества в результате выпуска данных. Для сравнения между подходами с ограниченным доступом (например, огороженным садом) и подходами с ограниченными данными (например, некоторая форма «анонимизации») см. Reiter and Kinney (2011) . Для предлагаемой системы категоризации уровней риска данных см. Sweeney, Crosas, and Bar-Sinai (2015) . Более общее обсуждение обмена данными см. В Yakowitz (2011) .
Более подробный анализ этого компромисса между риском и полезностью данных см .: Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) и Goroff (2015) . Чтобы увидеть, как этот компромисс применяется к реальным данным из широко открытых онлайн-курсов (MOOC), см. Daries et al. (2014) и Angiuli, Blitzstein, and Waldo (2015) .
Дифференциальная конфиденциальность также предлагает альтернативный подход, который может сочетать как низкий риск с участниками, так и высокую выгоду для общества; см. Dwork and Roth (2014) и Narayanan, Huey, and Felten (2016) .
Более подробно о концепции персональной идентификации (PII), которая является центральной для многих правил исследовательской этики, см. Narayanan and Shmatikov (2010) и Schwartz and Solove (2011) . Для получения дополнительной информации о потенциально чувствительных данных см. Ohm (2015) .
В этом разделе я описал связь разных наборов данных как нечто, что может привести к информационному риску. Тем не менее, он также может создавать новые возможности для исследований, о чем свидетельствуют в Currie (2013) .
Более подробно о пяти сейфах см. Desai, Ritchie, and Welpton (2016) . Пример того, как можно идентифицировать результаты, см. В Brownstein, Cassa, and Mandl (2006) , в котором показано, как можно выявлять карты распространенности заболеваний. Dwork et al. (2017) также рассматривают атаки на совокупные данные, такие как статистика о том, сколько людей имеют определенную болезнь.
Вопросы об использовании данных и выпуске данных также вызывают вопросы о владении данными. Более подробно о собственности на данные см. Evans (2011) и Pentland (2012) .
Warren and Brandeis (1890) - знаковая юридическая статья о неприкосновенности частной жизни и больше всего связана с идеей о том, что конфиденциальность - это право быть оставленным в одиночестве. Книжные процедуры конфиденциальности, которые я бы рекомендовал, включают Solove (2010) и Nissenbaum (2010) .
Для обзора эмпирических исследований о том, как люди думают о конфиденциальности, см. Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) предлагают теорию с двумя системами: люди иногда сосредотачиваются на интуитивных проблемах и иногда сосредотачиваются на рассмотренных проблемах, чтобы объяснить, как люди могут делать явно противоречивые заявления о конфиденциальности. Более подробно о конфиденциальности в онлайн-настройках, таких как Twitter, см. Neuhaus and Webmoor (2012) .
Журнал Science опубликовал специальный раздел под названием «Конец конфиденциальности», в котором рассматриваются вопросы конфиденциальности и информационного риска с разных точек зрения; для резюме, см. Enserink and Chin (2015) . Calo (2011) предлагает основу для размышлений о вреде, который возникает в результате нарушений конфиденциальности. Ранним примером забот о конфиденциальности в самом начале цифрового века является Packard (1964) .
Одна из проблем при попытке применить минимальный стандарт риска состоит в том, что неясно, чья повседневная жизнь должна использоваться для бенчмаркинга (National Research Council 2014) . Например, бездомные имеют более высокий уровень дискомфорта в своей повседневной жизни. Но это не означает, что этически допустимо подвергать бездомных людям исследования с повышенным риском. По этой причине, похоже, растет понимание того, что минимальный риск следует сопоставлять с общим уровнем населения , а не с конкретным уровнем населения . Хотя я в целом согласен с идеей общего уровня населения, я думаю, что для крупных онлайн-платформ, таких как Facebook, конкретный уровень населения является разумным. Таким образом, при рассмотрении Emotional Contagion, я думаю, что разумно сравнивать с повседневным риском на Facebook. Конкретный уровень населения в этом случае намного легче оценивать и вряд ли будет противоречить принципу правосудия, который направлен на то, чтобы не допустить, чтобы бремя исследований было несправедливым по отношению к обездоленным группам (например, заключенным и сиротам).
Другие ученые также призвали к тому, чтобы дополнительные документы включали этические приложения (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) также предлагает практические советы. Zook и его коллеги (2017) предлагают «десять простых правил для ответственных исследований больших данных».