研究倫理には伝統的に科学詐欺や信用供与などのトピックも含まれています。これらはInstitute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) 科学者としての存在についてより詳細に説明されています。
この章は、米国の状況によって大きく左右されます。他の国の倫理的審査手続きの詳細については、 Desposato (2016b)第6章〜第9章を参照してください。この章に影響を与えた生物医学的倫理原則が過度にアメリカ人であるという主張については、 Holm (1995)参照されたい。米国の制度審査委員会の歴史的再検討については、 Stark (2012)参照してください。ジャーナルPS:Political Science and Politicsは、政治学者とIRBの関係について専門的なシンポジウムを開催した。要約についてはMartinez-Ebers (2016)を参照してください。
Belmont Reportとその後の米国の規制は、研究と実践を区別する傾向があります。私はこの章でそのような区別はしていませんが、倫理原則と枠組みが両方の設定に当てはまると思うからです。この区別とそれが紹介する問題の詳細については、 Beauchamp and Saghai (2012) 、 MN Meyer (2015) 、 boyd (2016) 、 Metcalf and Crawford (2016) 。
Facebookの研究監督の詳細については、 Jackman and Kanerva (2016)参照してください。企業やNGOの研究監督については、 Calo (2013) 、 Polonetsky, Tene, and Jerome (2015) 、 Tene and Polonetsky (2016) 。
西アフリカでの2014年のエボラ流行(Wesolowski et al. 2014; McDonald 2016)に対処するための携帯電話データの使用に関連して、携帯電話データのプライバシーリスクの詳細については、 Mayer, Mutchler, and Mitchell (2016) 。携帯電話データを用いた初期の危機関連研究の例については、 Bengtsson et al. (2011) 、 Lu, Bengtsson, and Holme (2012) 、危機関連研究の倫理については( ??? )参照。
Emotional Contagionについて多くの人が書いています。 研究倫理ジャーナルは、2016年1月に全面的な検討を行い、実験について議論しました。概要については、 Hunter and Evans (2016)を参照してください。 全米科学アカデミー紀要では、 Kahn, Vayena, and Mastroianni (2014)とFiske and Hauser (2014)という2つの実験について発表しました。実験についての他の部分は次のとおりです。 Puschmann and Bozdag (2014) Meyer (2014) Grimmelmann (2015) MN Meyer (2015) ( ??? ) Kleinsman and Buckley (2015) Shaw (2015) 、および( ??? ) 。
マス・サーベイランスに関しては、 Mayer-Schönberger (2009)とMarx (2016)概説されています。監視コストの変化の具体例として、 Bankston and Soltani (2013)は、携帯電話を使用して犯罪容疑者を追跡することは、物理的な監視を使用する場合より約50倍安くなると推定しています。職場での監視に関する議論についてはAjunwa, Crawford, and Schultz (2016)も参照してください。 Bell and Gemmell (2009)は、自己監視に関するより楽観的な視点を提供している。
研究者は、公表されているかまたは部分的に公表されている観察可能な行動(例えば、味、絆、および時間)を追跡できることに加えて、多くの参加者がプライベートであると考えるものをますます推測することができます。たとえばMichal Kosinskiら(2013)は、普通のデジタルトレースデータ(Facebook Likes)から、性的指向や中毒性物質の使用など、人に関する機密情報を推測できることを示しました。これは魔法のように聞こえるかもしれませんが、デジタル・トレース、アンケート、監督付き学習を組み合わせたKosinskiとその同僚のアプローチは、実際に私がすでに述べたことです。第3章(質問する)を思い出してください。 Joshua Blumenstockとその同僚(2015) 、調査データと携帯電話のデータを組み合わせて、ルワンダの貧困を推定する方法を教えました。開発途上国の貧困を効率的に測定するために使用できるまったく同じアプローチは、潜在的にプライバシーを侵害する推論にも使用できます。
健康データの意図しない二次的利用の可能性については、 O'Doherty et al. (2016) 。意図しない副次的な使用の可能性に加えて、不完全なマスターデータベースの作成でさえ、人々が特定の資料を読んだり特定の話題を話したりすることを望まないようになった場合、社会的および政治的な生活に大きな影響を及ぼす可能性があります。 Schauer (1978)とPenney (2016)参照してください。
規則が重複する状況では、研究者は時には「規制ショッピング」 (Grimmelmann 2015; Nickerson and Hyde 2016)従事する。特に、IRBの監視を避けたい研究者の中には、IRB(企業やNGOの人々など)の対象とならない研究者とのパートナーシップを形成したり、同僚にデータを収集したり解除させたりすることができます。 IRBでカバーされた研究者は、IRBの監督なしにこの識別されていないデータを分析することができます。なぜなら、少なくとも現在のルールの解釈によれば、この研究はもはや「人体の研究」とはみなされないからです。この種のIRB回避は、おそらく研究倫理への原則に基づくアプローチと一致しない。
2011年にはCommon Ruleの更新が始まり、このプロセスは最終的に2017年に完了しました( ??? ) 。 Common Ruleを更新するこれらの取り組みについては、 Evans (2013) 、 National Research Council (2014) 、 Hudson and Collins (2015) 、 Metcalf (2016) 。
生物医学的倫理に対する古典的な原理ベースのアプローチは、 Beauchamp and Childress (2012)です。彼らは、4つの主な原則、すなわち、自治、非享受、恩恵、司法に対する生物医学的倫理の指針とすべきことを提案する。非唯一性の原則は、他の人に害を及ぼすことを控えるようにと促す。この概念はヒポクラテスの「害を受けない」という考え方と深く結びついています。研究倫理学では、この原則はしばしば有益性の原則と組み合わされますが、両者の区別については、@ beauchamp_principles_2012の第5章を参照してください。これらの原則が過度にアメリカ人であるという批判のために、 Holm (1995)参照。原則が矛盾するときの均衡の詳細については、 Gillon (2015)参照してください。
この章の4つの原則は、企業やNGO (Polonetsky, Tene, and Jerome 2015) 「消費者調査委員会」(CSRB) (Calo 2013)通じた研究の倫理的監視を指導するために提案されています。
自治を尊重することに加えて、Belmontレポートは、すべての人間が真の自己決定をすることができるわけではないことも認めています。例えば、子供、病気に苦しんでいる人々、または厳しく制限された自由の状況に住んでいる人々は、完全に自律的な個人として行動することができない可能性があり、したがってこれらの人々は特別な保護の対象となります。
デジタル時代に人に対する尊重の原則を適用することは難しいことです。例えば、デジタル時代の研究では、研究者は参加者についてほとんど知りませんので、自己決定能力が低下した人々に特別な保護を提供することは困難です。さらに、デジタル時代社会研究におけるインフォームドコンセントは大きな課題です。場合によっては、真のインフォームドコンセントが、 情報と理解が矛盾する透明性のパラドックス (Nissenbaum 2011)に苦しむことがあります 。大まかに言えば、研究者がデータ収集、データ分析、データセキュリティの実践についての完全な情報を提供する場合、多くの参加者が理解することは難しいでしょう。しかし、研究者が理解できる情報を提供する場合、重要な技術的な詳細が不足している可能性があります。 Belmont Reportが主張するアナログ時代の医学研究では、医師が個々の参加者と個別に話して、透明性のパラドックスを解決するのを想像することができます。何千人も何百万人もの人々が関わるオンライン調査では、こうした対面的なアプローチは不可能です。デジタル時代の同意の第2の問題は、膨大なデータリポジトリの分析など、いくつかの研究では、すべての参加者からインフォームドコンセントを得ることは実用的ではないということです。インフォームドコンセントに関するこれらの質問およびその他の質問については、6.6.1項で詳しく説明します。しかし、これらの困難にもかかわらず、インフォームドコンセントは人の尊重にとって必要でも十分でもないことを覚えておく必要があります。
インフォームドコンセントの前に医学研究について詳しくは、 Miller (2014)参照してください。インフォームドコンセントの本の長さの扱いについては、 Manson and O'Neill (2007)参照してください。下記のインフォームドコンセントに関する示唆された読みを参照してください。
文脈に害を及ぼすことは、研究が特定の人々ではなく社会的な環境を引き起こす可能性のある害である。この概念は少し抽象的ですが、私は古典的な例を挙げて説明します:Wichita Jury Study (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - 時にはChicago Jury Project (Cornwell 2010)と呼ばれることもあります。この研究では、シカゴ大学の研究者は、法制度の社会的側面についてのより大きな研究の一部として、カンザス州ウィチタに6件の陪審審理を密かに記録した。ケースの裁判官と弁護士は録音を承認し、そのプロセスの厳格な監視がありました。しかし、陪審員は録音が行われていることに気付かなかった。研究が発見されれば、公然の怒りがあった。司法省は調査の捜査を開始し、研究者は議会の前で証言するよう求められた。結局のところ、議会は陪審の審理を秘密裏に記録することを違法とする新しい法律を可決した。
ウィチタジュリー研究の批評家の懸念は、参加者に危害を及ぼすリスクではなかった。むしろ、それは陪審審議の文脈に害を及ぼすリスクであった。つまり、陪審員が安全で保護された空間で議論をしているとは信じられなかった場合、将来陪審審議が進むことは難しいと人々は考えていました。陪審の審議に加えて、弁護士 - 顧客関係や心理的ケアなど、社会が余分な保護を提供する他の具体的な社会的背景もあります(MacCarthy 2015) 。
文脈への害や社会システムの混乱のリスクは、政治学におけるいくつかの現場実験でも生じる(Desposato 2016b) 。政治学におけるフィールド実験の文脈依存コスト便益計算の例については、 Zimmerman (2016)参照してください。
参加者の報酬は、デジタル時代の研究に関連した多くの場面で議論されている。 Lanier (2014)は、参加者に生成されたデジタルトレースを支払うことを提案している。 Bederson and Quinn (2011)はオンライン労働市場における支払いについて議論している。最後に、 Desposato (2016a)は参加者に現地実験を行うことを提案する。彼は、参加者が直接支払うことができなくても、彼らのために働いているグループに寄付をすることができると指摘する。たとえば、Encoreでは、研究者はインターネットへのアクセスをサポートするために働いているグループに寄付をしていた可能性があります。
サービス利用規約は、平等な当事者間で交渉される契約よりも、合法的な政府によって作成される法律よりも軽量でなければなりません。過去にサービス提供契約に違反していた状況では、企業の行動を監査するために自動照会を使用することが一般的でした(差別を測定する現場実験と同様)。さらなる議論については、 Vaccaro et al. (2015) 、 Bruckman (2016a) Vaccaro et al. (2015) 、 Bruckman (2016a) Bruckman (2016b) 。サービス条件を論じる経験的研究の例については、 Soeller et al. (2016) 。研究者がサービス条件に違反した場合に直面する可能性のある法的問題については、 Sandvig and Karahalios (2016)参照してください。
明らかに、帰結主義とデントロジーについては膨大な量が書かれています。これらの倫理的枠組みなどが、デジタル時代の研究をZevenbergen et al. (2015)するためにどのように使用できるかについては、 Zevenbergen et al. (2015) 。開発経済学におけるフィールド実験にどのように適用できるかの例については、 Baele (2013)参照してください。
差別の監査研究については、 Pager (2007)とRiach and Rich (2004)参照してください。これらの研究はインフォームドコンセントを持っていないだけでなく、デブリーフィングを行わずに欺瞞を伴います。
Desposato (2016a)とHumphreys (2015)は、同意なしに野外実験に関するアドバイスを提供しています。
Sommers and Miller (2013)は、欺瞞の後に参加者にデブリーフィングを行わないことを支持する多くの議論を再検討し、研究者がデブリーフィングを忘れるべきだと主張する
非常に狭い状況、すなわち、デブリーフィングがかなりの実用上の障壁となる現場調査では可能だが、研究者はデブリーフィングについての不安を抱かないであろう。研究者は、素朴な参加者プールを維持したり、参加者の怒りから身を守ったり、参加者を害から守るために、デブリーフィングを免れるべきではありません。
デブリブリーフィングが善良なものよりも害を及ぼすような状況がある場合、それは避けるべきであるとの意見もある(Finn and Jakobsson 2007) 。デブリーフィングは、一部の研究者が優越者に対する尊重を優先するケースがありますが、一部の研究者は反対です。考えられる解決策の1つは、デブリーフィングを参加者の学習体験にする方法を見つけることです。つまり、デブリブリーフィングを害を及ぼす可能性のあるものと考えるのではなく、おそらくデブリーフィングは参加者にとって有益なものになる可能性があります。この種の教育的デブリーフィングの例については、 Jagatic et al. (2007) 。心理学者はデブリーフィング技術を開発しており(DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) 、これらのいくつかはデジタル時代の研究に有効に利用されるかもしれない。 Humphreys (2015)は、私が記述したデブリーフィング戦略と密接に関連している、 遅延承諾に関する興味深い考えを示しています。
参加者のサンプルを彼らの同意のために尋ねるという考えは、 Humphreys (2015)が推論した同意を呼び出すものに関連している。
インフォームドコンセントに関するさらなるアイデアは、オンライン実験(Crawford 2014)同意する人々のパネルを作ることです。このパネルは人の非道標であると主張する者もいる。しかし、第3章(質問する)は、これらの問題が事後層化を用いて潜在的に解決可能であることを示している。また、パネル上での同意は、さまざまな実験をカバーすることができます。言い換えれば、参加者は個々の実験に個別に同意する必要はなく、 広い同意と呼ばれる概念(Sheehan 2011)ます。可能なハイブリッドと同様に、各研究の1回限りの同意と同意の違いについては、 Hutton and Henderson (2015)参照してください。
ユニークなものではなく、Netflix賞は、人々の詳細な情報を含むデータセットの重要な技術的特性を示しており、最新のソーシャルデータセットの「匿名化」の可能性について重要な教訓を提供します。 Narayanan and Shmatikov (2008)に正式に定義されている意味で、各人物に関する多くの情報を含むファイルはまれである可能性が高い。すなわち、各レコードについて、同じレコードはなく、実際には非常に似ているレコードはありません。各人は、データセット内の最も近い隣から遠く離れています。 5フィートスケールの映画約2万枚の場合、それぞれの人が持つ可能性のある値は約\(6^{20,000}\)あるため、Netflixのデータはまあまあであると想像できるでしょう。 5つ星、誰かが映画を評価していない可能性があります)。この数字は非常に大きいので、理解することは難しいです。
スパース性には主に2つの意味があります。まず、ランダムな摂動に基づいてデータセットを「匿名化」しようとすると失敗する可能性が高いことを意味します。つまり、Netflixが格付けのいくつかをランダムに調整したとしても、混乱したレコードが攻撃者の情報に最も近いレコードであるため、これでは十分ではありません。第2に、スパース性は、攻撃者が不完全または公平な知識を持っていても再識別が可能であることを意味します。たとえば、Netflixデータでは、攻撃者が2つの映画の評価と、それらの評価を行った日付を\(\pm\) 3日間知っているとしましょう。その情報だけでNetflixデータの人の68%を一意に識別するのに十分です。攻撃者があなたが14日間に\(\pm\)評価した8つの映画を知っている場合、これらの2つの評価が完全に間違っていても、99%のレコードをデータセットで一意に識別できます。言い換えれば、まばらさは、データを「匿名化」する努力の根本的な問題であり、現代のソーシャルデータセットのほとんどが疎であるため残念です。スパースデータの「匿名化」の詳細については、 Narayanan and Shmatikov (2008)参照してください。
電話のメタデータも「匿名」であり機密ではないように見えるかもしれませんが、そうではありません。電話メタデータは識別可能であり、敏感である(Mayer, Mutchler, and Mitchell 2016; Landau 2016) 。
図6.6では、参加者へのリスクとデータの公開による社会への利益との間のトレードオフをスケッチしました。制限されたアクセス手法(例えば壁庭園)と制限されたデータアプローチ(ある種の「匿名化」など)との比較については、 Reiter and Kinney (2011)参照してください。データのリスクレベルの提案された分類システムについては、 Sweeney, Crosas, and Bar-Sinai (2015)参照してください。データ共有に関するより一般的な議論については、 Yakowitz (2011)参照してください。
Brickell and Shmatikov (2008) 、 Ohm (2010) 、 Reiter (2012) 、 Wu (2013) 、 Goroff (2015) 。大規模オープンオンラインコース(MOOC)からの実際のデータに適用されるこのトレードオフを見るには、 Daries et al. (2014) 、 Angiuli, Blitzstein, and Waldo (2015)ます。
差別的プライバシーはまた、参加者に低リスクと社会への高い利益の両方を組み合わせることができる代替アプローチを提供する。 Dwork and Roth (2014)とNarayanan, Huey, and Felten (2016)参照してください。
研究倫理に関する多くのルールの中核をなす個人識別情報(PII)の概念については、 Narayanan and Shmatikov (2010)およびSchwartz and Solove (2011)参照してください。潜在的に敏感なすべてのデータの詳細については、 Ohm (2015)参照してください。
このセクションでは、さまざまなデータセットのリンケージを情報リスクにつなげるものとして描いてきました。しかし、それはCurrie (2013)議論されているように、研究のための新たな機会を創出する可能性もある。
5つの金庫について詳しくは、 Desai, Ritchie, and Welpton (2016)参照してください。アウトプットがどのように特定できるかの例については、 Brownstein, Cassa, and Mandl (2006)参照してください。 Dwork et al. (2017)また、いくつの個体が特定の疾患を有するかに関する統計など、集計データに対する攻撃も考慮する。
データの使用およびデータのリリースに関する質問は、データの所有権についても疑問を投げかけています。さらに、データの所有権については、 Evans (2011)およびPentland (2012)参照してください。
Warren and Brandeis (1890)はプライバシーについての画期的な法律上の記事であり、プライバシーが放置される権利であるという考えに最も関連しています。 Solove (2010)とNissenbaum (2010) Solove (2010)を含む、私がお勧めするプライバシーのSolove (2010) 。
プライバシーの考え方に関する実証的研究のレビューについてはAcquisti, Brandimarte, and Loewenstein (2015)参照してください。 Phelan, Lampe, and Resnick (2016) 、人々がプライバシーに関する明らかに矛盾した声明をどのように出すことができるかを説明するために、直観的な懸念に焦点を合わせ、時には懸念に焦点を当てることがあるという二重システム理論を提案する。 Twitterなどのオンライン設定におけるプライバシーの考え方については、 Neuhaus and Webmoor (2012)参照してください。
サイエンスジャーナルは、さまざまな視点からのプライバシーと情報リスクの問題に取り組む特別なセクション「プライバシーの終了」を発表しました。要約についてはEnserink and Chin (2015)参照してください。 Calo (2011)は、プライバシー侵害による被害を考えるためのフレームワークを提供しています。デジタル時代の初めにプライバシーに関する懸念の初期の例はPackard (1964)です。
最低限のリスク基準を適用しようとする際の課題の1つは、誰の日常生活がベンチマークに使用されるのかがはっきりしないことである(National Research Council 2014) 。たとえば、ホームレスの人々は、日々の生活に不快感を与えます。しかしそれは、ホームレスの人々を高リスクの研究にさらすことが倫理的に許容されることを意味するものではありません。このため、 特定の 母集団基準ではなく、 一般的な母集団基準に対して最小限のリスクをベンチマークする必要があるとのコンセンサスが高まっているようです。私は一般的な人口標準の考え方には一般的に同意していますが、Facebookなどの大規模なオンラインプラットフォームでは特定の人口標準が妥当だと思います。したがって、感情的な伝染を考えるとき、私はFacebookの日常的なリスクに対してベンチマークすることは合理的だと思います。この場合の特定の母集団基準は評価がはるかに容易であり、貧困層(例えば、囚人や孤児)に不利な立場にある研究の負担を防ぐことを目的とした司法の原則と矛盾する可能性は低い。
他の学者もまた、倫理的な付録を含めるようもっと多くの論文を要求している(Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) 。 King and Sands (2015)も実践的なヒントを提供しています。 Zook氏と同僚(2017)は、「責任ある大規模データ研究のための10の単純なルール」を提供している。