传统上,研究伦理也包括科学欺诈和信用分配等主题。这些在Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) On Being a Scientist中有更详细的讨论。
本章深受美国情况的影响。有关其他国家/地区的道德审查程序的更多信息,请参阅Desposato (2016b)第6-9章。对于影响本章的生物医学伦理原则过于美国化的观点,请参阅Holm (1995) 。有关美国机构审查委员会的进一步历史回顾,请参阅Stark (2012) 。 PS:政治科学与政治杂志举办了一场关于政治科学家与IRB之间关系的专业研讨会;请参阅Martinez-Ebers (2016)的摘要。
贝尔蒙特报告和美国随后的法规倾向于区分研究和实践。我在本章中没有做出这样的区分,因为我认为道德原则和框架适用于这两种情况。有关这种区别及其引入的问题的更多信息,请参阅Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016)以及Metcalf and Crawford (2016) 。
有关Facebook研究监督的更多信息,请参阅Jackman and Kanerva (2016) 。有关公司和非政府组织研究监督的想法,请参阅Calo (2013) , Polonetsky, Tene, and Jerome (2015)以及Tene and Polonetsky (2016) 。
关于使用手机数据来帮助解决西非2014年埃博拉病毒爆发的问题(Wesolowski et al. 2014; McDonald 2016) ,有关移动电话数据隐私风险的更多信息,请参阅Mayer, Mutchler, and Mitchell (2016) 。有关使用移动电话数据的早期危机相关研究的示例,请参阅Bengtsson et al. (2011)和Lu, Bengtsson, and Holme (2012) ,以及关于危机相关研究伦理学的更多信息,请参见( ??? ) 。
很多人都写过关于情绪传染的文章。 研究伦理学期刊于2016年1月将整个问题用于讨论实验;请参阅Hunter and Evans (2016)的概述。 “ 国家科学院学报”发表了两篇关于该实验的文章: Kahn, Vayena, and Mastroianni (2014)以及Fiske and Hauser (2014) 。关于该实验的其他部分包括: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) ,以及( ??? ) 。
在大规模监视方面, Mayer-Schönberger (2009)和Marx (2016)提供了广泛的概述。对于监控成本变化的一个具体例子, Bankston and Soltani (2013)估计,使用手机跟踪犯罪嫌疑人的费用比使用物理监控便宜约50倍。另见Ajunwa, Crawford, and Schultz (2016)关于工作监督的讨论。 Bell and Gemmell (2009)对自我监督提供了更乐观的观点。
除了能够跟踪公共或部分公开的可观察行为(例如,口味,关系和时间)之外,研究人员还可以越来越多地推断许多参与者认为是私人的事物。例如,Michal Kosinski及其同事(2013)表明他们可以从看似普通的数字跟踪数据(Facebook Likes)推断出有关人的敏感信息,例如性取向和成瘾物质的使用。这可能听起来很神奇,但Kosinski及其同事使用的方法 - 结合了数字痕迹,调查和监督学习 - 实际上是我已经告诉过你的事情。回想一下,在第3章(提问)。我告诉过你Joshua Blumenstock及其同事(2015)将调查数据与手机数据结合起来估算卢旺达的贫困状况。这种完全相同的方法可用于有效衡量发展中国家的贫困,也可用于潜在的隐私侵犯推理。
有关健康数据可能无意中的二次使用的更多信息,请参阅O'Doherty et al. (2016) 。除了可能出现意外的二次使用之外,如果人们不愿意阅读某些材料或讨论某些话题,即使是不完整的主数据库的创建也会对社会和政治生活产生寒蝉效应;见Schauer (1978)和Penney (2016) 。
在规则重叠的情况下,研究人员有时会参与“监管购物” (Grimmelmann 2015; Nickerson and Hyde 2016) 。特别是,一些希望避免IRB监督的研究人员可以与IRB未涵盖的研究人员(例如公司或非政府组织的人员)建立合作伙伴关系,并让这些同事收集和取消识别数据。然后,IRB覆盖的研究人员可以在没有IRB监督的情况下分析这种去识别的数据,因为该研究不再被视为“人类受试者研究”,至少根据对当前规则的一些解释。这种IRB规避可能与基于原则的研究伦理方法不一致。
2011年,一项努力开始更新共同规则,这一过程终于在2017年完成( ??? ) 。有关更新共同规则的更多信息,请参阅Evans (2013) , National Research Council (2014) , Hudson and Collins (2015)以及Metcalf (2016) 。
Beauchamp and Childress (2012)以生物医学伦理学为基础的经典原则方法。他们提出四个主要原则应该指导生物医学伦理学:尊重自主,非伤害,有益和正义。无害的原则促使人们不要对他人造成伤害。这一概念与希波克拉底的“不伤害”概念密切相关。在研究伦理学中,这一原则通常与“慈善”原则相结合,但请参阅@ beauchamp_principles_2012第5章,了解更多关于两者之间的区别。对于批评这些原则过于美国化,请参阅Holm (1995) 。有关平衡原则冲突的更多信息,请参阅Gillon (2015) 。
本章中的四项原则也被提议用于指导公司和非政府组织(Polonetsky, Tene, and Jerome 2015)通过称为“消费者主题审查委员会”(CSRBs) (Calo 2013)机构进行的道德监督。
除尊重自治外,贝尔蒙特报告还承认并非每个人都能够真正自我决定。例如,儿童,患有疾病的人或生活在严重受限自由情况下的人可能无法充当完全自主的个人,因此这些人受到额外保护。
在数字时代应用尊重人的原则可能具有挑战性。例如,在数字时代的研究中,很难为自我决定能力下降的人提供额外的保护,因为研究人员通常对他们的参与者知之甚少。此外,数字时代社会研究中的知情同意是一项巨大的挑战。在某些情况下,真正的知情同意可能会受到透明度悖论的影响 (Nissenbaum 2011) ,其中信息和理解存在冲突。粗略地说,如果研究人员提供有关数据收集,数据分析和数据安全实践的完整信息,许多参与者将难以理解。但是,如果研究人员提供可理解的信息,它可能缺乏重要的技术细节。在模拟时代的医学研究中 - 贝尔蒙特报告所考虑的主导地位 - 人们可以想象医生会与每个参与者单独交谈以帮助解决透明度悖论。在涉及数千或数百万人的在线研究中,这种面对面的方法是不可能的。数字时代同意的第二个问题是,在一些研究中,例如对海量数据库的分析,获得所有参与者的知情同意是不切实际的。我将在第6.6.1节中更详细地讨论有关知情同意的这些问题和其他问题。然而,尽管存在这些困难,但我们应该记住,知情同意对于尊重人来说既不必要也不充分。
有关知情同意前的医学研究的更多信息,请参阅Miller (2014) 。对于知情同意的书籍处理,请参阅Manson and O'Neill (2007) 。另见下面有关知情同意的建议读物。
对环境的危害是研究对特定人群而非社会环境造成的伤害。这个概念有点抽象,但我将用一个典型的例子来说明:威奇托陪审团研究(Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - 有时也被称为芝加哥陪审团项目(Cornwell 2010) 。在这项研究中,芝加哥大学的研究人员,作为对法律体系社会方面的更大研究的一部分,在堪萨斯州威奇托秘密记录了六次陪审团审议。案件中的法官和律师批准了录音,并严格监督了这一过程。然而,陪审员并不知道录音正在发生。一旦研究被发现,就会引起公愤。司法部开始对这项研究进行调查,研究人员被要求在国会面前作证。最终,国会通过了一项新的法律,规定秘密记录陪审团的审议是非法的。
威奇托陪审团研究的批评者关注的不是对参与者造成伤害的风险;相反,在陪审团审议的背景下,这是一种危害的风险。也就是说,人们认为如果陪审团成员不相信他们在安全和受保护的空间进行讨论,陪审团审议将来会更难。除了陪审团审议之外,社会还提供其他特定的社会背景,例如律师 - 客户关系和心理关怀(MacCarthy 2015) 。
在政治科学的一些实地实验中也出现了对环境的危害和社会系统的破坏的风险(Desposato 2016b) 。有关政治科学领域实验的更具背景敏感性的成本效益计算的示例,请参阅Zimmerman (2016) 。
在与数字时代研究相关的许多环境中讨论了参与者的报酬。 Lanier (2014)建议向参与者支付他们产生的数字痕迹。 Bederson and Quinn (2011)讨论了在线劳动力市场的支付。最后, Desposato (2016a)建议向参与者进行实地试验。他指出,即使参与者无法直接获得报酬,也可以向代表他们工作的团体捐款。例如,在Encore中,研究人员可以向致力于支持访问互联网的团体捐款。
服务条款协议的重要性应低于平等协议之间协商的合同,而不是合法政府制定的法律。研究人员过去违反服务条款协议的情况通常涉及使用自动查询来审计公司的行为(非常类似于现场实验来衡量歧视)。有关其他讨论,请参阅Vaccaro et al. (2015) , Bruckman (2016a)和Bruckman (2016b) 。有关讨论服务条款的实证研究的例子,请参阅Soeller et al. (2016) 。有关研究人员违反服务条款可能面临的法律问题的更多信息,请参阅Sandvig and Karahalios (2016) 。
显然,关于结果主义和道义论已经写了很多。有关这些道德框架和其他框架如何用于推理数字时代研究的示例,请参阅Zevenbergen et al. (2015) 。有关如何将它们应用于发展经济学中的现场实验的示例,请参阅Baele (2013) 。
有关歧视审计研究的更多信息,请参阅Pager (2007)和Riach and Rich (2004) 。这些研究不仅没有知情同意,而且还涉及欺骗而不进行汇报。
Desposato (2016a)和Humphreys (2015)未经同意就现场实验提供建议。
Sommers and Miller (2013)回顾了许多论据,支持在欺骗后不对参与者进行汇报,并认为研究人员应该放弃汇报
“在一系列非常狭窄的情况下,即在实地调查中,汇报带来了相当大的实际障碍,但研究人员如果可以的话就不会有任何关于汇报的疑虑。不应允许研究人员放弃汇报,以保护一个天真的参与者群体,保护自己免受参与者的愤怒,或保护参与者免受伤害。
其他人认为,在某些情况下,如果情况汇报导致弊大于利,则应该避免(Finn and Jakobsson 2007) 。情况汇报是一些研究人员优先考虑尊重人的受益者,而一些研究人员却反其道而行之。一种可能的解决方案是找到让参与者进行汇报学习体验的方法。也就是说,也许汇报也可以使参与者受益,而不是将汇报视为可能造成伤害的事情。有关此类教育情况汇报的示例,请参阅Jagatic et al. (2007) 。心理学家已经开发了汇报技术(DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) ,其中一些可能有用地应用于数字时代研究。 Humphreys (2015)提供了关于延期同意的有趣想法,这与我所描述的汇报策略密切相关。
询问参与者样本同意的想法与Humphreys (2015)所谓的推断同意有关 。
已提出的与知情同意相关的另一个想法是建立一个同意参与在线实验的人员小组(Crawford 2014) 。有些人认为这个小组将是一个非随机的人群样本。但是第3章(提出问题)表明,使用后分层可以解决这些问题。此外,同意参加专家组可以涵盖各种实验。换句话说,参与者可能不需要单独同意每个实验,这个概念称为广泛同意 (Sheehan 2011) 。有关每次研究的一次性同意和同意之间的差异以及可能的杂交的更多信息,请参阅Hutton and Henderson (2015) 。
Netflix奖远非独特,它展示了数据集的重要技术属性,其中包含有关人员的详细信息,因此提供了有关现代社交数据集“匿名化”可能性的重要课程。在Narayanan and Shmatikov (2008)正式定义的意义上,关于每个人的许多信息的文件很可能是稀疏的 。也就是说,对于每条记录,没有相同的记录,实际上没有非常相似的记录:每个人都远离数据集中最近的邻居。可以想象,Netflix数据可能很稀疏,因为在五星级上有大约20,000部电影,每个人可能有大约\(6^{20,000}\)可能的值(6因为,除了1到1之外) 5星,有人可能根本没有评价电影)。这个数字太大了,很难理解。
稀疏性有两个主要含义。首先,这意味着尝试基于随机扰动“匿名化”数据集可能会失败。也就是说,即使Netflix随机调整一些评级(他们这样做),这也是不够的,因为受到干扰的记录仍然是最接近攻击者所拥有信息的记录。其次,稀疏性意味着即使攻击者具有不完全或公正的知识,也可以重新识别。例如,在Netflix数据中,让我们假设攻击者知道您对两部电影的评分以及您对这些评分的评分日期\(\pm\) 3天;仅仅这些信息足以唯一地识别Netflix数据中68%的人。如果攻击者知道您评价为8天\(\pm\) 14天的电影,那么即使其中两个已知评级完全错误,也可以在数据集中唯一标识99%的记录。换句话说,稀疏性是“匿名化”数据的基本问题,这是不幸的,因为大多数现代社交数据集都很稀疏。有关稀疏数据“匿名化”的更多信息,请参阅Narayanan and Shmatikov (2008) 。
电话元数据也可能看似“匿名”而且不敏感,但事实并非如此。电话元数据是可识别和敏感的(Mayer, Mutchler, and Mitchell 2016; Landau 2016) 。
在图6.6中,我概述了数据发布与参与者的风险和社会利益之间的权衡。对于限制访问方法(例如,有围墙的花园)和受限数据方法(例如,某种形式的“匿名化”)之间的比较,请参阅Reiter and Kinney (2011) 。对于建议的数据风险等级分类系统,请参见Sweeney, Crosas, and Bar-Sinai (2015) 。有关数据共享的更多一般性讨论,请参阅Yakowitz (2011) 。
有关数据风险和效用之间权衡的更详细分析,请参阅Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013)和Goroff (2015) 。要看到这种权衡适用于来自大规模开放在线课程(MOOC)的实际数据,请参阅Daries et al. (2014)和Angiuli, Blitzstein, and Waldo (2015) 。
差别隐私还提供了一种替代方法,既可以将低风险与参与者相结合,又可以为社会带来高收益;参见Dwork and Roth (2014)以及Narayanan, Huey, and Felten (2016) 。
有关个人识别信息(PII)概念的更多信息,这是许多有关研究伦理的规则的核心,请参阅Narayanan and Shmatikov (2010)以及Schwartz and Solove (2011) 。有关可能敏感的所有数据的更多信息,请参阅Ohm (2015) 。
在本节中,我将不同数据集的链接描述为可能导致信息风险的因素。然而,正如Currie (2013) ,它也可以为研究创造新的机会。
有关五个保险箱的更多信息,请参阅Desai, Ritchie, and Welpton (2016) 。有关输出如何识别的示例,请参阅Brownstein, Cassa, and Mandl (2006) ,其中显示了疾病流行的地图如何识别。 Dwork et al. (2017)还考虑对汇总数据的攻击,例如关于有多少人患有某种疾病的统计数据。
有关数据使用和数据发布的问题也引发了有关数据所有权的问题有关数据所有权的更多信息,请参阅Evans (2011)和Pentland (2012) 。
Warren and Brandeis (1890)是一篇关于隐私的具有里程碑意义的法律文章,与隐私权是一个独立的权利有关。我推荐的书本长度隐私处理包括Solove (2010)和Nissenbaum (2010) 。
有关人们如何看待隐私的实证研究的回顾,请参阅Acquisti, Brandimarte, and Loewenstein (2015) 。 Phelan, Lampe, and Resnick (2016)提出了一种双系统理论 - 人们有时会关注直觉问题,有时会关注所考虑的问题 - 来解释人们如何能够就隐私做出明显矛盾的陈述。有关Twitter等在线设置中隐私概念的更多信息,请参阅Neuhaus and Webmoor (2012) 。
“ 科学 ”杂志发表了一篇题为“隐私终结”的专题章节,从各种不同的角度解决了隐私和信息风险问题;有关摘要,请参阅Enserink and Chin (2015) 。 Calo (2011)提供了一个思考侵犯隐私的危害的框架。 Packard (1964)是数字时代初期隐私问题的早期例子。
尝试应用最低风险标准时的一个挑战是,不清楚其日常生活是否用于基准测试(National Research Council 2014) 。例如,无家可归者在日常生活中的不适程度较高。但这并不意味着在道德上允许无家可归者接触高风险研究。出于这个原因,似乎越来越多的共识认为,最低风险应该基于一般人口标准,而不是特定人口标准。虽然我普遍同意一般人口标准的观点,但我认为对于像Facebook这样的大型在线平台,特定的人口标准是合理的。因此,在考虑情绪传染时,我认为对Facebook的日常风险进行基准测试是合理的。在这种情况下,特定人口标准更容易评估,并且不太可能与司法原则相冲突,司法原则旨在防止研究的负担不公平地对弱势群体(例如,囚犯和孤儿)造成不公平。
其他学者也呼吁更多论文包括道德附录(Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) 。 King and Sands (2015)也提供实用技巧。 Zook及其同事(2017)提供了“十项简单的负责任大数据研究规则”。