这部分被设计为用作基准,而不是被理解为叙述。
研究伦理历来还包括主题,如科学欺诈和信贷分配。这些主题中更详细地讨论的Engineering (2009)
本章是强烈的美国的情况形成的。欲了解更多关于其他国家的伦理审查程序,见第6,7,8,和9 Desposato (2016b)对于一个论点本章影响了生物医学伦理原则是过度美国人,看到Holm (1995)对于机构审查委员会在美国更多的历史回顾,看到Stark (2012) 。
贝尔蒙特报告和美国随后的规定作出研究和实践之间的区别。这种区分随后被批评(Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) 。因为我觉得道德原则和框架适用于设置我不做这种区别一节。欲了解更多有关的研究在监督脸谱,看到Jackman and Kanerva (2016)对于在企业和非政府组织的研究监督的建议,请参阅Polonetsky, Tene, and Jerome (2015)和Tene and Polonetsky (2016) 。
欲了解更多关于埃博拉疫情的情况下,在2014年,看到McDonald (2016) ,以及更多的手机数据的隐私风险,看到Mayer, Mutchler, and Mitchell (2016) 。对于使用手机数据的危机相关研究的示例,请参见Bengtsson et al. (2011)和Lu, Bengtsson, and Holme (2012)
很多人都写了关于情绪感染。该杂志研究伦理致力于在2016年讨论实验一月他们的整个问题;看到Hunter and Evans (2016)的概述。 美国国家科学学者的论文集出版的有关实验两部分: Kahn, Vayena, and Mastroianni (2014)和Fiske and Hauser (2014) 。有关实验的其他作品包括: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) 。
更多关于喝采,看到Jones and Feamster (2015) 。
在群众监督方面,中提供广泛的概述Mayer-Schönberger (2009)和Marx (2016) 。对于监控的成本变化的一个具体的例子, Bankston and Soltani (2013)估计,使用手机追踪犯罪嫌疑人比使用物理监视便宜约50倍。 Bell and Gemmell (2009)提供了关于自我更加乐观的观点监视。除了能够跟踪观察的行为是公开或部分公开(如味道,领带,和时间),研究人员可以推断出越来越多的东西,许多与会者认为是私有的。例如,米哈尔科辛斯基和他的同事发现,他们可以推断出人,如性取向和使用成瘾物质从看似普通的数字跟踪数据(Facebook的喜欢)的敏感信息(Kosinski, Stillwell, and Graepel 2013) 。这听起来不可思议,但该方法科辛斯基和同事使用,它集数字轨迹,调查和监督的实际边学的东西,我已经告诉过你。回想一下,在第3章(提问)我告诉你,乔希Blumenstock和同事如何(2015)用手机数据结合调查数据来估算贫困卢旺达。此完全相同的方法,它可用于有效地测量贫穷的发展中国家,也可以使用潜在的隐私侵犯的推论。
不一致的法律和规范,可能会导致不尊重参与者的意愿研究,它可以导致“监管血拼”研究人员(Grimmelmann 2015; Nickerson and Hyde 2016) 。特别是,一些研究者谁希望避免IRB监督有谁不涵盖的IRB的合作伙伴(例如,人的公司或非政府组织)收集并去识别数据。然后,研究人员可以分析该解标识数据而不IRB监督,至少根据电流规则一些解释。这种逃避IRB似乎是不符合一个原则为基础的方法。
欲了解更多关于人们对健康数据不一致的,异构的想法,看到Fiore-Gartland and Neff (2015) 。欲了解更多的问题异质性创造了研究伦理决策看到Meyer (2013) 。
模拟时代和数字时代研究之间的一个区别是,在数字时代与参加研究的相互作用是更远处 。这些相互作用常常通过中介发生如公司,并且通常有研究者和参与者之间的大的物理和社会距离。这遥远的相互作用,使一些事情,很容易在模拟时代的研究很难在数字化时代的研究,如筛选出谁需要额外的保护参与者,检测不良事件,以及如果发生补救的伤害。例如,让我们对比情绪感染与同一主题的假想实验室实验。在实验室实验中,研究人员可以筛选出任何人谁在显示情绪困扰的迹象明显实验室到来。此外,如果在实验室试验造成了不良事件,研究人员会看到它,提供服务补救的危害,然后作出调整实验方案,以防止未来的危害。互动的实际情绪感染实验遥远的性质使得每一种简单而明智的步骤非常困难。此外,我怀疑是研究者和参与者之间的距离,使研究人员不敏感其参与者的关注。
不一致的规范和法律的其他来源。一些这种不一致来自于一个事实,即这项研究是发生在世界各地。例如,安可涉案人员来自世界各地,因此,它可能是受数据保护和许多不同国家的隐私法。如果执政的第三方Web请求(安可什么在做)在德国不同,美国,肯尼亚和中国的规范?如果规范不是一个单一的国家内,甚至是否一致?不一致的第二个来源是研究人员在大学和企业之间的合作;例如,情绪感染是Facebook的数据科学家,康奈尔大学教授和研究生之间的合作。在Facebook上运行大型实验是家常便饭,并且在那个时候,并不需要任何第三方的伦理审查。在康奈尔大学的规范和规则是完全不同的;几乎所有的实验必须由康奈尔大学IRB进行审查。因此,它的规则集应该支配情绪感染,Facebook的还是康奈尔大学的?
欲了解更多关于做好修订通用规则,请参见Evans (2013) , Council (2014) , Metcalf (2016) ,以及Hudson and Collins (2015) 。
基于原则的经典方法,生物医学伦理是Beauchamp and Childress (2012)他们提出四项主要原则应指导生物医学伦理:自治,不伤害,善行和正义的尊重。不伤害原则敦促一名来自造成伤害到其他人投弃权票。这个概念是深深连接到希波克拉底理念“不伤害”。在研究伦理,这个原则往往与善行原则相结合,但见Beauchamp and Childress (2012)第5章)以获取更多的区分两者之间。对于批评,这些原则是过度的美国,看到Holm (1995) 。欲了解更多关于平衡时原则相冲突,见Gillon (2015) 。
本章中的四项原则也被提出来指导研究伦理监督在企业和非政府组织发生(Polonetsky, Tene, and Jerome 2015)通过机构所谓的“消费主题审查委员会”(CSRBs) (Calo 2013) 。
除了尊重自主权,贝尔蒙报告也承认,并不是每个人能够真正的自决。例如,孩子,人患的疾病,或生活在严重限制自由的情况下,人们可能无法作为完全独立的个体,而这些人都是,因此,对其进行额外的保护。
在数字时代应用尊重的原则,人是具有挑战性的。例如,在数字化时代的研究,就很难为人们与自决能力减退提供额外的保护,因为研究人员往往知之甚少他们的参与。此外,在数字化时代的社会研究的知情同意是一个巨大的挑战。在一些情况下,真正的知情同意可以从透明度悖论遭受(Nissenbaum 2011)其中, 信息和理解有冲突。粗略地说,如果研究人员提供了有关数据收集,数据分析和数据安全实践的本质的完整信息,这将是困难的许多参与者理解。但是,如果研究人员提供易于理解的信息,它可能缺乏重要的技术信息。在模拟时代-的主导由贝尔蒙报告一考虑设置医学研究会想象一个医生与每个参与者单独交谈,帮助解决透明度的悖论。在涉及人的数千或数百万在线的研究,这样一张脸对脸的做法是不可能的。在数字时代同意的第二个问题是,在一些研究中,如海量数据仓库的分析,这将是不切实际的,从所有参与者获得知情同意书。我更详细的第6.6.1节讨论有关知情同意这些问题和其他问题。尽管有这些困难,但是,我们应该记住,知情同意是既无必要,也足够尊重的人。
欲了解更多有关知情同意之前医学研究,请参见Miller (2014) 。对于知情同意书长的治疗,看到Manson and O'Neill (2007) 。也参见下文知情同意书建议的读数。
受到损害的上下文是研究能导致无法具体的人,而是社会环境的危害。这个概念是一个有点抽象,但我会用两个例子说明吧:一个模拟和一台数字。
危害上下文的一个经典例子来自威奇托评委会研究[ Vaughan (1967) ; Katz, Capron, and Glass (1972) ;第2章] -有时也被称为芝加哥陪审团项目(Cornwell 2010)在这项研究的研究人员来自芝加哥大学,作为关于法律制度的社会方面,偷偷记录了六陪审团的商议在堪萨斯州威奇托更大的研究的一部分。在案件的法官与律师批准了录音,并有严格的过程监督。然而,陪审团没有察觉到,记录正在发生。一旦研究发现,有公愤。司法部开始研究的调查,研究人员被称为在国会前作证。最终,国会通过了一项新的法律,是非法的秘密记录陪审团审议。
威奇托陪审团研究并没有伤害到参与者的批评者的关注;相反,它是危害到陪审团审议的情况下。也就是说,人们相信,如果陪审团成员不相信他们有在安全和受保护的空间的讨论,这将是更难陪审团的商议在未来继续进行。除了 评委会审议,有社会与额外保护,如律师-客户关系和心理护理提供其他特定社会背景下(MacCarthy 2015) 。
危害语境和社会制度的破坏的风险,在政治科学领域的一些实验也来了(Desposato 2016b)对于更多的上下文敏感的成本收益计算在政治学领域的实验示例,请参见Zimmerman (2016) 。
补偿的参与者已经在一些涉及到数字时代的研究环境进行了讨论。 Lanier (2014)提出的支付参与者,因为他们产生的数字痕迹。 Bederson and Quinn (2011)讨论了网上劳动力市场付款。最后, Desposato (2016a)提出了现场实验参加者支付。他指出,即使参与者不能直接支付,捐赠可以代表他们的一个工作小组提出。例如,在安可研究人员能够作出了捐赠工作,支持上网的一组。
条件方面的服务协议应当具有大于等于当事人和合法政府建立法律之间的合同谈判重量轻。那里的研究人员在过去违反条件方面的服务协议的情况下通常涉及通过自动查询审核公司的行为(很像现场实验来测量歧视)。有更多的讨论参见Vaccaro et al. (2015) , Bruckman (2016a) Bruckman (2016b)对于讨论服务条款实证研究的一个例子,看到Soeller et al. (2016) 。欲了解更多有关研究人员所面临的可能的法律问题,如果他们违反了服务条款看Sandvig and Karahalios (2016) 。
显然,巨大的数额已经写了结果主义和道义。对于如何将这些伦理框架,以及其他的例子,可以用于推理数字时代的研究,见Zevenbergen et al. (2015)有关这些伦理框架如何应用到田间实验经济学发展的例子,看看Baele (2013) 。
欲了解更多关于歧视审计研究,看Pager (2007)和Riach and Rich (2004)不仅这些研究没有知情同意,他们还涉及欺骗而不述职。
无论Desposato (2016a)和Humphreys (2015)献计约田间试验没有同意。
Sommers and Miller (2013)评论赞成不述职欺骗后,参与者很多争论,并认为研究人员应放弃“在一个很窄的一套的情况下,即述职,在实地调研中,述职造成相当大的实际障碍,但研究人员将有没有任何疑虑,如果他们能述职。研究者不应该被允许,以保持一个天真的参与者池,从参与者的愤怒保护自己,或保护参与者免受伤害放弃述职。“其他人则认为,如果述职会导致比它好,应避免更多的伤害。述职就是一些研究者优先超过善行的人尊重的情况下,一些研究者却反其道而行之。一个可能的解决办法是找到办法,使述职的参与者的学习经验。也就是说,而非述职思想为东西,可以造成伤害,也许述职也可以是一些有利于参与者。对于这种教育述职的一个例子,看到Jagatic et al. (2007)在一个社交网络钓鱼实验后述职的学生。心理学家已经开发技术述职(DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007)其中一些可有效地应用于数字化时代的研究。 Humphreys (2015)提供了有关推迟同意有趣的想法,这是密切相关的,我所描述的述职策略。
要求参与者对他们的同意的样品的想法是有关什么Humphreys (2015)调用推断同意 。
已经提出相关的知情同意书的另一个想法是建立的谁同意在网上实验人小组(Crawford 2014) 。有些人认为,这个小组将是人非随机抽样。但是,第3章(提出问题)显示,这些问题通过事后分层和样本匹配是潜在的寻址。此外,同意将在面板上可涵盖各种实验。换句话说,参与者可能不需要同意每个实验单独的一个概念叫做广泛同意 (Sheehan 2011) 。
远离独特,Netflix的奖说明,包含有关人员的详细信息数据集的一个重要的技术特性,从而提供了有关现代社会数据集的“匿名”的可能性,重要的教训。具有约每人许多信息文件很可能是稀疏 ,在正式的意义上定义Narayanan and Shmatikov (2008)也就是说,对于每个记录没有记录是相同的,并且实际上没有记录非常相似:每个人是远离在数据集中他们的最近的邻居。可以想见的是,因为对一家5星级的规模约为20000的电影,还有Netflix的数据可能是稀疏的约\(6 ^ {20000} \),每个人可以有(6个可能值,因为除了一个5星有人可能未评级电影的话)。这个数量是如此之大,这是很难甚至理解。
稀疏有两个主要的影响。首先,这意味着试图基于随机扰动可能会失败“匿名的”数据集。也就是说,即使Netflix的是随机调整部分评级(他们没有),因为扰动记录仍然是最接近的可能记录到攻击者的信息,这将是不够的。其次,稀疏意味着脱匿名是可能的,即使如果攻击者有不完善或公正知识。例如,Netflix的数据,假设攻击者知道了你的收视率两部电影和约会,你做这些额定值+/- 3天;只是单纯的信息足以唯一地识别68%的人在Netflix的数据。如果攻击者知道8电影已在额定±14天,然后即使两个这些已知评级的是完全错误的,记录99%可以被唯一的数据集的标识。换句话说,稀疏为努力,以“匿名”数据,因为大多数现代社会的数据集是稀疏这是不幸的一个基本问题。
电话元数据还可能似乎是“匿名”和不敏感,但事实并非如此。电话元数据识别和敏感(Mayer, Mutchler, and Mitchell 2016; Landau 2016) 。
图6.6我勾勒出来风险之间权衡,以参与者和效益与数据发布的研究。对于受限制的访问方法(例如,一个有围墙的花园)和限制数据的方法之间的比较(例如,某种形式的匿名的)看到Reiter and Kinney (2011) 。对于数据的风险水平的建议分类系统,看到Sweeney, Crosas, and Bar-Sinai (2015) 。最后,数据共享更一般的讨论,请参阅Yakowitz (2011) 。
对于风险和数据的效用之间的权衡更详细的分析,请参阅Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012)和Goroff (2015) 。要看到大规模开放在线课程(MOOCs)应用到真实的数据这种权衡,看Daries et al. (2014)和Angiuli, Blitzstein, and Waldo (2015) 。
微分隐私也提供了一种替代方法,可以既高效益相结合,社会和低风险的参与者,看到Dwork and Roth (2014)和Narayanan, Huey, and Felten (2016) 。
欲了解更多有关的个人身份信息(PII)的概念,这是中央的许多有关研究伦理规则,请参见Narayanan and Shmatikov (2010)和Schwartz and Solove (2011) 。欲了解更多有关的所有数据是潜在的敏感,见Ohm (2015) 。
在这一节中,我描述不同的数据集的东西,可导致信息风险的联动。然而,它也可以用于研究新的机会,如认为Currie (2013)
欲了解更多关于五个保险柜,看到Desai, Ritchie, and Welpton (2016) 。对于输出可以如何识别一个例子,看看Brownstein, Cassa, and Mandl (2006) ,这表明疾病流行的地图如何被识别。 Dwork et al. (2017)也考虑与汇总数据的攻击,比如有多少人有某种疾病的统计数据。
Warren and Brandeis (1890)是关于隐私的一个具有里程碑意义的法律文章,而文章是最的想法,隐私是独处的权利有关。最近的隐私,我会建议书长度治疗包括Solove (2010)和Nissenbaum (2010) 。
关于人们如何看待隐私的实证研究的回顾,见Acquisti, Brandimarte, and Loewenstein (2015) 科学杂志发表了一篇题为“隐私的终结”一个特殊的问题,这涉及从各种不同角度的隐私和信息风险问题;为总结,见Enserink and Chin (2015) 。 Calo (2011)提供了思考的来自侵犯隐私的危害的框架。在数字化时代的开始以来对隐私的担忧一个早期的例子是Packard (1964) 。
尝试应用最小风险标准时的一个挑战是,它是不明确的,其日常生活是用于基准(Council 2014) 。例如,无家可归的人在他们的日常生活中较高水平的不适。但是,这并不意味着它在伦理允许的无家可归的人暴露在高风险的研究。出于这个原因,似乎有越来越多的共识,即最小的风险应该针对普通人群的标准,而不是特定人群的标准进行基准测试。虽然我一般用普通人群标准的想法一致,我认为,对于大型网络平台如Facebook,特定人群的标准是合理的。也就是说,考虑到情绪感染的时候,我认为是合理的反对在Facebook上每天的风险标杆。在这种情况下,特定人群的标准是更容易评估,也不可能有公正的原则,其目的是防止研究弱势群体(比如,囚犯和孤儿)没有不公平的负担冲突。
其他学者也呼吁更多的论文,包括道德附录(Schultze and Mason 2012; Kosinski et al. 2015) 。 King and Sands (2015)还提供了实用技巧。