這部分被設計為用作基準,而不是被理解為敘述。
研究倫理歷來還包括主題,如科學欺詐和信貸分配。這些主題中更詳細地討論的Engineering (2009)
本章是強烈的美國的情況形成的。欲了解更多關於其他國家的倫理審查程序,見第6,7,8,和9 Desposato (2016b)對於一個論點本章影響了生物醫學倫理原則是過度美國人,看到Holm (1995) 。對於機構審查委員會在美國更多的歷史回顧,看到Stark (2012) 。
貝爾蒙特報告和美國隨後的規定作出研究和實踐之間的區別。這種區分隨後被批評(Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) 。因為我覺得道德原則和框架適用於設置我不做這種區別一節。欲了解更多有關的研究在監督臉譜,看到Jackman and Kanerva (2016) 。對於在企業和非政府組織的研究監督的建議,請參閱Polonetsky, Tene, and Jerome (2015)和Tene and Polonetsky (2016) 。
欲了解更多關於埃博拉疫情的情況下,在2014年,看到McDonald (2016) ,以及更多的手機數據的隱私風險,看到Mayer, Mutchler, and Mitchell (2016) 。對於使用手機數據的危機相關研究的示例,請參見Bengtsson et al. (2011)和Lu, Bengtsson, and Holme (2012)
很多人都寫了關於情緒感染。該雜誌研究倫理致力於在2016年討論實驗一月他們的整個問題;看到Hunter and Evans (2016)的概述。 美國國家科學學者的論文集出版的有關實驗兩部分: Kahn, Vayena, and Mastroianni (2014)和Fiske and Hauser (2014) 。有關實驗的其他作品包括: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) 。
更多關於喝采,看到Jones and Feamster (2015) 。
在群眾監督方面,中提供廣泛的概述Mayer-Schönberger (2009)和Marx (2016) 。對於監控的成本變化的一個具體的例子, Bankston and Soltani (2013)估計,使用手機追踪犯罪嫌疑人比使用物理監視便宜約50倍。 Bell and Gemmell (2009)提供了關於自我更加樂觀的觀點監視。除了能夠跟踪觀察的行為是公開或部分公開(如味道,領帶,和時間),研究人員可以推斷出越來越多的東西,許多與會者認為是私有的。例如,米哈爾科辛斯基和他的同事發現,他們可以推斷出人,如性取向和使用成癮物質從看似普通的數字跟踪數據(Facebook的喜歡)的敏感信息(Kosinski, Stillwell, and Graepel 2013) 。這聽起來不可思議,但該方法科辛斯基和同事使用,它集數字軌跡,調查和監督的實際邊學的東西,我已經告訴過你。回想一下,在第3章(提問)我告訴你,喬希Blumenstock和同事如何(2015)用手機數據結合調查數據來估算貧困盧旺達。此完全相同的方法,它可用於有效地測量貧窮的發展中國家,也可以使用潛在的隱私侵犯的推論。
不一致的法律和規範,可能會導致不尊重參與者的意願研究,它可以導致“監管血拼”研究人員(Grimmelmann 2015; Nickerson and Hyde 2016) 。特別是,一些研究者誰希望避免IRB監督有誰不涵蓋的IRB的合作夥伴(例如,人的公司或非政府組織)收集並去識別數據。然後,研究人員可以分析該解標識數據而不IRB監督,至少根據電流規則一些解釋。這種逃避IRB似乎是不符合一個原則為基礎的方法。
欲了解更多關於人們對健康數據不一致的,異構的想法,看到Fiore-Gartland and Neff (2015) 。欲了解更多的問題異質性創造了研究倫理決策看到Meyer (2013) 。
模擬時代和數字時代研究之間的一個區別是,在數字時代與參加研究的相互作用是更遠處 。這些相互作用常常通過中介發生如公司,並且通常有研究者和參與者之間的大的物理和社會距離。這遙遠的相互作用,使一些事情,很容易在模擬時代的研究很難在數字化時代的研究,如篩選出誰需要額外的保護參與者,檢測不良事件,以及如果發生補救的傷害。例如,讓我們對比情緒感染與同一主題的假想實驗室實驗。在實驗室實驗中,研究人員可以篩選出任何人誰在顯示情緒困擾的跡象明顯實驗室到來。此外,如果在實驗室試驗造成了不良事件,研究人員會看到它,提供服務補救的危害,然後作出調整實驗方案,以防止未來的危害。互動的實際情緒感染實驗遙遠的性質使得每一種簡單而明智的步驟非常困難。此外,我懷疑是研究者和參與者之間的距離,使研究人員不敏感其參與者的關注。
不一致的規範和法律的其他來源。一些這種不一致來自於一個事實,即這項研究是發生在世界各地。例如,安可涉案人員來自世界各地,因此,它可能是受數據保護和許多不同國家的隱私法。如果執政的第三方Web請求(安可什麼在做)在德國不同,美國,肯尼亞和中國的規範?如果規範不是一個單一的國家內,甚至是否一致?不一致的第二個來源是研究人員在大學和企業之間的合作;例如,情緒感染是Facebook的數據科學家,康奈爾大學教授和研究生之間的合作。在Facebook上運行大型實驗是家常便飯,並且在那個時候,並不需要任何第三方的倫理審查。在康奈爾大學的規範和規則是完全不同的;幾乎所有的實驗必須由康奈爾大學IRB進行審查。因此,它的規則集應該支配情緒感染,Facebook的還是康奈爾大學的?
欲了解更多關於做好修訂通用規則,請參見Evans (2013) , Council (2014) , Metcalf (2016) ,以及Hudson and Collins (2015) 。
基於原則的經典方法,生物醫學倫理是Beauchamp and Childress (2012)他們提出四項主要原則應指導生物醫學倫理:自治,不傷害,善行和正義的尊重。不傷害原則敦促一名來自造成傷害到其他人投棄權票。這個概念是深深連接到希波克拉底理念“不傷害”。在研究倫理,這個原則往往與善行原則相結合,但見Beauchamp and Childress (2012)第5章)以獲取更多的區分兩者之間。對於批評,這些原則是過度的美國,看到Holm (1995) 。欲了解更多關於平衡時原則相衝突,見Gillon (2015) 。
本章中的四項原則也被提出來指導研究倫理監督在企業和非政府組織發生(Polonetsky, Tene, and Jerome 2015)通過機構所謂的“消費主題審查委員會”(CSRBs) (Calo 2013) 。
除了尊重自主權,貝爾蒙報告也承認,並不是每個人能夠真正的自決。例如,孩子,人患的疾病,或生活在嚴重限制自由的情況下,人們可能無法作為完全獨立的個體,而這些人都是,因此,對其進行額外的保護。
在數字時代應用尊重的原則,人是具有挑戰性的。例如,在數字化時代的研究,就很難為人們與自決能力減退提供額外的保護,因為研究人員往往知之甚少他們的參與。此外,在數字化時代的社會研究的知情同意是一個巨大的挑戰。在一些情況 下,真正的知情同意可以從透明度悖論遭受(Nissenbaum 2011)其中, 信息和理解有衝突。粗略地說,如果研究人員提供了有關數據收集,數據分析和數據安全實踐的本質的完整信息,這將是困難的許多參與者理解。但是,如果研究人員提供易於理解的信息,它可能缺乏重要的技術信息。在模擬時代-的主導由貝爾蒙報告一考慮設置醫學研究會想像一個醫生與每個參與者單獨交談,幫助解決透明度的悖論。在涉及人的數千或數百萬在線的研究,這樣一張臉對臉的做法是不可能的。在數字時代同意的第二個問題是,在一些研究中,如海量數據倉庫的分析,這將是不切實際的,從所有參與者獲得知情同意書。我更詳細的第6.6.1節討論有關知情同意這些問題和其他問題。儘管有這些困難,但是,我們應該記住,知情同意是既無必要,也足夠尊重的人。
欲了解更多有關知情同意之前醫學研究,請參見Miller (2014) 。對於知情同意書長的治療,看到Manson and O'Neill (2007) 。也參見下文知情同意書建議的讀數。
受到損害的上下文是研究能導致無法具體的人,而是社會環境的危害。這個概念是一個有點抽象,但我會用兩個例子說明吧:一個模擬和一台數字。
危害上下文的一個經典例子來自威奇托評委會研究[ Vaughan (1967) ; Katz, Capron, and Glass (1972) ;第2章] -有時也被稱為芝加哥陪審團項目(Cornwell 2010)在這項研究的研究人員來自芝加哥大學,作為關於法律制度的社會方面,偷偷記錄了六陪審團的商議在堪薩斯州威奇托更大的研究的一部分。在案件的法官與律師批准了錄音,並有嚴格的過程監督。然而,陪審團沒有察覺到,記錄正在發生。一旦研究發現,有公憤。司法部開始研究的調查,研究人員被稱為在國會前作證。最終,國會通過了一項新的法律,是非法的秘密記錄陪審團審議。
威奇托陪審團研究並沒有傷害到參與者的批評者的關注;相反,它是危害到陪審團審議的情況下。也就是說,人們相信,如果陪審團成員不相信他們有在安全和受保護的空間的討論,這將是更難陪審團的商議在未來繼續進行。除了 評委會審議,有社會與額外保護,如律師-客戶關係和心理護理提供其他特定社會背景下(MacCarthy 2015) 。
危害語境和社會制度的破壞的風險,在政治科學領域的一些實驗也來了(Desposato 2016b)對於更多的上下文敏感的成本收益計算在政治學領域的實驗示例,請參見Zimmerman (2016)
補償的參與者已經在一些涉及到數字時代的研究環境進行了討論。 Lanier (2014)提出的支付參與者,因為他們產生的數字痕跡。 Bederson and Quinn (2011)討論了網上勞動力市場付款。最後, Desposato (2016a)提出了現場實驗參加者支付。他指出,即使參與者不能直接支付,捐贈可以代表他們的一個工作小組提出。例如,在Encore中,研究人員可作出捐贈工作,以支持訪問Internet的組。
條件方面的服務協議應當具有大於等於當事人和合法政府建立法律之間的合同談判重量輕。那裡的研究人員在過去違反條件方面的服務協議的情況下通常涉及通過自動查詢審核公司的行為(很像現場實驗來測量歧視)。有更多的討論參見Vaccaro et al. (2015) , Bruckman (2016a) Bruckman (2016b)對於討論服務條款實證研究的一個例子,看到Soeller et al. (2016) 。欲了解更多有關研究人員所面臨的可能的法律問題,如果他們違反了服務條款看Sandvig and Karahalios (2016) 。
顯然,巨大的數額已經寫了結果主義和道義。對於如何將這些倫理框架,以及其他的例子,可以用於推理數字時代的研究,見Zevenbergen et al. (2015)有關這些倫理框架如何應用到田間實驗經濟學發展的例子,看看Baele (2013) 。
欲了解更多關於歧視審計研究,看Pager (2007)和Riach and Rich (2004)不僅這些研究沒有知情同意,他們還涉及欺騙而不述職。
無論Desposato (2016a)和Humphreys (2015)獻計約田間試驗沒有同意。
Sommers and Miller (2013)評論贊成不述職欺騙後,參與者很多爭論,並認為研究人員應放棄“在一個很窄的一套的情況下,即述職,在實地調研中,述職造成相當大的實際障礙,但研究人員將有沒有任何疑慮,如果他們能述職。研究者不應該被允許,以保持一個天真的參與者池,從參與者的憤怒保護自己,或保護參與者免受傷害放棄述職。“其他人則認為,如果述職會導致比它好,應避免更多的傷害。述職就是一些研究者優先超過善行的人尊重的情況下,一些研究者卻反其道而行之。一個可能的解決辦法是找到辦法,使述職的參與者的學習經驗。也就是說,而非述職思想為東西,可以造成傷害,也許述職也可以是一些有利於參與者。對於這種教育述職的一個例子,看到Jagatic et al. (2007)在一個社交網絡釣魚實驗後述職的學生。心理學家已經開發技術述職(DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007)其中一些可有效地應用於數字化時代的研究。 Humphreys (2015)提供了有關推遲同意有趣的想法,這是密切相關的,我所描述的述職策略。
要求參與者對他們的同意的樣品的想法是有關什麼Humphreys (2015)調用推斷同意 。
已經提出相關的知情同意書的另一個想法是建立的誰同意在網上實驗人小組(Crawford 2014) 。有些人認為,這個小組將是人非隨機抽樣。但是,第3章(提出問題)顯示,這些問題通過事後分層和樣本匹配是潛在的尋址。此外,同意將在面板上可涵蓋各種實驗。換句話說,參與者可能不需要同意每個實驗單獨的一個概念叫做廣泛同意 (Sheehan 2011) 。
遠離獨特,Netflix的獎說明,包含有關人員的詳細信息數據集的一個重要的技術特性,從而提供了有關現代社會數據集的“匿名”的可能性,重要的教訓。具有約每人許多信息文件很可能是稀疏 ,在正式的意義上定義Narayanan and Shmatikov (2008)也就是說,對於每個記錄沒有記錄是相同的,並且實際上沒有記錄非常相似:每個人是遠離在數據集中他們的最近的鄰居。可以想見的是,因為對一家5星級的規模約為20000的電影,還有Netflix的數據可能是稀疏的約\(6 ^ {20000} \),每個人可以有(6個可能值,因為除了一個5星有人可能未評級電影的話)。這個數量是如此之大,這是很難甚至理解。
稀疏有兩個主要的影響。首先,這意味著試圖基於隨機擾動可能會失敗“匿名的”數據集。也就是說,即使Netflix的是隨機調整部分評級(他們沒有),因為擾動記錄仍然是最接近的可能記錄到攻擊者的信息,這將是不夠的。其次,稀疏意味著脫匿名是可能的,即使如果攻擊者有不完善或公正知識。例如,Netflix的數據,假設攻擊者知道了你的收視率兩部電影和約會,你做這些額定值+/- 3天;只是單純的信息足以唯一地識別68%的人在Netflix的數據。如果攻擊者知道8電影已在額定±14天,然後即使兩個這些已知評級的是完全錯誤的,記錄99%可以被唯一的數據集的標識。換句話說,稀疏為努力,以“匿名”數據,因為大多數現代社會的數據集是稀疏這是不幸的一個基本問題。
電話元數據還可能似乎是“匿名”和不敏感,但事實並非如此。電話元數據識別和敏感(Mayer, Mutchler, and Mitchell 2016; Landau 2016) 。
在圖6.6,我勾勒出風險之間的權衡參與者和利益,從數據發布的研究。對於受限制的訪問方法(例如,一個有圍牆的花園)和限制數據的方法之間的比較(例如,某種形式的匿名的)看到Reiter and Kinney (2011) 。對於數據的風險水平的建議分類系統,看到Sweeney, Crosas, and Bar-Sinai (2015) 。最後,數據共享更一般的討論,請參閱Yakowitz (2011) 。
對於風險和數據的效用之間的權衡更詳細的分析,請參閱Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012)和Goroff (2015) 。要看到大規模開放在線課程(MOOCs)應用到真實的數據這種權衡,看Daries et al. (2014)和Angiuli, Blitzstein, and Waldo (2015)
微分隱私也提供了一種替代方法,可以既高效益相結合,社會和低風險的參與者,看到Dwork and Roth (2014)和Narayanan, Huey, and Felten (2016) 。
欲了解更多有關的個人身份信息(PII)的概念,這是中央的許多有關研究倫理規則,請參見Narayanan and Shmatikov (2010)和Schwartz and Solove (2011) 。欲了解更多有關的所有數據是潛在的敏感,見Ohm (2015) 。
在這一節中,我描述不同的數據集的東西,可導致信息風險的聯動。然而,它也可以用於研究新的機會,如認為Currie (2013)
欲了解更多關於五個保險櫃,看到Desai, Ritchie, and Welpton (2016) 。對於輸出可以如何識別一個例子,看看Brownstein, Cassa, and Mandl (2006) ,這表明疾病流行的地圖如何被識別。 Dwork et al. (2017)也考慮與匯總數據的攻擊,比如有多少人有某種疾病的統計數據。
Warren and Brandeis (1890)是關於隱私的一個具有里程碑意義的法律文章,而文章是最的想法,隱私是獨處的權利有關。最近的隱私,我會建議書長度治療包括Solove (2010)和Nissenbaum (2010) 。
關於人們如何看待隱私的實證研究的回顧,見Acquisti, Brandimarte, and Loewenstein (2015) 科學雜誌發表了一篇題為“隱私的終結”一個特殊的問題,這涉及從各種不同角度的隱私和信息風險問題;為總結,見Enserink and Chin (2015) 。 Calo (2011)提供了思考的來自侵犯隱私的危害的框架。在數字化時代的開始以來對隱私的擔憂一個早期的例子是Packard (1964) 。
嘗試應用最小風險標準時的一個挑戰是,它是不明確的,其日常生活是用於基準(Council 2014) 。例如,無家可歸的人在他們的日常生活中較高水平的不適。但是,這並不意味著它在倫理允許的無家可歸的人暴露在高風險的研究。出於這個原因,似乎有越來越多的共識,即最小的風險應該針對普通人群的標準,而不是特定人群的標準進行基準測試。雖然我一般用普通人群標準的想法一致,我認為,對於大型網絡平台如Facebook,特定人群的標準是合理的。也就是說,考慮到情緒感染的時候,我認為是合理的反對在Facebook上每天的風險標杆。在這種情況下,特定人群的標準是更容易評估,也不可能有公正的原則,其目的是防止研究弱勢群體(比如,囚犯和孤兒)沒有不公平的負擔衝突。
其他學者也呼籲更多的論文,包括道德附錄(Schultze and Mason 2012; Kosinski et al. 2015) 。 King and Sands (2015)還提供了實用技巧。