傳統上,研究倫理也包括科學欺詐和信用分配等主題。這些在Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) On Being a Scientist中有更詳細的討論。
本章深受美國情況的影響。有關其他國家/地區的道德審查程序的更多信息,請參閱Desposato (2016b)第6-9章。對於影響本章的生物醫學倫理原則過於美國化的觀點,請參閱Holm (1995) 。有關美國機構審查委員會的進一步歷史回顧,請參閱Stark (2012) 。 PS:政治科學與政治雜誌舉辦了一場關於政治科學家與IRB之間關係的專業研討會;請參閱Martinez-Ebers (2016)的摘要。
貝爾蒙特報告和美國隨後的法規傾向於區分研究和實踐。我在本章中沒有做出這樣的區分,因為我認為道德原則和框架適用於這兩種情況。有關這種區別及其引入的問題的更多信息,請參閱Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016)以及Metcalf and Crawford (2016) 。
有關Facebook研究監督的更多信息,請參閱Jackman and Kanerva (2016) 。有關公司和非政府組織研究監督的想法,請參閱Calo (2013) , Polonetsky, Tene, and Jerome (2015)以及Tene and Polonetsky (2016) 。
關於使用手機數據來幫助解決西非2014年埃博拉病毒爆發的問題(Wesolowski et al. 2014; McDonald 2016) ,有關移動電話數據隱私風險的更多信息,請參閱Mayer, Mutchler, and Mitchell (2016) 。有關使用移動電話數據的早期危機相關研究的示例,請參閱Bengtsson et al. (2011)和Lu, Bengtsson, and Holme (2012) ,以及關於危機相關研究倫理學的更多信息,請參見( ??? ) 。
很多人都寫過關於情緒傳染的文章。 研究倫理學期刊於2016年1月將整個問題用於討論實驗;請參閱Hunter and Evans (2016)的概述。 “ 國家科學院學報”發表了兩篇關於該實驗的文章: Kahn, Vayena, and Mastroianni (2014)以及Fiske and Hauser (2014) 。關於該實驗的其他部分包括: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) ,以及( ??? ) 。
在大規模監視方面, Mayer-Schönberger (2009)和Marx (2016)提供了廣泛的概述。對於監控成本變化的一個具體例子, Bankston and Soltani (2013)估計,使用手機跟踪犯罪嫌疑人的費用比使用物理監控便宜約50倍。另見Ajunwa, Crawford, and Schultz (2016)關於工作監督的討論。 Bell and Gemmell (2009)對自我監督提供了更樂觀的觀點。
除了能夠跟踪公共或部分公開的可觀察行為(例如,口味,關係和時間)之外,研究人員還可以越來越多地推斷許多參與者認為是私人的事物。例如,Michal Kosinski及其同事(2013)表明他們可以從看似普通的數字跟踪數據(Facebook Likes)推斷出有關人的敏感信息,例如性取向和成癮物質的使用。這可能聽起來很神奇,但Kosinski及其同事使用的方法 - 結合了數字痕跡,調查和監督學習 - 實際上是我已經告訴過你的事情。回想一下,在第3章(提問)。我告訴過你Joshua Blumenstock及其同事(2015)將調查數據與手機數據結合起來估算盧旺達的貧困狀況。這種完全相同的方法可用於有效衡量發展中國家的貧困,也可用於潛在的隱私侵犯推理。
有關健康數據可能無意中的二次使用的更多信息,請參閱O'Doherty et al. (2016) 。除了可能出現意外的二次使用之外,如果人們不願意閱讀某些材料或討論某些話題,即使是不完整的主數據庫的創建也會對社會和政治生活產生寒蟬效應;見Schauer (1978)和Penney (2016) 。
在規則重疊的情況下,研究人員有時會參與“監管購物” (Grimmelmann 2015; Nickerson and Hyde 2016) 。特別是,一些希望避免IRB監督的研究人員可以與IRB未涵蓋的研究人員(例如公司或非政府組織的人員)建立合作夥伴關係,並讓這些同事收集和取消識別數據。然後,IRB覆蓋的研究人員可以在沒有IRB監督的情況下分析這種去識別的數據,因為該研究不再被視為“人類受試者研究”,至少根據對當前規則的一些解釋。這種IRB規避可能與基於原則的研究倫理方法不一致。
2011年,一項努力開始更新共同規則,這一過程終於在2017年完成( ??? ) 。有關更新共同規則的更多信息,請參閱Evans (2013) , National Research Council (2014) , Hudson and Collins (2015)以及Metcalf (2016) 。
Beauchamp and Childress (2012)以生物醫學倫理學為基礎的經典原則方法。他們提出四個主要原則應該指導生物醫學倫理學:尊重自主,非傷害,有益和正義。無害的原則促使人們不要對他人造成傷害。這一概念與希波克拉底的“不傷害”概念密切相關。在研究倫理學中,這一原則通常與“慈善”原則相結合,但請參閱@ beauchamp_principles_2012第5章,了解更多關於兩者之間的區別。對於批評這些原則過於美國化,請參閱Holm (1995) 。有關平衡原則衝突的更多信息,請參閱Gillon (2015) 。
本章中的四項原則也被提議用於指導公司和非政府組織(Polonetsky, Tene, and Jerome 2015)通過稱為“消費者主題審查委員會”(CSRBs) (Calo 2013)機構進行的道德監督。
除尊重自治外,貝爾蒙特報告還承認並非每個人都能夠真正自我決定。例如,兒童,患有疾病的人或生活在嚴重受限自由情況下的人可能無法充當完全自主的個人,因此這些人受到額外保護。
在數字時代應用尊重人的原則可能具有挑戰性。例如,在數字時代的研究中,很難為自我決定能力下降的人提供額外的保護,因為研究人員通常對他們的參與者知之甚少。此外,數字時代社會研究中的知情同意是一項巨大的挑戰。在某些情況下,真正的知情同意可能會受到透明度悖論的影響 (Nissenbaum 2011) ,其中信息和理解存在衝突。粗略地說,如果研究人員提供有關數據收集,數據分析和數據安全實踐的完整信息,許多參與者將難以理解。但是,如果研究人員提供可理解的信息,它可能缺乏重要的技術細節。在模擬時代的醫學研究中 - 貝爾蒙特報告所考慮的主導地位 - 人們可以想像醫生會與每個參與者單獨交談以幫助解決透明度悖論。在涉及數千或數百萬人的在線研究中,這種面對面的方法是不可能的。數字時代同意的第二個問題是,在一些研究中,例如對海量數據庫的分析,獲得所有參與者的知情同意是不切實際的。我將在第6.6.1節中更詳細地討論有關知情同意的這些問題和其他問題。然而,儘管存在這些困難,但我們應該記住,知情同意對於尊重人來說既不必要也不充分。
有關知情同意前的醫學研究的更多信息,請參閱Miller (2014) 。對於知情同意的書籍處理,請參閱Manson and O'Neill (2007) 。另見下面有關知情同意的建議讀物。
對環境的危害是研究對特定人群而非社會環境造成的傷害。這個概念有點抽象,但我將用一個典型的例子來說明:威奇托陪審團研究(Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - 有時也被稱為芝加哥陪審團項目(Cornwell 2010) 。在這項研究中,芝加哥大學的研究人員,作為對法律體系社會方面的更大研究的一部分,在堪薩斯州威奇托秘密記錄了六次陪審團審議。案件中的法官和律師批准了錄音,並嚴格監督了這一過程。然而,陪審員並不知道錄音正在發生。一旦研究被發現,就會引起公憤。司法部開始對這項研究進行調查,研究人員被要求在國會面前作證。最終,國會通過了一項新的法律,規定秘密記錄陪審團的審議是非法的。
威奇托陪審團研究的批評者關注的不是對參與者造成傷害的風險;相反,在陪審團審議的背景下,這是一種危害的風險。也就是說,人們認為如果陪審團成員不相信他們在安全和受保護的空間進行討論,陪審團審議將來會更難。除了陪審團審議之外,社會還提供其他特定的社會背景,例如律師 - 客戶關係和心理關懷(MacCarthy 2015) 。
在政治科學的一些實地實驗中也出現了對環境的危害和社會系統的破壞的風險(Desposato 2016b) 。有關政治科學領域實驗的更具背景敏感性的成本效益計算的示例,請參閱Zimmerman (2016) 。
在與數字時代研究相關的許多環境中討論了參與者的報酬。 Lanier (2014)建議向參與者支付他們產生的數字痕跡。 Bederson and Quinn (2011)討論了在線勞動力市場的支付。最後, Desposato (2016a)建議向參與者進行實地試驗。他指出,即使參與者無法直接獲得報酬,也可以向代表他們工作的團體捐款。例如,在Encore中,研究人員可以向致力於支持訪問互聯網的團體捐款。
服務條款協議的重要性應低於平等協議之間協商的合同,而不是合法政府制定的法律。研究人員過去違反服務條款協議的情況通常涉及使用自動查詢來審計公司的行為(就像測量歧視的現場實驗一樣)。有關其他討論,請參閱Vaccaro et al. (2015) , Bruckman (2016a)和Bruckman (2016b) 。有關討論服務條款的實證研究的例子,請參閱Soeller et al. (2016) 。有關研究人員違反服務條款可能面臨的法律問題的更多信息,請參閱Sandvig and Karahalios (2016) 。
顯然,關於結果主義和道義論已經寫了很多。有關這些道德框架和其他框架如何用於推理數字時代研究的示例,請參閱Zevenbergen et al. (2015) 。有關如何將它們應用於發展經濟學中的現場實驗的示例,請參閱Baele (2013) 。
有關歧視審計研究的更多信息,請參閱Pager (2007)和Riach and Rich (2004) 。這些研究不僅沒有知情同意,而且還涉及欺騙而不進行匯報。
Desposato (2016a)和Humphreys (2015)未經同意就現場實驗提供建議。
Sommers and Miller (2013)回顧了許多論據,支持在欺騙後不對參與者進行匯報,並認為研究人員應該放棄匯報
“在一系列非常狹窄的情況下,即在實地調查中,匯報帶來了相當大的實際障礙,但研究人員如果可以的話就不會有任何關於匯報的疑慮。不應允許研究人員放棄匯報,以保護一個天真的參與者群體,保護自己免受參與者的憤怒,或保護參與者免受傷害。
其他人認為,在某些情況下,如果情況匯報導致弊大於利,則應該避免(Finn and Jakobsson 2007) 。情況匯報是一些研究人員優先考慮尊重人的受益者,而一些研究人員卻反其道而行之。一種可能的解決方案是找到讓參與者進行匯報學習體驗的方法。也就是說,也許匯報也可以使參與者受益,而不是將匯報視為可能造成傷害的事情。有關此類教育情況匯報的示例,請參閱Jagatic et al. (2007) 。心理學家已經開發了匯報技術(DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) ,其中一些可能有用地應用於數字時代研究。 Humphreys (2015)提供了關於延期同意的有趣想法,這與我所描述的匯報策略密切相關。
詢問參與者樣本同意的想法與Humphreys (2015)所謂的推斷同意有關 。
已提出的與知情同意相關的另一個想法是建立一個同意參與在線實驗的人員小組(Crawford 2014) 。有些人認為這個小組將是一個非隨機的人群樣本。但是第3章(提出問題)表明,使用後分層可以解決這些問題。此外,同意參加專家組可以涵蓋各種實驗。換句話說,參與者可能不需要單獨同意每個實驗,這個概念稱為廣泛同意 (Sheehan 2011) 。有關每次研究的一次性同意和同意之間的差異以及可能的雜交的更多信息,請參閱Hutton and Henderson (2015) 。
Netflix獎遠非獨特,它展示了數據集的重要技術屬性,其中包含有關人員的詳細信息,因此提供了有關現代社交數據集“匿名化”可能性的重要課程。在Narayanan and Shmatikov (2008)正式定義的意義上,關於每個人的許多信息的文件很可能是稀疏的 。也就是說,對於每條記錄,沒有相同的記錄,實際上沒有非常相似的記錄:每個人都遠離數據集中最近的鄰居。可以想像,Netflix數據可能很稀疏,因為在五星級上有大約20,000部電影,每個人可能有大約\(6^{20,000}\)可能的值(6因為,除了1到1之外) 5星,有人可能根本沒有評價電影)。這個數字太大了,很難理解。
稀疏性有兩個主要含義。首先,這意味著嘗試基於隨機擾動“匿名化”數據集可能會失敗。也就是說,即使Netflix隨機調整一些評級(他們這樣做),這也是不夠的,因為受到干擾的記錄仍然是最接近攻擊者所擁有信息的記錄。其次,稀疏性意味著即使攻擊者俱有不完全或公正的知識,也可以重新識別。例如,在Netflix數據中,讓我們假設攻擊者知道您對兩部電影的評分以及您對這些評分的評分日期\(\pm\) 3天;僅僅這些信息足以唯一地識別Netflix數據中68%的人。如果攻擊者知道您評價為8天\(\pm\) 14天的電影,那麼即使其中兩個已知評級完全錯誤,也可以在數據集中唯一標識99%的記錄。換句話說,稀疏性是“匿名化”數據的基本問題,這是不幸的,因為大多數現代社交數據集都很稀疏。有關稀疏數據“匿名化”的更多信息,請參閱Narayanan and Shmatikov (2008) 。
電話元數據也可能看似“匿名”而且不敏感,但事實並非如此。電話元數據是可識別和敏感的(Mayer, Mutchler, and Mitchell 2016; Landau 2016) 。
在圖6.6中,我概述了數據發布與參與者的風險和社會利益之間的權衡。對於限制訪問方法(例如,有圍牆的花園)和受限數據方法(例如,某種形式的“匿名化”)之間的比較,請參閱Reiter and Kinney (2011) 。對於建議的數據風險等級分類系統,請參見Sweeney, Crosas, and Bar-Sinai (2015) 。有關數據共享的更多一般性討論,請參閱Yakowitz (2011) 。
有關數據風險和效用之間權衡的更詳細分析,請參閱Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013)和Goroff (2015) 。要看到這種權衡適用於來自大規模開放在線課程(MOOC)的實際數據,請參閱Daries et al. (2014)和Angiuli, Blitzstein, and Waldo (2015) 。
差別隱私還提供了一種替代方法,既可以將低風險與參與者相結合,又可以為社會帶來高收益;參見Dwork and Roth (2014)以及Narayanan, Huey, and Felten (2016) 。
有關個人識別信息(PII)概念的更多信息,這是許多有關研究倫理的規則的核心,請參閱Narayanan and Shmatikov (2010)以及Schwartz and Solove (2011) 。有關可能敏感的所有數據的更多信息,請參閱Ohm (2015) 。
在本節中,我將不同數據集的鏈接描述為可能導致信息風險的因素。然而,正如Currie (2013) ,它也可以為研究創造新的機會。
有關五個保險箱的更多信息,請參閱Desai, Ritchie, and Welpton (2016) 。有關輸出如何識別的示例,請參閱Brownstein, Cassa, and Mandl (2006) ,其中顯示了疾病流行的地圖如何識別。 Dwork et al. (2017)還考慮對匯總數據的攻擊,例如關於有多少人患有某種疾病的統計數據。
有關數據使用和數據發布的問題也引發了有關數據所有權的問題有關數據所有權的更多信息,請參閱Evans (2011)和Pentland (2012) 。
Warren and Brandeis (1890)是一篇關於隱私的具有里程碑意義的法律文章,與隱私權是一個獨立的權利有關。我推薦的書本長度隱私處理包括Solove (2010)和Nissenbaum (2010) 。
有關人們如何看待隱私的實證研究的回顧,請參閱Acquisti, Brandimarte, and Loewenstein (2015) 。 Phelan, Lampe, and Resnick (2016)提出了一種雙系統理論 - 人們有時會關注直覺問題,有時會關注所考慮的問題 - 來解釋人們如何能夠就隱私做出明顯矛盾的陳述。有關Twitter等在線設置中隱私概念的更多信息,請參閱Neuhaus and Webmoor (2012) 。
“ 科學 ”雜誌發表了一篇題為“隱私的終結”的專題章節,從各種不同的角度解決了隱私和信息風險問題;有關摘要,請參閱Enserink and Chin (2015) 。 Calo (2011)提供了一個思考侵犯隱私的危害的框架。 Packard (1964)是數字時代初期隱私問題的早期例子。
嘗試應用最低風險標準時的一個挑戰是,不清楚其日常生活是否用於基準測試(National Research Council 2014) 。例如,無家可歸者在日常生活中的不適程度較高。但這並不意味著在道德上允許無家可歸者接觸高風險研究。出於這個原因,似乎越來越多的共識認為,最低風險應該基於一般人口標準,而不是特定人口標準。雖然我普遍同意一般人口標準的觀點,但我認為對於像Facebook這樣的大型在線平台,特定的人口標準是合理的。因此,在考慮情緒傳染時,我認為對Facebook的日常風險進行基準測試是合理的。在這種情況下,特定人口標準更容易評估,並且不太可能與司法原則相衝突,司法原則旨在防止研究的負擔不公平地對弱勢群體(例如,囚犯和孤兒)造成不公平。
其他學者也呼籲更多論文包括道德附錄(Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) 。 King and Sands (2015)也提供實用技巧。 Zook及其同事(2017)提供了“十項簡單的負責任大數據研究規則”。