ความเสี่ยงที่ข้อมูลเป็นความเสี่ยงที่พบมากที่สุดในการวิจัยทางสังคม ก็มีเพิ่มขึ้นอย่างมาก; และมันก็เป็นความเสี่ยงที่ยากที่สุดที่จะเข้าใจ
ความท้าทายจริยธรรมที่สองสำหรับการวิจัยทางสังคมยุคดิจิตอลคือความเสี่ยงในการให้ข้อมูลที่มีศักยภาพสำหรับอันตรายจากการเปิดเผยข้อมูล (Council 2014) เป็นอันตรายต่อการให้ข้อมูลจากการเปิดเผยข้อมูลส่วนบุคคลที่อาจจะเป็นทางเศรษฐกิจ (เช่นการสูญเสียงาน) สังคม (เช่นความลำบากใจ) จิตใจ (เช่นภาวะซึมเศร้า) หรือแม้แต่ความผิดทางอาญา (เช่นการจับกุมสำหรับพฤติกรรมที่ผิดกฎหมาย) แต่น่าเสียดายที่ยุคดิจิตอลเพิ่มความเสี่ยงอย่างมากข้อมูล-มีเพียงข้อมูลมากขึ้นเกี่ยวกับพฤติกรรมของเรา และความเสี่ยงในการให้ข้อมูลได้รับการพิสูจน์ยากมากที่จะเข้าใจและจัดการเมื่อเทียบกับความเสี่ยงที่มีความกังวลในการวิจัยทางสังคมอายุอนาล็อกเช่นความเสี่ยงทางกายภาพ เพื่อดูว่ายุคดิจิตอลเพิ่มความเสี่ยงในการให้ข้อมูลพิจารณาการเปลี่ยนแปลงจากกระดาษเวชระเบียนอิเล็กทรอนิกส์ ทั้งสองประเภทของระเบียนที่สร้างความเสี่ยง แต่ระเบียนอิเล็กทรอนิกส์สร้างความเสี่ยงมากขึ้นเพราะในระดับมากที่พวกเขาสามารถส่งไปยังบุคคลที่ไม่ได้รับอนุญาตหรือรวมกับข้อมูลอื่น ๆ นักวิจัยสังคมในยุคดิจิตอลมีอยู่แล้วทำงานเป็นปัญหาที่มีความเสี่ยงในการให้ข้อมูลในส่วนหนึ่งเพราะพวกเขาไม่เข้าใจวิธีการวัดปริมาณและจัดการกับมัน ดังนั้นผมจะนำเสนอวิธีที่เป็นประโยชน์ที่จะคิดเกี่ยวกับความเสี่ยงในการให้ข้อมูลและจากนั้นผมจะให้คำแนะนำบางอย่างสำหรับวิธีการจัดการความเสี่ยงในการให้ข้อมูลในการวิจัยของคุณและในการปล่อยข้อมูลไปยังนักวิจัยอื่น ๆ
วิธีหนึ่งที่นักวิจัยทางสังคมลดความเสี่ยงในการให้ข้อมูลที่เป็น "ลบข้อมูลระบุ" ของข้อมูล "การลบข้อมูลระบุ" เป็นกระบวนการของการเอาตัวบ่งชี้ที่เห็นได้ชัดส่วนบุคคลเช่นชื่อที่อยู่และหมายเลขโทรศัพท์จากข้อมูล แต่วิธีนี้เป็นอย่างมากที่มีประสิทธิภาพน้อยกว่าที่หลายคนตระหนักและมันก็เป็นในความเป็นจริงได้อย่างล้ำลึกและลึกซึ้ง จำกัด สำหรับเหตุผลที่ทุกครั้งที่ผมอธิบาย "ข้อมูลระบุว่า" ฉันจะใช้เครื่องหมายคำพูดจะเตือนคุณว่ากระบวนการนี้จะสร้างลักษณะของการไม่เปิดเผยชื่อ แต่ไม่เปิดเผยชื่อจริง
ตัวอย่างที่เด่นชัดของความล้มเหลวของ "ข้อมูลระบุ" มาจากปลายปี 1990 ในแมสซาชูเซต (Sweeney 2002) กลุ่มคณะกรรมการประกันภัย (GIC) เป็นหน่วยงานของรัฐที่รับผิดชอบในการซื้อประกันสุขภาพสำหรับพนักงานของรัฐทั้งหมด ผ่านการทำงานนี้ GIC รวบรวมบันทึกสุขภาพรายละเอียดเกี่ยวกับพันของพนักงานของรัฐ ในความพยายามที่จะกระตุ้นการวิจัยเกี่ยวกับวิธีการปรับปรุงสุขภาพ, GIC ตัดสินใจที่จะปล่อยข้อมูลเหล่านี้นักวิจัย แต่พวกเขาไม่ได้แบ่งปันข้อมูลทั้งหมดของพวกเขา; แต่พวกเขา "ไม่ระบุชื่อ" มันโดยการลบข้อมูลเช่นชื่อและที่อยู่ อย่างไรก็ตามพวกเขาออกจากข้อมูลอื่น ๆ ที่พวกเขาคิดว่าอาจจะมีประโยชน์สำหรับนักวิจัยเช่นข้อมูลประชากร (รหัสไปรษณีย์, วันเกิด, เชื้อชาติและเพศ) และข้อมูลทางการแพทย์ (ข้อมูลการเข้าชมการวินิจฉัยขั้นตอน) (รูปที่ 6.4) (Ohm 2010) แต่น่าเสียดายที่วันนี้ "ข้อมูลระบุ" ไม่เพียงพอที่จะป้องกันข้อมูล
แสดงให้เห็นถึงข้อบกพร่องของ GIC "ระบุตัวตน" ที่ Latanya สวีนีย์แล้วนักศึกษาระดับบัณฑิตศึกษาที่ MIT-จ่าย $ 20 ถึงได้รับการบันทึกลงคะแนนเสียงจากเมืองเคมบริดจ์, แมสซาชูเซตบ้านเกิดของวิลเลียมประสานราชการที่ เหล่านี้บันทึกการออกเสียงลงคะแนนรวมข้อมูลเช่นชื่อ, ที่อยู่, รหัสไปรษณีย์, วันเกิดและเพศ ความจริงที่ว่าไฟล์ทางการแพทย์ข้อมูลและรหัสสาขา-Zip ไฟล์ผู้มีสิทธิเลือกตั้งที่ใช้ร่วมกันวันเดือนปีเกิดและเพศหมายความว่าสวีนีย์สามารถเชื่อมโยงพวกเขา สวีนีย์รู้ว่าวันเกิด Weld เป็น 31 กรกฎาคม 1945 และมีการบันทึกการออกเสียงลงคะแนนรวมเพียงหกคนในเคมบริดจ์มีวันเกิดที่ นอกจากนี้ในบรรดาหกคนเพียงสามเป็นเพศชาย และในบรรดาสามคนเพียงคนเดียวที่ใช้ร่วมกันรหัสไปรษณีย์ของ Weld ดังนั้นข้อมูลการลงคะแนนแสดงให้เห็นว่าทุกคนในข้อมูลทางการแพทย์ที่มีการรวมกันเชื่อมของวันเดือนปีเกิด, เพศและรหัสไปรษณีย์เป็นวิลเลียมประสาน ในสาระสำคัญทั้งสามชิ้นส่วนของข้อมูลที่ได้รับลายนิ้วมือที่ไม่ซ้ำกันกับเขาในข้อมูล โดยใช้ความเป็นจริงนี้สวีนีย์ก็สามารถที่จะหาเวชระเบียนเชื่อมและจะแจ้งให้เขาของความสำเร็จของเธอเธอส่งเขาสำเนาระเบียนของเขา (Ohm 2010)
ทำงานสวีนีย์แสดงให้เห็นถึงโครงสร้างพื้นฐานของการโจมตี de-ข้อมูลระบุ -to นำคำจากชุมชนการรักษาความปลอดภัยคอมพิวเตอร์ ในการโจมตีเหล่านี้ชุดข้อมูลสองชุดทั้งที่ด้วยตัวเองเผยข้อมูลที่สำคัญมีการเชื่อมโยงและผ่านการเชื่อมโยงนี้ข้อมูลที่สำคัญเป็นที่เปิดเผย ในวิธีการบางขั้นตอนนี้มีความคล้ายคลึงกับวิธีการที่โซดาและน้ำส้มสายชู, สารทั้งสองที่ด้วยตัวเองปลอดภัยสามารถรวมกันเพื่อทำให้เกิดผลลัพธ์ที่น่ารังเกียจ
ในการตอบสนองการทำงานสวีนีย์, และงานอื่น ๆ ที่เกี่ยวข้องกับนักวิจัยในขณะนี้โดยทั่วไปลบมากขึ้นข้อมูลทั้งหมดที่เรียกว่า "ข้อมูลระบุตัวบุคคล" (PII) (Narayanan and Shmatikov 2010) -during กระบวนการของ "ข้อมูลระบุ." นอกจากนี้นักวิจัยหลายคนในขณะนี้ ตระหนักดีว่าบางข้อมูลเช่นเวชระเบียนบันทึกทางการเงินคำตอบสำหรับคำถามในแบบสำรวจเกี่ยวกับการกระทำที่ผิดกฎหมายอาจจะเป็นพฤติกรรมที่เป็นความละเอียดอ่อนเกินไปที่จะปล่อยแม้หลังจากที่ "ข้อมูลระบุ." แต่ตัวอย่างล่าสุดอื่น ๆ ที่ผมจะอธิบายด้านล่างแสดงให้เห็นว่านักวิจัยทางสังคมต้อง เปลี่ยนความคิดของพวกเขา เป็นขั้นตอนแรกก็ควรที่จะคิดว่าข้อมูลทั้งหมดอาจระบุตัวและข้อมูลทั้งหมดเป็นเรื่องละเอียดอ่อนที่อาจเกิดขึ้น ในคำอื่น ๆ มากกว่าที่คิดว่ามีความเสี่ยงในการให้ข้อมูลนำไปใช้กับระบบย่อยเล็ก ๆ ของโครงการที่เราควรคิดว่าจะนำไปใช้เพื่อการศึกษาระดับปริญญาบางอย่างเพื่อทุกโครงการ
ทั้งสองด้านของเรื่องนี้ปฐมนิเทศจะแสดงโดย Netflix รางวัล ตามที่อธิบายในบทที่ 5 การปล่อยตัว Netflix 100 ล้านจัดอันดับภาพยนตร์ที่จัดไว้ให้โดยเกือบ 500,000 คนและมีการเปิดสายที่ผู้คนจากทั่วทุกมุมโลกส่งขั้นตอนวิธีการที่สามารถปรับปรุงความสามารถของ Netflix แนะนำภาพยนตร์ ก่อนที่จะปล่อยข้อมูล Netflix ลบข้อมูลใด ๆ ที่เห็นได้ชัดสามารถระบุตัวตนเช่นชื่อ Netflix ไปยังขั้นตอนพิเศษและแนะนำเยี่ยงอย่างเล็กน้อยในบางส่วนของระเบียน (เช่นการเปลี่ยนแปลงการให้คะแนนจาก 4 ดาว 3 ดาว) Netflix เร็ว ๆ นี้พบว่าอย่างไรก็ตามแม้จะมีความพยายามของพวกเขามีข้อมูลที่ไม่ได้หมายความว่าที่ไม่ระบุชื่อ
เพียงสองสัปดาห์หลังจากที่ข้อมูลได้รับการปล่อยตัว Narayanan and Shmatikov (2008) แสดงให้เห็นว่ามันเป็นไปได้ที่จะเรียนรู้เกี่ยวกับการตั้งค่าของภาพยนตร์คนที่เฉพาะเจาะจง เคล็ดลับที่จะโจมตีเรื่องบัตรประจำตัวของพวกเขามีความคล้ายคลึงกับสวีนีย์: รวมกันสองแหล่งข้อมูลหนึ่งที่มีข้อมูลที่สำคัญที่อาจเกิดขึ้นและไม่มีข้อมูลเห็นได้ชัดว่าการระบุและการหนึ่งที่มีตัวตนของคน แต่ละแหล่งข้อมูลเหล่านี้อาจจะมีความปลอดภัยเป็นรายบุคคล แต่เมื่อพวกเขาจะรวมกันชุดข้อมูลที่ผสานสามารถสร้างความเสี่ยงในการให้ข้อมูล ในกรณีที่ข้อมูล Netflix ที่นี่เป็นวิธีที่มันจะเกิดขึ้น ลองจินตนาการว่าฉันเลือกที่จะแบ่งปันความคิดของฉันเกี่ยวกับการกระทำและตลกดูหนังกับเพื่อนร่วมงานของฉัน แต่ที่ผมไม่ต้องการที่จะแบ่งปันความคิดของฉันเกี่ยวกับภาพยนตร์ทางศาสนาและการเมือง ร่วมงานของฉันสามารถใช้ข้อมูลที่ผมเคยใช้ร่วมกันกับพวกเขาเพื่อค้นหาระเบียนของฉันในข้อมูล Netflix; ข้อมูลที่ฉันร่วมกันอาจจะเป็นลายนิ้วมือที่ไม่ซ้ำกันเช่นเดียวกับวันวิลเลียมประสานเกิดรหัสไปรษณีย์และเพศ แล้วถ้าพวกเขาพบลายนิ้วมือที่ไม่ซ้ำกันของฉันในข้อมูลที่พวกเขาสามารถเรียนรู้การจัดอันดับของฉันเกี่ยวกับภาพยนตร์ทั้งหมดรวมทั้งภาพยนตร์ที่ฉันเลือกที่จะไม่แบ่งปัน นอกเหนือไปจากการโจมตีชนิดกำหนดเป้าหมายมุ่งเน้นไปที่คนเพียงคนเดียวนี้ Narayanan and Shmatikov (2008) นอกจากนี้ยังแสดงให้เห็นว่ามันเป็นไปได้ที่จะทำ -One โจมตีในวงกว้างที่เกี่ยวข้องกับคนจำนวนมากโดยการผสานข้อมูล Netflix กับข้อมูลส่วนบุคคลและคะแนนภาพยนตร์ว่าบางส่วน คนได้เลือกที่จะโพสต์บนฐานข้อมูลภาพยนตร์อินเทอร์เน็ต (ไอเอ็ม) ข้อมูลใด ๆ ที่เป็นลายนิ้วมือที่ไม่ซ้ำกับเฉพาะคนแม้กระทั่งชุดของพวกเขาในภาพยนตร์ Ratings-สามารถใช้ในการระบุพวกเขา
แม้ว่าข้อมูล Netflix สามารถระบุอีกทั้งในการโจมตีหรือการกำหนดเป้าหมายในวงกว้างก็ยังอาจดูเหมือนจะมีความเสี่ยงต่ำ หลังจากที่ทุกคนให้คะแนนหนังดูเหมือนจะไม่สำคัญมาก ในขณะที่อาจจะเป็นจริงโดยทั่วไปสำหรับบางส่วนของ 500,000 คนในชุดข้อมูลการจัดอันดับภาพยนตร์อาจจะสำคัญมาก ในความเป็นจริงในการตอบสนองต่อ de-ข้อมูลระบุหญิงเลสเบี้ยนสาละวนเข้าร่วมชุดชั้นดำเนินการกับ Netflix นี่คือวิธีที่ปัญหาถูกแสดงออกในคดีของพวกเขา (Singel 2009) :
"[M] Ovie และข้อมูลการให้คะแนนมีข้อมูลที่มีลักษณะส่วนบุคคลอย่างมากและมีความสำคัญมากขึ้น [sic] ข้อมูลภาพยนตร์สมาชิก exposes ความสนใจส่วนบุคคลเป็นสมาชิกของ Netflix และ / หรือการต่อสู้กับปัญหาส่วนบุคคลอย่างมากต่าง ๆ รวมทั้งความสัมพันธ์ทางเพศ, ความเจ็บป่วยทางจิต, การกู้คืนจากโรคพิษสุราเรื้อรังและการตกเป็นเหยื่อจากการร่วมประเวณีระหว่างพี่น้องทำร้ายร่างกาย, ความรุนแรงในครอบครัวคบชู้ข่มขืน. "
De-ข้อมูลระบุตัวตนของข้อมูลที่แสดงให้เห็นถึง Netflix รางวัลทั้งสองว่าข้อมูลทั้งหมดอาจระบุตัวและว่าข้อมูลทั้งหมดเป็นเรื่องละเอียดอ่อนที่อาจเกิดขึ้น ณ จุดนี้คุณอาจจะคิดว่านี้ใช้เฉพาะกับข้อมูลที่กล่าวอ้างเป็นเรื่องเกี่ยวกับคน น่าแปลกใจที่ไม่ได้เป็นกรณีที่ ในการตอบสนองต่อเสรีภาพในการร้องขอกฎหมายข้อมูลให้รัฐบาลเมืองนิวยอร์กปล่อยออกบันทึกการนั่งรถแท็กซี่ทุกคนในนิวยอร์กในปี 2013 รวมทั้งรถกระบะและย่อหย่อนครั้งสถานที่และจำนวนเงินค่าโดยสาร (เรียกคืนจากบทที่ 2 ว่า Farber (2015) ใช้ข้อมูลนี้เพื่อทดสอบทฤษฎีที่สำคัญในทางเศรษฐศาสตร์แรงงาน) แม้ว่าข้อมูลเกี่ยวกับการเดินทางรถแท็กซี่อาจดูเหมือนอ่อนโยนเพราะมันไม่ได้ดูเหมือนจะมีข้อมูลเกี่ยวกับคนที่แอนโธนี Tockar ตระหนักว่าชุดนี้จริงรถแท็กซี่ที่มีจำนวนมากของข้อมูลที่สำคัญเกี่ยวกับคนที่อาจเกิดขึ้น เพื่อแสดงให้เห็นเขามองไปที่การเดินทางทั้งหมดเริ่มต้นที่ Hustler คลับสโมสรแถบขนาดใหญ่ในนิวยอร์กระหว่างเที่ยงคืนและ 06:00 และแล้วก็พบว่าสถานที่ Drop-off ของพวกเขา การค้นหานี้เผยให้เห็นในสาระสำคัญ-A รายชื่อที่อยู่ของคนบางคนที่บ่อยคลับ Hustler (Tockar 2014) มันเป็นเรื่องยากที่จะจินตนาการว่ารัฐบาลเมืองที่มีในใจเมื่อปล่อยข้อมูล ในความเป็นจริงเทคนิคเดียวกันนี้สามารถใช้ในการหาที่อยู่ที่บ้านของผู้คนที่มาเยี่ยมชมสถานที่ใด ๆ ในเมืองแพทย์คลินิกอาคารรัฐบาลหรือสถาบันทางศาสนา
ทั้งสองกรณีที่ Netflix รางวัลและ New York City แท็กซี่ข้อมูลแสดงให้เห็นว่าคนที่ค่อนข้างมีฝีมือล้มเหลวในการได้อย่างถูกต้องประเมินความเสี่ยงในการให้ข้อมูลในข้อมูลที่พวกเขาได้รับการปล่อยตัวและกรณีเหล่านี้โดยไม่มีหมายถึงที่ไม่ซ้ำกัน (Barbaro and Zeller Jr 2006; Zimmer 2010; Narayanan, Huey, and Felten 2016) นอกจากนี้ในหลายกรณีนี้ข้อมูลที่มีปัญหายังคงมีอยู่ได้อย่างอิสระออนไลน์แสดงให้เห็นความยากลำบากของที่เคยยกเลิกการปล่อยข้อมูล เรียกรวมตัวอย่าง-AS เหล่านี้รวมถึงการวิจัยด้านวิทยาศาสตร์คอมพิวเตอร์เกี่ยวกับความเป็นส่วนตัวนำไปสู่ข้อสรุปที่สำคัญ นักวิจัยควรคิดว่าข้อมูลทั้งหมดอาจระบุตัวและข้อมูลทั้งหมดเป็นเรื่องละเอียดอ่อนที่อาจเกิดขึ้น
แต่น่าเสียดายที่ไม่มีการแก้ปัญหาที่เรียบง่ายกับความจริงที่ว่าข้อมูลทั้งหมดอาจระบุตัวและข้อมูลทั้งหมดเป็นเรื่องละเอียดอ่อนที่อาจเกิดขึ้น แต่วิธีหนึ่งที่จะช่วยลดความเสี่ยงข้อมูลขณะที่คุณกำลังทำงานกับข้อมูลคือการสร้างและปฏิบัติตามแผนป้องกันข้อมูล แผนนี้จะลดโอกาสที่ข้อมูลของคุณจะรั่วไหลและจะลดอันตรายจากการรั่วอย่างใดเกิดขึ้น เฉพาะของแผนป้องกันข้อมูลเช่นมีรูปแบบของการเข้ารหัสเพื่อใช้งานจะมีการเปลี่ยนแปลงอยู่ตลอดเวลา แต่บริการข้อมูลสหราชอาณาจักรอย่างเป็นประโยชน์จัดองค์ประกอบของแผนป้องกันข้อมูลออกเป็น 5 ประเภทที่พวกเขาเรียกว่า 5 ตู้นิรภัย: โครงการความปลอดภัยคนปลอดภัย การตั้งค่าความปลอดภัยข้อมูลที่ปลอดภัยและผลที่ปลอดภัย (ตารางที่ 6.2) (Desai, Ritchie, and Welpton 2016) ไม่มีตู้นิรภัยห้าเป็นรายบุคคลให้การป้องกันที่สมบูรณ์แบบ แต่พวกเขาร่วมกันในรูปแบบชุดที่มีประสิทธิภาพของปัจจัยที่สามารถลดความเสี่ยงในการให้ข้อมูล
ปลอดภัย | การกระทำ |
---|---|
โครงการความปลอดภัย | จำกัด โครงการที่มีข้อมูลไปยังผู้ที่มีจริยธรรม |
คนปลอดภัย | การเข้าถึงจะถูก จำกัด ให้กับผู้ที่สามารถเชื่อถือได้กับข้อมูล (เช่นคนที่ได้รับการฝึกอบรมจริยธรรม) |
ข้อมูลที่ปลอดภัย | ข้อมูลจะถูกยกเลิกการระบุและรวบรวมเท่าที่เป็นไป |
การตั้งค่าความปลอดภัย | ข้อมูลจะถูกเก็บไว้ในเครื่องคอมพิวเตอร์ที่มีความเหมาะสมทางกายภาพ (เช่นห้องล็อค) และซอฟต์แวร์ (เช่นการป้องกันรหัสผ่านเข้ารหัส) คุ้มครอง |
ผลผลิตปลอดภัย | ผลงานวิจัยการตรวจสอบเพื่อป้องกันการละเมิดความเป็นส่วนตัวโดยไม่ได้ตั้งใจ |
นอกจากนี้ในการปกป้องข้อมูลของคุณในขณะที่คุณใช้มันขั้นตอนหนึ่งในกระบวนการวิจัยที่มีความเสี่ยงในการให้ข้อมูลเป็นสำคัญโดยเฉพาะอย่างยิ่งคือการใช้ข้อมูลร่วมกันกับนักวิจัยอื่น ๆ ใช้ข้อมูลร่วมกันในหมู่นักวิทยาศาสตร์เป็นค่าหลักของความพยายามทางวิทยาศาสตร์และสิ่งอำนวยความสะดวกอย่างมากความก้าวหน้าของความรู้ นี่คือวิธีที่สหราชอาณาจักรสภาอธิบายความสำคัญของการใช้ข้อมูลร่วมกัน:
"การเข้าถึงข้อมูลเป็นพื้นฐานถ้านักวิจัยที่จะทำซ้ำตรวจสอบและสร้างผลลัพธ์ที่มีรายงานในวรรณคดี สันนิษฐานว่าจะต้องเว้นแต่จะมีเหตุผลที่ดีมิฉะนั้นข้อมูลที่ควรเปิดเผยอย่างเต็มที่และทำที่เปิดเผยต่อสาธารณชน สอดคล้องกับหลักการนี้ที่เป็นไปได้ข้อมูลที่เกี่ยวข้องกับการวิจัยหนี้สาธารณะควรจะทำกันอย่างแพร่หลายและมีอิสระ. " (Molloy 2011)
แต่ด้วยการแบ่งปันข้อมูลของคุณกับนักวิจัยอื่นคุณอาจจะเพิ่มความเสี่ยงในการให้ข้อมูลแก่ผู้เข้าร่วมของคุณ ดังนั้นมันอาจจะดูเหมือนว่านักวิจัยที่มีความประสงค์ที่จะแบ่งปันข้อมูลของพวกเขาหรือจะต้องแบ่งปันข้อมูลของพวกเขากำลังเผชิญกับความตึงเครียดพื้นฐาน ในมือข้างหนึ่งที่พวกเขามีภาระผูกพันที่มีจริยธรรมในการใช้ข้อมูลร่วมกันของพวกเขากับนักวิทยาศาสตร์อื่น ๆ โดยเฉพาะอย่างยิ่งถ้าการวิจัยเดิมจะได้รับทุนต่อสาธารณชน แต่ในเวลาเดียวกันนักวิจัยมีหน้าที่ทางจริยธรรมเพื่อลดมากที่สุดเท่าที่เป็นไปได้ความเสี่ยงข้อมูลให้กับผู้เข้าร่วมของพวกเขา
โชคดีที่กระอักกระอ่วนนี้ไม่รุนแรงเท่าที่ปรากฏ มันเป็นสิ่งสำคัญที่จะคิดว่าใช้ข้อมูลร่วมกันต่อเนื่องไปตลอดจากการใช้ข้อมูลร่วมกันไม่มีที่จะปล่อยและลืมที่ข้อมูลจะถูก "ไม่ระบุชื่อ" และโพสต์สำหรับทุกคนในการเข้าถึง (รูปที่ 6.6) ทั้งสองตำแหน่งที่รุนแรงเหล่านี้มีความเสี่ยงและผลประโยชน์ นั่นคือมันไม่ได้เป็นสิ่งที่โดยอัตโนมัติจริยธรรมมากที่สุดที่จะไม่เปิดเผยข้อมูลของคุณ วิธีการดังกล่าวจะช่วยลดผลประโยชน์ที่อาจเกิดขึ้นมากกับสังคม กลับไปลิ้มรสผูกและเวลาตัวอย่างกล่าวก่อนหน้านี้ในบทที่ขัดแย้งกับปล่อยข้อมูลที่มุ่งเน้นเฉพาะในอันตรายเป็นไปได้และไม่สนใจว่าผลประโยชน์ที่เป็นไปได้มากเกินไปด้านเดียว; ฉันจะอธิบายปัญหาที่มีด้านเดียววิธีการป้องกันที่มากเกินไปนี้ในรายละเอียดมากขึ้นในการนี้เมื่อผมให้คำแนะนำเกี่ยวกับการตัดสินใจในการเผชิญกับความไม่แน่นอน (มาตรา 6.6.4)
นอกจากนี้ในระหว่างทั้งสองกรณีที่รุนแรงคือสิ่งที่ผมจะเรียกว่าเป็นวิธีการที่สวนที่มีข้อมูลที่ใช้ร่วมกันกับผู้คนที่อยู่ในเกณฑ์บางอย่างและที่เห็นด้วยที่จะปฏิบัติตามกฎระเบียบบางอย่าง (เช่นการกำกับดูแลจากคณะกรรมการและแผนป้องกันข้อมูล) . วิธีการนี้มีกำแพงล้อมรอบสวนให้ประโยชน์หลายประการของการปล่อยและลืมมีความเสี่ยงน้อย แน่นอนว่าวิธีการสร้างกำแพงสวนคำถามที่หลายคนควรมีสิทธิ์ภายใต้เงื่อนไขว่านานเท่าไหร่ที่ควรจะจ่ายในการรักษาและตำรวจกำแพงสวน ฯลฯ แต่เหล่านี้จะไม่ผ่านไม่ได้ ในความเป็นจริงมีอยู่แล้วทำงานกำแพงสวนในสถานที่ที่นักวิจัยสามารถใช้ในขณะนี้เช่นเก็บข้อมูลของ Consortium Inter- มหาวิทยาลัยสำหรับทางการเมืองและสังคมงานวิจัยที่มหาวิทยาลัยมิชิแกน
ดังนั้นข้อมูลที่ได้จากการศึกษาของคุณควรจะอยู่ในความต่อเนื่องของการแบ่งปันไม่มีกำแพงสวนและปล่อยและลืม? มันขึ้นอยู่กับรายละเอียดของข้อมูลของคุณ; นักวิจัยจะต้องสมดุลเคารพบุคคลผลประโยชน์ความยุติธรรมและเคารพกฎหมายและประโยชน์สาธารณะ เมื่อมีการประเมินความสมดุลที่เหมาะสมสำหรับการตัดสินใจอื่น ๆ นักวิจัยขอคำแนะนำและความเห็นชอบของ IRBs และปล่อยข้อมูลอาจจะเป็นแค่ส่วนหนึ่งของกระบวนการที่ว่าคนอื่น ในคำอื่น ๆ ถึงแม้ว่าบางคนคิดว่าการปล่อยข้อมูลเป็นปลักจริยธรรมสิ้นหวังเรามีอยู่แล้วระบบที่จะช่วยให้นักวิจัยสมดุลชนิดของประเด็นขัดแย้งทางจริยธรรมเหล่านี้
วิธีการหนึ่งที่สุดท้ายที่จะคิดเกี่ยวกับการแบ่งปันข้อมูลโดยการเปรียบเทียบ ทุกคันต่อปีมีความรับผิดชอบในพันของการเสียชีวิต แต่เราไม่พยายามที่จะขับรถบ้าน ในความเป็นจริงเช่นการเรียกร้องให้ห้ามขับรถจะเป็นเรื่องเหลวไหลเพราะการขับขี่ที่ช่วยให้สิ่งที่ยอดเยี่ยมมาก แต่สังคมได้วางข้อ จำกัด เกี่ยวกับผู้ที่สามารถขับรถ (เช่นจะต้องอายุบางอย่างจำเป็นต้องได้ผ่านการทดสอบบางอย่าง) และวิธีการที่พวกเขาสามารถขับรถ (เช่นภายใต้ขีด จำกัด ความเร็ว) สังคมยังมีคนมอบหมายกับการบังคับใช้กฎเหล่านี้ (เช่นตำรวจ) และเราลงโทษคนที่ถูกจับละเมิด ชนิดเดียวกันนี้ของการคิดว่าสังคมที่สมดุลนำไปใช้กับการควบคุมการขับขี่นอกจากนี้ยังสามารถนำไปใช้กับการแบ่งปันข้อมูล นั่นคือแทนที่จะทำให้ข้อโต้แย้งสมบูรณาญาหรือคัดค้านการใช้ข้อมูลร่วมกันผมคิดว่าประโยชน์ที่ใหญ่ที่สุดจะมาจากการหาวิธีการที่เราสามารถแบ่งปันข้อมูลได้มากขึ้นอย่างปลอดภัยมากขึ้น
เพื่อสรุปความเสี่ยงในการให้ข้อมูลได้เพิ่มขึ้นอย่างมากและมันเป็นเรื่องยากมากที่จะคาดการณ์และปริมาณ ดังนั้นจึงเป็นสิ่งที่ดีที่สุดที่จะคิดว่าข้อมูลทั้งหมดอาจระบุตัวและที่สำคัญอาจ เพื่อลดความเสี่ยงในการให้ข้อมูลในขณะที่ทำวิจัยนักวิจัยสามารถสร้างและปฏิบัติตามแผนป้องกันข้อมูล นอกจากนี้ความเสี่ยงในการให้ข้อมูลไม่ได้ป้องกันการวิจัยจากการแบ่งปันข้อมูลที่มีนักวิทยาศาสตร์อื่น ๆ