ความเสี่ยงด้านข้อมูลเป็นความเสี่ยงที่พบมากที่สุดในการวิจัยทางสังคม มันเพิ่มขึ้นอย่างรวดเร็ว; และเป็นความเสี่ยงที่จะเข้าใจได้ยากที่สุด
ความท้าทายทางจริยธรรมที่สองสำหรับการวิจัย เกี่ยว กับยุคดิจิทัลคือ ความเสี่ยงด้านข้อมูลข่าวสาร ศักยภาพในการเป็นอันตรายจากการเปิดเผยข้อมูล (National Research Council 2014) ข้อมูลที่เป็นอันตรายจากการเปิดเผยข้อมูลส่วนบุคคลอาจเป็นข้อมูลทางเศรษฐกิจ (เช่นการสูญเสียงาน) สังคม (เช่นความลำบากใจ) จิตวิทยา (เช่นภาวะซึมเศร้า) หรือแม้กระทั่งความผิดทางอาญา (เช่นการจับกุมผู้กระทำผิดกฎหมาย) น่าเสียดายที่ยุคดิจิทัลเพิ่มความเสี่ยงด้านข้อมูลอย่างมาก - มีข้อมูลเกี่ยวกับพฤติกรรมของเราเพียงเล็กน้อยเท่านั้น และความเสี่ยงด้านข้อมูลเป็นเรื่องยากที่จะเข้าใจและจัดการได้ดีกว่าความเสี่ยงที่เกี่ยวข้องกับการวิจัยทางสังคมในยุคอนาล็อกเช่นความเสี่ยงทางกายภาพ
วิธีหนึ่งที่นักวิจัยทางสังคมลดความเสี่ยงในการให้ข้อมูลที่เป็น "ลบข้อมูลระบุ" ของข้อมูล "การลบข้อมูลระบุ" เป็นกระบวนการของการเอาตัวบ่งชี้ที่เห็นได้ชัดส่วนบุคคลเช่นชื่อที่อยู่และหมายเลขโทรศัพท์จากข้อมูล แต่วิธีนี้เป็นอย่างมากที่มีประสิทธิภาพน้อยกว่าที่หลายคนตระหนักและมันก็เป็นในความเป็นจริงได้อย่างล้ำลึกและลึกซึ้ง จำกัด สำหรับเหตุผลที่ทุกครั้งที่ผมอธิบาย "ข้อมูลระบุว่า" ฉันจะใช้เครื่องหมายคำพูดจะเตือนคุณว่ากระบวนการนี้จะสร้างลักษณะของการไม่เปิดเผยชื่อ แต่ไม่เปิดเผยชื่อจริง
ตัวอย่างที่ชัดเจนของความล้มเหลวของ "anonymization" มาจากปลายทศวรรษที่ 1990 ใน Massachusetts (Sweeney 2002) คณะกรรมาธิการการประกันภัยกลุ่ม (GIC) เป็นหน่วยงานของรัฐที่รับผิดชอบในการจัดซื้อประกันสุขภาพสำหรับพนักงานของรัฐทั้งหมด จากงานนี้ GIC ได้รวบรวมบันทึกด้านสุขภาพที่มีรายละเอียดเกี่ยวกับพนักงานของรัฐนับพันคน ในความพยายามที่จะกระตุ้นการวิจัย GIC ได้ตัดสินใจที่จะเผยแพร่บันทึกเหล่านี้แก่นักวิจัย อย่างไรก็ตามพวกเขาไม่ได้เปิดเผยข้อมูลทั้งหมดของตน แต่พวกเขา "anonymized" ข้อมูลเหล่านี้โดยการลบข้อมูลเช่นชื่อและที่อยู่ อย่างไรก็ตามข้อมูลอื่น ๆ ที่พวกเขาคิดว่าอาจเป็นประโยชน์สำหรับนักวิจัยเช่นข้อมูลประชากร (รหัสไปรษณีย์วันเดือนปีเกิดชาติพันธุ์และเพศ) และข้อมูลด้านการแพทย์ (ข้อมูลการเข้ารับการตรวจวินิจฉัยขั้นตอน) (รูปที่ 6.4) (Ohm 2010) ขออภัย "การลบข้อมูลชื่อ" นี้ไม่เพียงพอที่จะปกป้องข้อมูล
เพื่อแสดงให้เห็นถึงข้อบกพร่องของ "anonymization" ของ GIC Latanya Sweeney - จากนั้นเป็นนักศึกษาระดับบัณฑิตศึกษาที่ MIT - จ่ายเงิน 20 เหรียญเพื่อให้ได้บันทึกการลงคะแนนเสียงจากเมือง Cambridge ซึ่งเป็นเมืองหลวงของรัฐ Massachusetts ผู้ว่าการ William Weld บันทึกการลงคะแนนเสียงเหล่านี้รวมข้อมูลเช่นชื่อที่อยู่รหัสไปรษณีย์วันเกิดและเพศ ความจริงที่ว่าแฟ้มข้อมูลทางการแพทย์และแฟ้มข้อมูลผู้มีสิทธิเลือกตั้งที่ใช้ร่วมกันเขตข้อมูลรหัสไปรษณีย์วันเกิดและเพศ - หมายความว่าสวีนีย์สามารถเชื่อมโยงพวกเขา สวีนีย์รู้ว่าวันเกิดของ Weld คือวันที่ 31 กรกฎาคม ค.ศ. 1945 และมีการบันทึกคะแนนเสียงเพียงหกคนในเคมบริดจ์กับวันเกิดดังกล่าว นอกจากนั้นในหกคนนั้นมีเพียงสามคนเท่านั้นที่เป็นผู้ชาย และจากชายทั้งสามคนมีเพียงรหัสไปรษณีย์เดียวที่ใช้ร่วมกัน ดังนั้นข้อมูลการลงคะแนนเสียงแสดงให้เห็นว่าทุกคนในข้อมูลทางการแพทย์ที่มีการรวมกันของวันเกิดเพศและรหัสไปรษณีย์ของ William Weld ในสาระสำคัญข้อมูลทั้งสามชิ้นนี้ให้ข้อมูล ลายนิ้วมือที่ไม่เหมือนใคร แก่เขา ใช้ความเป็นจริงนี้สวีนีย์ก็สามารถหาเว็ปเวชระเบียนและเพื่อแจ้งให้เขาทราบถึงความสำเร็จของเธอเธอส่งสำเนาของบันทึกของเขา (Ohm 2010)
ผลงานของสวีนีย์แสดงให้เห็นถึงโครงสร้างพื้นฐานของ การโจมตี เพื่อ ระบุตัวตนอีกครั้ง เพื่อนำคำศัพท์จากชุมชนความปลอดภัยคอมพิวเตอร์มาใช้ ในการโจมตีเหล่านี้ชุดข้อมูลทั้งสองชุดซึ่งทั้งสองไม่มีการเปิดเผยข้อมูลที่ละเอียดอ่อนมีการเชื่อมโยงและผ่านการเชื่อมโยงนี้ข้อมูลที่ละเอียดอ่อนจะถูกเปิดเผย
ในการตอบสนองต่องานของ Sweeney และงานอื่น ๆ นักวิจัยส่วนใหญ่มักเอาข้อมูลทั้งหมดออกไปซึ่งเรียกว่า "ข้อมูลระบุตัวบุคคล" (PII) (Narayanan and Shmatikov 2010) - อยู่ระหว่างกระบวนการ "anonymization" และนักวิจัยจำนวนมาก ตอนนี้ทราบว่าข้อมูลบางอย่างเช่นบันทึกทางการแพทย์บันทึกทางการเงินคำตอบสำหรับคำถามสำรวจเกี่ยวกับพฤติกรรมที่ผิดกฎหมายอาจจะมีความละเอียดอ่อนเกินไปที่จะปล่อยแม้หลังจาก "การระบุชื่อ" อย่างไรก็ตามตัวอย่างที่ฉันกำลังจะให้คำแนะนำว่านักวิจัยทางสังคมต้องการ เปลี่ยนความคิดของพวกเขา เป็นขั้นตอนแรกก็ควรที่จะคิดว่าข้อมูลทั้งหมดอาจระบุตัวและข้อมูลทั้งหมดมีความอ่อนไหวที่อาจเกิดขึ้น กล่าวอีกนัยหนึ่งแทนที่จะคิดว่าความเสี่ยงด้านข้อมูลจะมีผลกับเซตย่อยเล็ก ๆ ของโครงการเราควรสมมติว่าใช้กับบางโครงการในระดับหนึ่ง
ทั้งสองด้านของการปรับตำแหน่งนี้แสดงให้เห็นโดยรางวัล Netflix ตามที่ได้อธิบายไว้ในบทที่ 5 Netflix ได้เผยแพร่การจัดอันดับภาพยนตร์ 100 ล้านครั้งโดยเกือบ 500,000 คนและได้มีการเปิดการโทรซึ่งผู้คนจากทั่วโลกได้ส่งอัลกอริทึมต่างๆเพื่อปรับปรุงความสามารถในการแนะนำภาพยนตร์ของ Netflix ก่อนปล่อยข้อมูล Netflix จะลบข้อมูลที่ระบุตัวตนที่ชัดเจนเช่นชื่อ นอกจากนี้ยังมีขั้นตอนเพิ่มเติมและแนะนำให้เกิดการเปลี่ยนแปลงเล็กน้อยในบันทึกบางอย่าง (เช่นการเปลี่ยนการจัดเรตจาก 4 ดาวเป็น 3 ดาว) อย่างไรก็ตามพวกเขาค้นพบว่าแม้จะมีความพยายาม แต่ข้อมูลเหล่านี้ก็ยังไม่ได้ระบุชื่อ
เพียงสองสัปดาห์หลังจากข้อมูลได้รับการเผยแพร่ Arvind Narayanan และ Vitaly Shmatikov (2008) แสดงให้เห็นว่าสามารถเรียนรู้เกี่ยวกับการตั้งค่าภาพยนตร์ของบุคคลที่เฉพาะเจาะจงได้ กลวิธีในการโจมตีด้วยรหัสประจำตัวของพวกเขาคล้ายกับของสวีนีย์: รวมแหล่งข้อมูลไว้ด้วยกันสองข้อมูลซึ่งอาจมีข้อมูลที่ละเอียดอ่อนและไม่มีข้อมูลระบุที่ชัดแจ้งและมีข้อมูลประจำตัวของผู้คน แหล่งข้อมูลแต่ละแห่งอาจมีความปลอดภัยเป็นรายบุคคล แต่เมื่อรวมกันชุดข้อมูลที่ผสานรวมจะสร้างความเสี่ยงด้านข้อมูล ในกรณีของข้อมูล Netflix นี่เป็นวิธีที่จะเกิดขึ้น ลองจินตนาการว่าฉันเลือกที่จะแบ่งปันความคิดของฉันเกี่ยวกับภาพยนตร์แอคชั่นและภาพยนตร์ตลกร่วมกับเพื่อนร่วมงานของฉัน แต่ฉันไม่อยากแบ่งปันความคิดเห็นของฉันเกี่ยวกับภาพยนตร์ศาสนาและการเมือง เพื่อนร่วมงานของฉันสามารถใช้ข้อมูลที่ฉันแชร์กับพวกเขาเพื่อค้นหาบันทึกของฉันในข้อมูล Netflix; ข้อมูลที่ฉันแชร์อาจเป็นลายนิ้วมือที่ไม่เหมือนใครเช่นวันเกิดของ William Weld รหัสไปรษณีย์และเพศ จากนั้นหากพวกเขาค้นพบลายนิ้วมือที่ไม่ซ้ำกันของฉันในข้อมูลพวกเขาสามารถเรียนรู้คะแนนของฉันเกี่ยวกับภาพยนตร์ทั้งหมดรวมถึงภาพยนตร์ที่ฉันเลือกที่จะไม่แชร์ นอกเหนือจากการ โจมตีเป้าหมายดังกล่าวซึ่ง มุ่งเน้นไปที่บุคคลคนเดียวแล้ว Narayanan และ Shmatikov ยังแสดงให้เห็นว่าสามารถ โจมตีแบบกว้าง ๆ ได้โดยมีการรวมข้อมูล Netflix เข้ากับข้อมูลการให้คะแนนภาพยนตร์และข้อมูลส่วนตัวที่บางคนเลือกไว้ เพื่อโพสต์บนฐานข้อมูลภาพยนตร์อินเทอร์เน็ต (IMDb) ค่อนข้างง่ายข้อมูลใด ๆ ที่เป็นลายนิ้วมือที่ไม่เหมือนใครกับบุคคลที่เฉพาะเจาะจงซึ่งรวมถึงการให้คะแนนภาพยนตร์สามารถนำมาใช้เพื่อระบุได้
แม้ว่าข้อมูล Netflix จะสามารถระบุได้อีกครั้งในการโจมตีที่กำหนดเป้าหมายหรือกว้าง แต่ก็อาจดูเหมือนมีความเสี่ยงต่ำ อย่างไรก็ตามการให้คะแนนภาพยนตร์ดูเหมือนจะไม่สำคัญนัก แม้ว่าข้อมูลดังกล่าวอาจเป็นความจริงโดยทั่วไปสำหรับบาง 500,000 คนในชุดข้อมูลการให้คะแนนภาพยนตร์อาจค่อนข้างละเอียดอ่อน ในความเป็นจริงในการตอบสนองต่อการระบุตัวหญิงเลสเบี้ยนที่สังหารได้เข้าร่วมการฟ้องร้องดำเนินคดีกับ Netflix ต่อไปนี้คือปัญหาที่เกิดขึ้นในคดีของพวกเขา (Singel 2009) :
"[M] ovie และข้อมูลการให้คะแนนมีข้อมูลเกี่ยวกับลักษณะ ... ที่เป็นส่วนตัวและอ่อนไหวมาก ข้อมูลภาพยนตร์ของสมาชิกเผยให้เห็นถึงความสนใจส่วนตัวของสมาชิก Netflix และ / หรือการต่อสู้กับปัญหาส่วนตัวที่หลากหลายรวมถึงเรื่องเพศความเจ็บป่วยทางจิตการกู้คืนจากโรคพิษสุราเรื้อรังการทำร้ายร่างกายการล่วงประเวณีและการข่มขืน "
การระบุข้อมูล Netflix Prize อีกครั้งแสดงให้เห็นว่าทั้งข้อมูลสามารถระบุตัวตนได้และข้อมูลทั้งหมดอาจมีความละเอียดอ่อน ณ ตอนนี้คุณอาจคิดว่าข้อนี้ใช้กับข้อมูลที่มีความหมายเกี่ยวกับคนเท่านั้น น่าเสียดายที่ไม่ใช่กรณี ในการตอบสนองต่อคำขอร้องเสรีภาพในการขอข้อมูลรัฐบาลนิวยอร์กซิตี้ได้เผยแพร่ข้อมูลเกี่ยวกับรถแท็กซี่ทุกรุ่นในนิวยอร์กในปี 2556 รวมถึงเวลารถกระบะและเวลาเดินทางสถานที่และจำนวนเที่ยวบิน (จากบทที่ 2 ว่า Farber (2015) ใช้ข้อมูลที่คล้ายกันเพื่อทดสอบทฤษฎีที่สำคัญในเศรษฐศาสตร์แรงงาน) ข้อมูลเหล่านี้เกี่ยวกับการเดินทางรถแท็กซี่อาจดูเหมือนไม่เป็นอันตรายเพราะดูเหมือนจะไม่ได้ให้ข้อมูลเกี่ยวกับผู้คน แต่ Anthony Tockar ตระหนักว่าข้อมูลชุดข้อมูลแท็กซี่นี้มีข้อมูลสำคัญเกี่ยวกับคนจำนวนมาก เพื่อเป็นการแสดงให้เห็นว่าเขามองไปที่การเดินทางทั้งหมดที่เริ่มต้นที่ Hustler Club ซึ่งเป็นสโมสรแถบใหญ่ใน New York ระหว่างเวลาเที่ยงคืนถึง 6 โมงเช้าและพบสถานที่แบบเลื่อนลงของพวกเขา การค้นหานี้เปิดเผย - ในสาระสำคัญ - รายชื่อที่อยู่ของบางคนที่แวะเวียนเข้าคลับ (Tockar 2014) ยากที่จะจินตนาการได้ว่ารัฐบาลเมืองมีข้อมูลนี้เมื่อได้เผยแพร่ข้อมูล ในความเป็นจริงเทคนิคเดียวกันนี้สามารถใช้เพื่อหาที่อยู่บ้านของผู้ที่เข้าเยี่ยมชมสถานที่ใด ๆ ในเมืองคลินิกทางการแพทย์อาคารรัฐบาลหรือสถาบันทางศาสนา
ทั้งสองกรณีของ Netflix Prize และข้อมูลจากรถแท็กซี่ของ New York City แสดงให้เห็นว่าคนที่มีทักษะค่อนข้างจะไม่สามารถประเมินความเสี่ยงด้านข้อมูลได้อย่างถูกต้องในข้อมูลที่ปล่อยออกไปและกรณีเหล่านี้ไม่ได้มีเฉพาะ (Barbaro and Zeller 2006; Zimmer 2010; Narayanan, Huey, and Felten 2016) นอกจากนี้ในหลาย ๆ กรณีเช่นนี้ข้อมูลที่เป็นปัญหายังคงใช้งานออนไลน์ได้อย่างอิสระซึ่งแสดงให้เห็นถึงความยากลำบากในการยกเลิกการเผยแพร่ข้อมูล ตัวอย่างเช่น - เช่นเดียวกับการวิจัยทางวิทยาการคอมพิวเตอร์เกี่ยวกับความเป็นส่วนตัว - นำไปสู่ข้อสรุปที่สำคัญ นักวิจัยควรคิดว่าข้อมูลทั้งหมดอาจระบุตัวและข้อมูลทั้งหมดมีความอ่อนไหวที่อาจเกิดขึ้น
แต่น่าเสียดายที่ไม่มีคำตอบง่ายๆสำหรับข้อเท็จจริงที่ว่าข้อมูลทั้งหมดอาจเป็นตัวระบุได้และข้อมูลทั้งหมดอาจมีความละเอียดอ่อน อย่างไรก็ตามวิธีหนึ่งในการลดความเสี่ยงด้านข้อมูลในขณะที่คุณกำลังทำงานกับข้อมูลคือการสร้างและปฏิบัติตาม แผนการป้องกันข้อมูล แผนนี้จะลดโอกาสที่ข้อมูลของคุณจะรั่วไหลและจะลดอันตรายหากมีการรั่วไหลอย่างใด รายละเอียดของแผนป้องกันข้อมูลเช่นรูปแบบการเข้ารหัสที่ใช้จะเปลี่ยนไปตามช่วงเวลา แต่บริการข้อมูลของสหราชอาณาจักรช่วยจัดองค์ประกอบของแผนปกป้องข้อมูลให้เป็น 5 ประเภทที่เรียกว่า ตู้นิรภัยห้าตัว ได้แก่ โครงการปลอดภัยคนปลอดภัย (ตารางที่ 6.2) (Desai, Ritchie, and Welpton 2016) ไม่มีตู้นิรภัยห้าตัวที่ให้การป้องกันที่สมบูรณ์แบบ แต่พวกเขาร่วมกันสร้างชุดปัจจัยที่มีประสิทธิภาพเพื่อลดความเสี่ยงด้านข้อมูล
ปลอดภัย | การกระทำ |
---|---|
โครงการที่ปลอดภัย | จำกัด โครงการที่มีข้อมูลกับผู้ที่มีจริยธรรม |
คนที่ปลอดภัย | การเข้าถึงถูก จำกัด ไว้สำหรับคนที่สามารถเชื่อถือได้กับข้อมูล (เช่นบุคคลที่ได้รับการฝึกอบรมด้านจริยธรรม) |
ข้อมูลที่ปลอดภัย | ข้อมูลจะถูกระบุและรวมกันในขอบเขตที่เป็นไปได้ |
การตั้งค่าปลอดภัย | ข้อมูลจะถูกเก็บไว้ในคอมพิวเตอร์ที่มีความเหมาะสมทางกายภาพ (เช่นห้องที่ถูกล็อก) และซอฟต์แวร์ (เช่นการป้องกันด้วยรหัสผ่านการเข้ารหัส) การป้องกัน |
เอาต์พุตปลอดภัย | ผลงานวิจัยที่ได้รับการตรวจสอบเพื่อป้องกันการละเมิดข้อมูลส่วนบุคคลโดยอุบัติเหตุ |
นอกเหนือจากการปกป้องข้อมูลของคุณในขณะที่คุณกำลังใช้งานอยู่ขั้นตอนหนึ่งในกระบวนการวิจัยซึ่งความเสี่ยงด้านข้อมูลเป็นสิ่งสำคัญโดยเฉพาะคือการใช้ข้อมูลร่วมกับนักวิจัยอื่น ๆ การแบ่งปันข้อมูลระหว่างนักวิทยาศาสตร์เป็นคุณค่าหลักของความพยายามทางวิทยาศาสตร์และช่วยให้เกิดความก้าวหน้าของความรู้อย่างมาก นี่เป็นวิธีที่สภาอังกฤษได้อธิบายถึงความสำคัญของการแชร์ข้อมูล (Molloy 2011) :
"การเข้าถึงข้อมูลเป็นพื้นฐานหากนักวิจัยทำซ้ำตรวจสอบและสร้างผลที่ได้รับรายงานในวรรณคดี ข้อสันนิษฐานคือต้องมีการเปิดเผยข้อมูลอย่างเปิดเผยและเปิดเผยต่อสาธารณะเว้นเสียแต่ว่ามีเหตุผลอย่างอื่น "
อย่างไรก็ตามด้วยการแชร์ข้อมูลกับนักวิจัยคนอื่นคุณอาจเพิ่มความเสี่ยงด้านข้อมูลให้กับผู้เข้าร่วมของคุณ ดังนั้นการแบ่งปันข้อมูลอาจทำให้เกิดความตึงเครียดระหว่างภาระหน้าที่ในการแบ่งปันข้อมูลกับนักวิทยาศาสตร์รายอื่นและภาระหน้าที่ในการลดความเสี่ยงด้านข้อมูลให้กับผู้เข้าร่วมประชุม โชคดีที่ภาวะที่กลืนไม่เข้าคายไม่ออกนี้ไม่รุนแรงเท่าที่ปรากฏ ค่อนข้างดีกว่าที่จะคิดเกี่ยวกับการแบ่งปันข้อมูลตามความต่อเนื่องโดยแต่ละประเด็นเกี่ยวกับความต่อเนื่องนั้นจะเป็นประโยชน์ต่อสังคมและความเสี่ยงต่อผู้เข้าร่วมโครงการ (รูปที่ 6.6)
ที่มากที่สุดคุณสามารถแบ่งปันข้อมูลของคุณกับคนใดคนหนึ่งซึ่งช่วยลดความเสี่ยงให้กับผู้เข้าร่วมประชุม แต่ยังช่วยลดผลกำไรให้กับสังคมได้อีกด้วย ที่อื่น ๆ คุณสามารถ ปล่อยและลืม ข้อมูลที่ "anonymized" และโพสต์สำหรับทุกคน เมื่อเทียบกับการไม่ปล่อยข้อมูลการปล่อยตัวและการลืมจะให้ประโยชน์ทั้งต่อสังคมและความเสี่ยงที่สูงขึ้นสำหรับผู้เข้าร่วม ในระหว่างสองกรณีที่รุนแรงนี้เป็นช่วงของลูกผสมรวมถึงสิ่งที่ฉันจะเรียกวิธีการที่ มีกำแพงล้อมรอบ ภายใต้วิธีนี้ข้อมูลจะถูกแบ่งปันกับคนที่มีคุณสมบัติตามเกณฑ์ที่กำหนดและตกลงที่จะผูกพันตามกฎเกณฑ์บางอย่าง (เช่นการกำกับดูแลจาก IRB และแผนป้องกันข้อมูล) วิธีการที่มีกำแพงล้อมรอบให้ประโยชน์หลายประการในการปล่อยตัวและลืมไปพร้อมกับความเสี่ยงน้อยลง แน่นอนว่าวิธีการดังกล่าวก่อให้เกิดคำถามมากมายซึ่งควรมีการเข้าถึงภายใต้เงื่อนไขใดและในระยะเวลาใดที่ควรจะต้องจ่ายเงินเพื่อรักษาและควบคุมสวนที่มีกำแพงล้อมรอบเป็นต้น แต่ก็ยังไม่สามารถผ่านได้ ในความเป็นจริงแล้วมีสวนที่มีกำแพงล้อมรอบอยู่ในสถานที่ที่นักวิจัยสามารถใช้งานได้เช่นที่เก็บข้อมูลของ Consortium Inter-university เพื่อการวิจัยทางการเมืองและสังคมที่มหาวิทยาลัยมิชิแกน
ดังนั้นข้อมูลที่ได้จากการศึกษาของคุณควรเป็นอย่างไรต่อไปในการแบ่งปันพื้นที่ไม่ให้มีกำแพงล้อมรอบและปลดปล่อยและลืม? ข้อมูลนี้ขึ้นอยู่กับรายละเอียดของข้อมูล: นักวิจัยต้องให้ความสำคัญกับความเคารพต่อบุคคลผู้มีคุณประโยชน์ความยุติธรรมและเคารพกฎหมายและผลประโยชน์ของสาธารณะ จากมุมมองนี้การแชร์ข้อมูลไม่ใช่ประเด็นสำคัญทางจริยธรรมที่โดดเด่น มันเป็นแค่หนึ่งในหลายแง่มุมของการวิจัยที่นักวิจัยต้องค้นหาสมดุลทางจริยธรรมที่เหมาะสม
นักวิจารณ์บางคนมักไม่เห็นด้วยกับการแบ่งปันข้อมูลเพราะในความคิดของฉันพวกเขามุ่งเน้นไปที่ความเสี่ยงซึ่งเป็นสิ่งที่ไม่ต้องสงสัยจริงและละเลยผลประโยชน์ของตน ดังนั้นเพื่อเป็นการกระตุ้นให้เกิดความสนใจทั้งในด้านความเสี่ยงและผลประโยชน์ผมจึงอยากเสนอความคล้ายคลึงกัน ทุกๆปีรถยนต์ต้องรับผิดชอบต่อการเสียชีวิตเป็นพัน ๆ ราย แต่เราไม่ได้พยายามห้ามขับรถ ในความเป็นจริงการเรียกร้องให้ห้ามขับรถจะไร้สาระเพราะการขับรถช่วยให้สิ่งที่ยอดเยี่ยมมากมาย แต่สังคมจะกำหนดข้อ จำกัด ว่าใครสามารถขับรถได้ (เช่นต้องมีอายุที่แน่นอนและผ่านการทดสอบบางอย่าง) และวิธีที่พวกเขาสามารถขับรถได้ (เช่นภายใต้ขีด จำกัด ความเร็ว) สังคมยังมีคนบังคับให้บังคับใช้กฎเหล่านี้ (เช่นตำรวจ) และเราลงโทษผู้ที่ถูกจับได้ว่าละเมิดพวกเขา การคิดอย่างสมดุลเช่นเดียวกับที่สังคมนำมาใช้กับการควบคุมการขับขี่สามารถนำมาใช้กับการแชร์ข้อมูล กล่าวคือแทนที่จะทำให้ข้อคิดเห็นเกี่ยวกับ absolutist หรือต่อต้านการแชร์ข้อมูลฉันคิดว่าเราจะทำให้ความคืบหน้ามากที่สุดโดยมุ่งเน้นที่วิธีที่เราสามารถลดความเสี่ยงและเพิ่มผลประโยชน์จากการแชร์ข้อมูล
เพื่อสรุปความเสี่ยงด้านข้อมูลได้เพิ่มขึ้นอย่างมากและเป็นเรื่องยากที่จะทำนายและหาจำนวนได้ ดังนั้นที่ดีที่สุดคือสมมติว่าข้อมูลทั้งหมดอาจเป็นตัวบ่งชี้และอาจมีความละเอียดอ่อน เพื่อลดความเสี่ยงด้านข้อมูลในขณะที่ทำการวิจัยนักวิจัยสามารถสร้างและปฏิบัติตามแผนการป้องกันข้อมูลได้ นอกจากนี้ความเสี่ยงด้านข้อมูลยังไม่สามารถป้องกันไม่ให้นักวิจัยแบ่งปันข้อมูลกับนักวิทยาศาสตร์คนอื่น ๆ ได้