सूचना जोखिम सामाजिक अनुसंधान के क्षेत्र में सबसे आम खतरा नहीं है; यह नाटकीय रूप से वृद्धि हुई है; और इसे समझने के लिए सबसे मुश्किल खतरा नहीं है।
सामाजिक उम्र डिजिटल अनुसंधान के लिए दूसरा नैतिक चुनौती सूचना के जोखिम, सूचना का खुलासा करने से नुकसान के लिए क्षमता है (Council 2014) । व्यक्तिगत जानकारी का खुलासा करने से सूचना हानि पहुँचाता आर्थिक हो सकता है (उदाहरण के लिए, एक नौकरी खोने), सामाजिक (जैसे, शर्मिंदगी), मनोवैज्ञानिक (जैसे, अवसाद), या यहां तक कि आपराधिक (जैसे, अवैध व्यवहार के लिए गिरफ्तारी)। दुर्भाग्य से, डिजिटल युग बढ़ जाती है के बारे में जानकारी जोखिम में नाटकीय रूप-वहाँ हमारे व्यवहार के बारे में सिर्फ इतना अधिक जानकारी है। और, सूचना के जोखिम को समझते हैं और प्रबंधन करने के लिए बहुत मुश्किल साबित हो गया है कि जोखिम ऐसी शारीरिक जोखिम के रूप में अनुरूप उम्र सामाजिक अनुसंधान के क्षेत्र में चिंताओं थे, की तुलना में। कैसे डिजिटल युग सूचना खतरा बढ़ जाता है देखने के लिए, इलेक्ट्रॉनिक मेडिकल रिकॉर्ड करने के लिए कागज से संक्रमण पर विचार करें। रिकॉर्ड के दोनों प्रकार के जोखिम बना है, लेकिन इलेक्ट्रॉनिक रिकॉर्ड बहुत बड़ा जोखिम पैदा क्योंकि एक भारी पैमाने पर वे एक अनाधिकृत पार्टी के लिए प्रेषित किया जा सकता है या अन्य रिकॉर्ड के साथ विलय कर दिया। डिजिटल युग में सामाजिक शोधकर्ताओं ने पहले से ही है क्योंकि वे पूरी तरह से समझ में नहीं आया यों और इसे संभाल करने के लिए कैसे भाग में, सूचना के जोखिम के साथ मुसीबत में भाग है। तो, मैं सूचना के जोखिम के बारे में सोचने के लिए एक उपयोगी तरीका प्रदान करने के लिए जा रहा हूँ, और फिर मैं कैसे आप अपने अनुसंधान के क्षेत्र में सूचना के जोखिम का प्रबंधन करने के लिए और अन्य शोधकर्ताओं के लिए डेटा को जारी करने में कुछ सलाह देने के लिए जा रहा हूँ।
एक तरीका यह है कि सामाजिक शोधकर्ताओं ने सूचना के जोखिम को कम डेटा के "anonymization" है। "गुमनाम" जैसे नाम, पता, और डेटा से टेलीफोन नंबर के रूप में स्पष्ट व्यक्तिगत पहचानकर्ता हटाने की प्रक्रिया है। हालांकि, इस दृष्टिकोण गहरा और मौलिक सीमित बहुत कम प्रभावी की तुलना में कई लोगों को पता है, और यह वास्तव में है। कारण है कि, जब भी मैं वर्णन "गुमनाम" मैं उद्धरण चिह्नों आपको याद दिलाना है कि इस प्रक्रिया को नाम न छापने की उपस्थिति नहीं बल्कि सच न छापने बनाता इस्तेमाल करेंगे।
"Anonymization" की विफलता का एक ज्वलंत उदाहरण मैसाचुसेट्स में 1990 के दशक से आता है (Sweeney 2002) । समूह बीमा आयोग (जीआईसी) एक सरकारी एजेंसी सभी राज्य कर्मचारियों के लिए स्वास्थ्य बीमा की खरीद के लिए जिम्मेदार था। इस काम के माध्यम से, जीआईसी राज्य कर्मचारियों के हजारों के बारे में विस्तृत स्वास्थ्य रिकॉर्ड एकत्र। स्वास्थ्य में सुधार करने के तरीके के बारे में अनुसंधान को प्रोत्साहित करने के प्रयास में, जीआईसी शोधकर्ताओं के लिए इन अभिलेखों को रिहा करने का फैसला किया। हालांकि, वे अपने डेटा के सभी हिस्सा नहीं था; बल्कि, वे इस तरह के नाम और पते के रूप में जानकारी को हटाने के द्वारा "गुमनाम" यह। हालांकि, वे अन्य जानकारी है कि उन्होंने सोचा था कि इस तरह के जनसांख्यिकीय जानकारी (पिन कोड, जन्म तिथि, धर्म, और सेक्स) और चिकित्सा की जानकारी (यात्रा डेटा, निदान, प्रक्रिया) (चित्रा 6.4) के रूप में शोधकर्ताओं के लिए उपयोगी हो सकता है छोड़ा (Ohm 2010) । दुर्भाग्य से, यह "anonymization" डेटा की रक्षा करने के लिए पर्याप्त नहीं था।
जीआईसी "anonymization" की कमियों को वर्णन, Latanya स्वीनी-तो $ 20 एमआईटी-भुगतान कैम्ब्रिज, मैसाचुसेट्स के गवर्नर विलियम वेल्ड के गृह नगर के शहर से मतदान रिकॉर्ड प्राप्त करने के लिए में एक स्नातक छात्र। इन मतदान रिकॉर्ड जैसे नाम, पता, ज़िप कोड, जन्म तिथि, और लिंग के रूप में जानकारी शामिल थे। तथ्य यह है कि चिकित्सा डेटा फ़ाइल और मतदाता फ़ाइल साझा खेतों-ज़िप कोड, जन्म तिथि, और सेक्स का मतलब है कि स्वीनी उन्हें कड़ी सकता है। स्वीनी जानता था कि वेल्ड के जन्मदिन 31 जुलाई, 1945 था, और मतदान रिकॉर्ड है कि जन्मदिन के साथ कैम्ब्रिज में केवल छह लोग शामिल थे। इसके अलावा, उन छह लोगों में से केवल तीन पुरुष थे। और, उन तीन लोगों में से केवल एक वेल्ड की ज़िप कोड साझा की है। इस प्रकार, मतदान डेटा है कि जन्म तिथि, लिंग, और ज़िप कोड के वेल्ड के संयोजन के साथ चिकित्सा डेटा में किसी विलियम वेल्ड था दिखाया। संक्षेप में, जानकारी के इन तीन टुकड़े डेटा में उसे करने के लिए एक अनूठा फिंगरप्रिंट प्रदान की है। इस तथ्य का उपयोग करना, स्वीनी वेल्ड के मेडिकल रिकॉर्ड का पता लगाने के लिए, और उसे उसके उपलब्धि के बारे में सूचित करने में सक्षम था, वह उसे अपने रिकॉर्ड की एक प्रतिलिपि भेज दिया (Ohm 2010) ।
स्वीनी के काम de-anonymization हमलों की बुनियादी संरचना को दिखाता है -to कंप्यूटर सुरक्षा समुदाय से एक शब्द को अपनाने। इन हमलों में दो डेटा सेट, न तो जो स्वयं के द्वारा की संवेदनशील जानकारी का पता चलता है, से जुड़े हुए हैं, और इस लिंकेज के माध्यम से, संवेदनशील जानकारी सामने आ रहा है। कुछ मायनों में यह प्रक्रिया तरीका है कि सोडा और सिरका, दो पदार्थों है कि खुद के द्वारा सुरक्षित हैं पाक, एक बुरा परिणाम का उत्पादन करने के लिए जोड़ा जा सकता है के समान है।
स्वीनी का काम है, और अन्य संबंधित कार्य के जवाब में, शोधकर्ताओं ने अब आम तौर पर बहुत अधिक जानकारी सभी तथाकथित "व्यक्तिगत पहचान की जानकारी" (PII) को हटाने (Narayanan and Shmatikov 2010) कई शोधकर्ताओं ने अब की प्रक्रिया -during "anonymization।" इसके अलावा, एहसास है कि कुछ डेटा-तरह के मेडिकल रिकॉर्ड, वित्तीय रिकॉर्ड, सर्वेक्षण करने के लिए अवैध बारे में सवालों के जवाब के रूप में शायद के बाद भी जारी करने के लिए भी संवेदनशील व्यवहार में है "anonymization।" हालांकि, और अधिक हाल ही उदाहरण है कि मैं नीचे का वर्णन करेंगे संकेत मिलता है कि सामाजिक शोधकर्ताओं करने की जरूरत है उनकी सोच बदल जाते हैं। पहले कदम के रूप में, यह मानते हैं कि सभी डेटा संभावित पहचाने जाने योग्य है और सभी डेटा संभावित रूप से संवेदनशील है बुद्धिमान है। दूसरे शब्दों में, बजाय यह सोच कर कि सूचना के जोखिम परियोजनाओं के एक छोटे सबसेट पर लागू होता है, हम यह मान लेना चाहिए कि यह लागू होता है-के लिए कुछ सभी परियोजनाओं डिग्री करने के लिए।
इस पुनर्भिविन्यास के दोनों पहलुओं नेटफ्लिक्स पुरस्कार से सचित्र हैं। अध्याय 5 में वर्णित है, नेटफ्लिक्स 100 मिलियन फिल्म लगभग 500,000 सदस्यों द्वारा प्रदान की रेटिंग जारी की है, और एक खुला कॉल जहां सभी दुनिया भर से लोगों को प्रस्तुत एल्गोरिदम कि नेटफ्लिक्स की फिल्मों की सिफारिश करने की क्षमता में सुधार कर सकता था। आंकड़ों को जारी करने से पहले, नेटफ्लिक्स ऐसे नामों के रूप में किसी को स्पष्ट रूप से व्यक्तिगत पहचान की जानकारी, हटा दिया। नेटफ्लिक्स भी एक अतिरिक्त कदम चला गया और कुछ रिकॉर्ड में मामूली perturbations (जैसे, 3 सितारों के लिए 4 सितारों से कुछ रेटिंग्स बदल) की शुरुआत की। नेटफ्लिक्स जल्द ही पता चला, तथापि, कि उनके प्रयासों के बावजूद, डेटा कोई द्वारा थे यूजर का मतलब है।
डेटा के बाद सिर्फ दो सप्ताह जारी किए गए Narayanan and Shmatikov (2008) से पता चला है कि यह विशिष्ट लोगों की फिल्म प्राथमिकताओं के बारे में जानने के लिए संभव था। उनके फिर से पहचान हमले के लिए चाल स्वीनी के समान था: एक साथ विलय दो जानकारी स्रोतों, एक संभावित रूप से संवेदनशील जानकारी और कोई स्पष्ट रूप से पहचान की जानकारी और एक है कि लोगों की पहचान शामिल है के साथ। इन आंकड़ों के स्रोतों में से प्रत्येक को व्यक्तिगत रूप से सुरक्षित हो सकता है, लेकिन जब वे संयुक्त रहे विलय डाटासेट सूचना के जोखिम बना सकते हैं। नेटफ्लिक्स डेटा के मामले में, यहाँ यह कैसे हो सकता है। कल्पना कीजिए कि मैं कार्रवाई और मेरे सह कार्यकर्ता के साथ कॉमेडी फिल्मों के बारे में अपने विचारों को साझा करने के लिए चुनते हैं, लेकिन मैं धार्मिक और राजनीतिक फिल्मों के बारे में मेरी राय साझा करने के लिए नहीं पसंद करते हैं। मेरे सह कार्यकर्ता की जानकारी है कि मैं Netflix डेटा में मेरे रिकॉर्ड लगाने के लिए उन लोगों के साथ साझा किया है इस्तेमाल कर सकते हैं; जानकारी है कि मैं हिस्सा सिर्फ विलियम वेल्ड की जन्म तिथि, ज़िप कोड, और सेक्स की तरह एक अद्वितीय फिंगरप्रिंट हो सकता है। तो फिर, अगर वे डेटा में अपने अद्वितीय फिंगरप्रिंट मिल जाए, वे मेरी रेटिंग फिल्में जहां मैं साझा करने के लिए नहीं चुनते सहित सभी फिल्मों के बारे में सीख सकते हैं। एक ही व्यक्ति पर ध्यान केंद्रित लक्षित हमले के इस तरह के अलावा, Narayanan and Shmatikov (2008) यह भी पता चला है कि यह निजी और फिल्म रेटिंग डेटा के साथ नेटफ्लिक्स डेटा विलय-से लोगों के लिए एक व्यापक हमले -एक कई को शामिल करना संभव था कि कुछ लोगों के लिए इंटरनेट मूवी डाटाबेस (आईएमडीबी) पर पोस्ट को चुना है। किसी भी जानकारी के लिए एक विशिष्ट व्यक्ति भी उनकी फिल्म के सेट के लिए अद्वितीय फिंगरप्रिंट है कि उन्हें पहचान करने के लिए रेटिंग्स-कर सकते हैं इस्तेमाल किया जाएगा।
हालांकि नेटफ्लिक्स डेटा या तो एक लक्षित या व्यापक हमले में फिर से पहचाना जा सकता है, यह अभी भी कम जोखिम प्रतीत हो सकता है। सब के बाद, फिल्म रेटिंग्स बहुत संवेदनशील नहीं लगती। कि सामान्य तौर पर सच हो सकता है, डाटासेट में 500,000 लोगों में से कुछ के लिए, फिल्म रेटिंग्स काफी संवेदनशील हो सकता है। वास्तव में, de-anonymization के जवाब में एक परदे समलैंगिक महिला नेटफ्लिक्स के खिलाफ एक वर्ग कार्रवाई सूट में शामिल हो गए। यहाँ कैसे समस्या उनके मुकदमे में व्यक्त किया गया है (Singel 2009) :
"[एम] ovie और रेटिंग डेटा एक अधिक बेहद निजी और संवेदनशील प्रकृति [वैसा] की जानकारी शामिल है। सदस्य की फिल्म डेटा एक Netflix सदस्य की व्यक्तिगत रुचि और / या कामुकता, मानसिक बीमारी, शराब से वसूली, और ज़ुल्म अनाचार से, शारीरिक शोषण, घरेलू हिंसा, व्यभिचार, और बलात्कार सहित विभिन्न बेहद निजी मुद्दों के साथ संघर्ष को उजागर करता है। "
नेटफ्लिक्स पुरस्कार डेटा के डी-anonymization दिखाता दोनों कि सभी डेटा संभावित पहचाने जाने योग्य है और सभी डेटा संभावित रूप से संवेदनशील है। इस बिंदु पर, आप सोच सकते हैं कि यह केवल डेटा है कि लोगों के बारे में हो अभिप्राय करने के लिए लागू होता है। हैरानी की बात यह है कि ऐसा नहीं है। सूचना कानून के अनुरोध के एक स्वतंत्रता के जवाब में, न्यूयॉर्क सिटी सरकार 2013 में न्यूयॉर्क में हर टैक्सी की सवारी का रिकॉर्ड जारी किया, पिक सहित और अध्याय 2 से गुना, स्थानों, और किराया मात्रा में (याद छोड़ कि Farber (2015) श्रम अर्थशास्त्र में महत्वपूर्ण सिद्धांतों) का परीक्षण करने के लिए इस डेटा का इस्तेमाल किया। हालांकि टैक्सी यात्राओं के बारे में इस डेटा सौम्य लग सकता है, क्योंकि यह लोगों के बारे में जानकारी होना प्रतीत नहीं होता है, एंथोनी Tockar महसूस किया कि यह टैक्सी डाटासेट वास्तव में लोगों के बारे में संभावित रूप से संवेदनशील जानकारी के बहुत सारे निहित। उदाहरण देकर स्पष्ट करने के लिए उन्होंने सभी यात्राओं को देखा हसलर क्लब-एक बड़ी पट्टी नए क्लब आधी रात और 6 और फिर यॉर्क-बीच में अपने ड्रॉप बंद स्थानों शुरू पाया। इस खोज से पता चला में सार-एक कुछ लोग हैं जो हसलर क्लब अक्सर के पतों की सूची (Tockar 2014) । यह कल्पना करना शहर की सरकार के मन में यह था कि जब यह आंकड़े जारी किए कठिन है। वास्तव में, यह एक ही तकनीक के लोग हैं, जो शहर के एक चिकित्सा क्लिनिक, एक सरकारी इमारत, या एक धार्मिक संस्था में किसी भी जगह की यात्रा के घर के पते खोजने के लिए इस्तेमाल किया जा सकता है।
कोई अनोखी तरह से इन दो मामलों-नेटफ्लिक्स पुरस्कार और न्यूयॉर्क शहर के टैक्सी डेटा शो है कि अपेक्षाकृत कुशल लोगों को सही ढंग से डेटा है कि वे जारी सूचना के जोखिम का अनुमान करने में विफल रहा है, और इन मामलों रहे हैं (Barbaro and Zeller Jr 2006; Zimmer 2010; Narayanan, Huey, and Felten 2016) । इसके अलावा, इन मामलों में से कई में, समस्याग्रस्त डेटा अभी भी स्वतंत्र रूप से ऑनलाइन उपलब्ध है, कभी एक डेटा रिहाई नाश की कठिनाई का संकेत है। सामूहिक रूप से इन उदाहरणों के साथ ही एक महत्वपूर्ण निष्कर्ष पर गोपनीयता के सुराग के बारे में कंप्यूटर विज्ञान के क्षेत्र में अनुसंधान। शोधकर्ताओं का मानना चाहिए कि सभी डेटा संभावित पहचाने जाने योग्य है और सभी डेटा संभावित रूप से संवेदनशील है।
दुर्भाग्य से, वहाँ तथ्य यह है कि सभी डेटा संभावित पहचाने जाने योग्य है और सभी डेटा संभावित रूप से संवेदनशील है करने के लिए कोई सरल उपाय है। हालांकि, एक तरह से जानकारी जोखिम को कम करने के लिए जब आप डेटा के साथ काम कर रहे हैं बनाने के लिए और एक डेटा संरक्षण योजना का पालन करने के लिए है। इस योजना मौका है कि अपने डेटा लीक करेंगे और अगर एक रिसाव होता है किसी भी तरह नुकसान कम होगा कम हो जाती होगी। डेटा संरक्षण की योजना की बारीकियों, जो इस तरह के रूप में एन्क्रिप्शन के फार्म का उपयोग करने के लिए, समय के साथ बदल जाएगा, लेकिन ब्रिटेन डाटा सेवाओं सहायक के रूप में 5 श्रेणियों कि वे 5 तिजोरियां फोन में डेटा सुरक्षा योजना के तत्वों का आयोजन: सुरक्षित परियोजनाओं, लोगों को सुरक्षित सुरक्षित, सेटिंग्स, सुरक्षित डेटा, और सुरक्षित outputs (तालिका 6.2) (Desai, Ritchie, and Welpton 2016) । पांच तिजोरियां में से कोई भी व्यक्तिगत रूप से पूर्ण सुरक्षा प्रदान करते हैं। लेकिन, साथ में वे कारक है कि सूचना के जोखिम को कम कर सकते हैं की एक शक्तिशाली सेट के रूप में।
सुरक्षित | कार्य |
---|---|
सुरक्षित परियोजनाओं | उन है कि नैतिक हैं करने के लिए डेटा के साथ परियोजनाओं की सीमा |
लोगों को सुरक्षित | पहुँच लोग हैं, जो डेटा के साथ भरोसा किया जा सकता तक ही सीमित है (उदाहरण के लिए, लोगों आया है नैतिक प्रशिक्षण) |
सुरक्षित डेटा | डेटा को डी-पहचाना जाता है और जहां तक संभव हो के लिए एकत्रित |
सुरक्षित सेटिंग्स | डेटा उचित शारीरिक (जैसे, बंद कमरे) और सॉफ्टवेयर (जैसे, पासवर्ड संरक्षण, एन्क्रिप्टेड) सुरक्षा के साथ कंप्यूटर में संग्रहित किया जाता है |
सुरक्षित उत्पादन | अनुसंधान उत्पादन गलती गोपनीयता उल्लंघनों को रोकने के लिए समीक्षा की जाती है |
जब आप इसे उपयोग कर रहे हैं अपने डेटा की रक्षा करने के अलावा, अनुसंधान की प्रक्रिया जहां सूचना के जोखिम विशेष रूप से मुख्य है में एक कदम और अन्य शोधकर्ताओं के साथ डेटा साझा है। वैज्ञानिकों के बीच डेटा साझा वैज्ञानिक प्रयास की एक कोर मूल्य है, और यह बहुत सुविधाएं ज्ञान की उन्नति। यहाँ कैसे ऑफ कॉमन्स ब्रिटेन के हाउस डेटा साझा करने के महत्व का वर्णन किया है:
"डेटा तक पहुंच मौलिक अगर शोधकर्ताओं, पुन: पेश सत्यापित करने और परिणाम है कि साहित्य में रिपोर्ट कर रहे हैं पर निर्माण करने के लिए कर रहे हैं। अनुमान होना चाहिए कि, जब तक कि वहाँ एक मजबूत कारण अन्यथा, डेटा पूरी तरह से खुलासा किया जाना चाहिए और सार्वजनिक रूप से उपलब्ध कराया। इस सिद्धांत, जहां संभव हो, सभी सार्वजनिक रूप से वित्त पोषित अनुसंधान से संबद्ध डेटा व्यापक रूप से और स्वतंत्र रूप से उपलब्ध कराया जाना चाहिए के साथ लाइन में। " (Molloy 2011)
फिर भी, एक और शोधकर्ता के साथ अपने डेटा को साझा करके, आप सूचना के जोखिम अपने प्रतिभागियों के लिए बढ़ती जा सकती है। इस प्रकार, यह लग सकता है कि शोधकर्ताओं को जो अपने साझा करना चाहते हैं डेटा या उनके साझा करने के लिए आवश्यक हैं डेटा-एक मौलिक तनाव का सामना करना पड़। एक तरफ तो वे अन्य वैज्ञानिकों के साथ अपने डेटा साझा करने के लिए एक नैतिक दायित्व है, खासकर यदि मूल अनुसंधान सार्वजनिक रूप से वित्त पोषित है। फिर भी, एक ही समय में, शोधकर्ताओं को कम से कम करने के लिए एक नैतिक दायित्व है, जितना संभव हो सके, उनके प्रतिभागियों को जानकारी जोखिम।
सौभाग्य से, इस दुविधा यह प्रतीत होता है के रूप में के रूप में गंभीर नहीं है। यह कोई डेटा साझा करने से एक निरंतरता के साथ साझा करने के लिए जारी है और भूल जाते हैं, जहां डाटा "गुमनाम" और उपयोग करने के लिए किसी के लिए भी तैनात किया गया है करने के लिए डेटा (चित्रा 6.6) के बारे में सोच करने के लिए महत्वपूर्ण है। इन चरम पदों के दोनों जोखिम और लाभ है। यही कारण है कि यह अपने आप आपके डेटा साझा नहीं करने के लिए सबसे नैतिक बात नहीं है, है; इस तरह के एक दृष्टिकोण समाज के लिए कई संभावित लाभ को समाप्त। रिटर्निंग स्वाद के लिए, संबंधों, और समय, एक उदाहरण के अध्याय में पहले भी चर्चा की, डेटा रिहाई के खिलाफ तर्क है कि तभी संभव हानि पहुँचाता पर ध्यान दिया और कहा कि संभावित लाभ की अनदेखी पीढ़ी एक तरफा रहे हैं; मैं नीचे में और अधिक विस्तार में इस एक तरफा, पीढ़ी सुरक्षात्मक दृष्टिकोण के साथ समस्याओं का वर्णन है जब मैं अनिश्चितता (धारा 6.6.4) का सामना करने में निर्णय लेने के बारे में सलाह की पेशकश करेंगे।
इसके अलावा, इन दो चरम मामलों के बीच में क्या मैं एक दीवारों उद्यान दृष्टिकोण जहां डाटा लोग हैं, जो कुछ मानदंडों को पूरा करें और जो कुछ नियमों से बंधे होने के लिए सहमत साथ साझा किया जाता है बुलाया जाएगा (जैसे, एक आईआरबी से निरीक्षण और एक डाटा संरक्षण योजना) । यह दीवारों उद्यान दृष्टिकोण रिहाई के लाभ के कई प्रदान करता है और कम जोखिम के साथ भूल जाते हैं। बेशक, एक दीवारों उद्यान दृष्टिकोण कई सवाल-कौन पहुँच जाना चाहिए था, क्या परिस्थितियों में, कब तक, जो बनाए रखने और दीवारों उद्यान पुलिस को देना चाहिए आदि-लेकिन इन दुर्गम नहीं हैं बनाता है। वास्तव में, वहाँ पहले से ही जगह है कि शोधकर्ताओं ने इस तरह के डेटा मिशिगन विश्वविद्यालय में राजनीतिक और सामाजिक अनुसंधान के लिए अंतर-विश्वविद्यालय कंसोर्टियम के संग्रह के रूप में अभी उपयोग कर सकते हैं, दीवारों उद्यान काम कर रहे हैं।
तो, जहां अपने अध्ययन से डेटा कोई साझा करने, दीवारों उद्यान की निरंतरता पर होना चाहिए, और जारी है और भूल जाते हैं? यह अपने डेटा का विवरण पर निर्भर; शोधकर्ताओं ने कानून और जनता के हित के लिए व्यक्तियों, उपकार, न्याय के लिए आदर और सम्मान संतुलन होना चाहिए। जब अन्य फैसले के लिए उचित संतुलन का आकलन करने के शोधकर्ताओं की सलाह और IRBs के अनुमोदन की तलाश है, और डेटा रिलीज सिर्फ इतना है कि इस प्रक्रिया का एक और हिस्सा हो सकता है। दूसरे शब्दों में, हालांकि कुछ लोगों को एक निराशाजनक नैतिक दलदल के रूप में डेटा रिहाई का लगता है, हम पहले से ही सिस्टम जगह में शोधकर्ताओं नैतिक दुविधाओं के इन प्रकार के संतुलन में मदद करना है।
डेटा साझा करने के बारे में सोचने के लिए एक अंतिम रास्ता सादृश्य के द्वारा होता है। हर साल की कारों से होने वाली मौतों के हजारों के लिए जिम्मेदार हैं, लेकिन हम ड्राइविंग पर प्रतिबंध लगाने का प्रयास नहीं करते। वास्तव में, इस तरह के एक कॉल ड्राइविंग प्रतिबंध लगाने के लिए बेतुका होगा क्योंकि ड्राइविंग कई अद्भुत बातें सक्षम बनाता है। बल्कि, समाज को देता है जो कर सकते हैं ड्राइव पर प्रतिबंध (जैसे, एक निश्चित उम्र के होने की जरूरत है, कुछ परीक्षण पारित किया है की जरूरत है) और वे कैसे ड्राइव कर सकते हैं (जैसे, गति सीमा के तहत)। सोसायटी भी इन नियमों (जैसे, पुलिस) को लागू करने के साथ काम सौंपा लोगों की है, और हम लोग हैं, जो उन्हें उल्लंघन पकड़े जाते सज़ा। संतुलित सोच के इस एक ही तरह है कि समाज ड्राइविंग को विनियमित करने के लिए लागू होता भी डाटा साझा करने के लिए लागू किया जा सकता है। यही नहीं बल्कि के लिए या डाटा साझा करने के खिलाफ निरंकुश तर्क बनाने के बजाय, मुझे लगता है कि सबसे बड़ा लाभ में पता लगाना है कि हम और अधिक डेटा अधिक सुरक्षित रूप से साझा कर सकते हैं कि कैसे से आ जाएगा।
समाप्त करने के लिए, सूचना के जोखिम नाटकीय वृद्धि हुई है, और यह भविष्यवाणी और यों तो बहुत मुश्किल है। इसलिए, यह मानते हैं कि सभी डेटा संभावित रूप से पहचान करने और संभावित रूप से संवेदनशील है सबसे अच्छा है। सूचना के जोखिम को कम करने के लिए, जबकि अनुसंधान कर रही है, शोधकर्ताओं बनाने के लिए और एक डेटा संरक्षण योजना का पालन कर सकते हैं। इसके अलावा, सूचना के जोखिम अन्य वैज्ञानिकों के साथ डेटा साझा करने से शोधकर्ताओं को रोकने नहीं है।