Etyka badań tradycyjnie obejmowała również tematy takie jak oszustwa naukowe i przyznawanie kredytów. Zostały one omówione bardziej szczegółowo w " On Being a Scientist" przez Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Ten rozdział w dużym stopniu zależy od sytuacji w Stanach Zjednoczonych. Więcej informacji na temat procedur oceny etycznej w innych krajach można znaleźć w rozdziałach 6-9 Desposato (2016b) . Argument, że biomedyczne zasady etyczne, które wpłynęły na ten rozdział, są zbyt amerykańskie, patrz Holm (1995) . Dalszy historyczny przegląd Institutional Review Board w Stanach Zjednoczonych znajduje się w Stark (2012) . Dziennik PS: Political Science and Politics zorganizował profesjonalne sympozjum na temat związku między politologami i IRB; patrz Martinez-Ebers (2016) streszczenie.
Raport Belmonta i późniejsze regulacje w Stanach Zjednoczonych mają tendencję do rozróżniania badań od praktyki. Nie dokonałem takiego rozróżnienia w tym rozdziale, ponieważ uważam, że zasady i ramy etyczne mają zastosowanie do obu ustawień. Więcej informacji na temat tego rozróżnienia i problemów, które wprowadza, patrz Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) oraz Metcalf and Crawford (2016) .
Więcej informacji na temat nadzoru badawczego na Facebooku można znaleźć w Jackman and Kanerva (2016) . Po pomysły dotyczące nadzoru nad firmami i organizacjami pozarządowymi patrz: Calo (2013) , Polonetsky, Tene, and Jerome (2015) oraz Tene and Polonetsky (2016) .
W odniesieniu do wykorzystania danych z telefonu komórkowego w celu zaradzenia wybuchowi epidemii wirusa Ebola w 2014 r. W Afryce Zachodniej (Wesolowski et al. 2014; McDonald 2016) , więcej informacji na temat ryzyka związanego z prywatnością danych telefonii komórkowej można znaleźć w: Mayer, Mutchler, and Mitchell (2016) . Przykłady wcześniejszych badań związanych z kryzysem wykorzystujących dane z telefonów komórkowych można znaleźć w Bengtsson et al. (2011) oraz Lu, Bengtsson, and Holme (2012) oraz więcej na temat etyki badań związanych z kryzysem, patrz ( ??? ) .
Wiele osób napisało o emocjonalnej kontrii. Pismo " Research Ethics" poświęciło cały swój problem w styczniu 2016 r., Aby omówić eksperyment; patrz Hunter and Evans (2016) aby uzyskać przegląd. W Kahn, Vayena, and Mastroianni (2014) National Academics of Science opublikowano dwa artykuły dotyczące eksperymentu: Kahn, Vayena, and Mastroianni (2014) oraz Fiske and Hauser (2014) . Inne elementy dotyczące eksperymentu to: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) oraz ( ??? ) .
Pod względem masowej inwigilacji, szeroki przegląd jest dostępny w Mayer-Schönberger (2009) i Marx (2016) . Aby zobaczyć konkretny przykład zmieniających się kosztów nadzoru, Bankston and Soltani (2013) szacują, że śledzenie podejrzanego karnego za pomocą telefonów komórkowych jest około 50 razy tańsze niż korzystanie z fizycznego nadzoru. Zobacz także Ajunwa, Crawford, and Schultz (2016) celu omówienia nadzoru w miejscu pracy. Bell and Gemmell (2009) zapewniają bardziej optymistyczne spojrzenie na samokontrolę.
Oprócz możliwości śledzenia obserwowalnych zachowań, które są publiczne lub częściowo publiczne (np. Smaki, więzy i czas), badacze mogą w coraz większym stopniu wywnioskować rzeczy, które wielu uczestników uważa za prywatne. Na przykład Michał Kosiński i jego koledzy (2013) wykazali, że mogą wywnioskować wrażliwe informacje o ludziach, takie jak orientacja seksualna i używanie substancji uzależniających, z pozornie zwykłych cyfrowych danych śledzenia (Facebook Like). To może zabrzmieć magicznie, ale podejście Kosińskiego i jego współpracowników - które łączyło cyfrowe ślady, ankiety i nadzorowane uczenie - jest w rzeczywistości czymś, o czym już wam mówiłem. Przypomnij to w rozdziale 3 (Zadawanie pytań). Powiedziałem wam, jak Joshua Blumenstock i współpracownicy (2015) połączyli dane z badań z danymi z telefonu komórkowego, aby oszacować ubóstwo w Rwandzie. To dokładnie to samo podejście, które można wykorzystać do skutecznego pomiaru ubóstwa w kraju rozwijającym się, może również posłużyć do potencjalnego wnioskowania o naruszeniu prywatności.
Więcej informacji na temat możliwych niezamierzonych drugorzędnych zastosowań danych dotyczących zdrowia można znaleźć w pracy O'Doherty et al. (2016) . Oprócz możliwości niezamierzonych drugorzędnych zastosowań, stworzenie nawet niekompletnej bazy danych może mieć mrożący wpływ na życie społeczne i polityczne, jeśli ludzie nie będą chcieli czytać pewnych materiałów lub omawiać pewnych tematów; patrz Schauer (1978) i Penney (2016) .
W sytuacjach z nakładającymi się zasadami badacz czasami angażuje się w "zakupy regulacyjne" (Grimmelmann 2015; Nickerson and Hyde 2016) . W szczególności, niektórzy badacze, którzy chcą uniknąć nadzoru IRB, mogą tworzyć partnerstwa z badaczami, którzy nie są objęci IRB (np. Ludzie w firmach lub organizacjach pozarządowych), a ich koledzy mogą zbierać i usuwać dane. Następnie naukowiec z IRB może analizować te zidentyfiko- wane dane bez nadzoru IRB, ponieważ badania nie są już uważane za "badania nad podmiotami ludzkimi", przynajmniej zgodnie z niektórymi interpretacjami obecnych zasad. Tego typu unikanie IRB prawdopodobnie nie jest zgodne z opartym na zasadach podejściem do etyki badań.
W 2011 r. Rozpoczęto prace nad aktualizacją wspólnej zasady, a proces ten został ostatecznie zakończony w 2017 r. ( ??? ) . Więcej informacji na temat tych wysiłków mających na celu aktualizację wspólnej zasady można znaleźć w Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) oraz Metcalf (2016) .
Klasyczne podejście do etyki biomedycznej to Beauchamp and Childress (2012) . Proponują, że cztery główne zasady powinny kierować się etyką biomedyczną: szacunek dla autonomii, brak ułomności, życzliwość i sprawiedliwość. Zasada nonmaleficence zachęca do powstrzymania się od wyrządzania krzywdy innym ludziom. Ta koncepcja jest głęboko związana z hipokratyczną ideą "nie szkodzić". W etyce badań zasada ta jest często połączona z zasadą Miłosierdzia, ale patrz rozdział 5 @ beauchamp_principles_2012, aby uzyskać więcej informacji na temat rozróżnienia między tymi dwoma. Krytykę, że te zasady są zbyt amerykańskie, zob. Holm (1995) . Więcej informacji na temat równoważenia, gdy zasady są w konflikcie, patrz Gillon (2015) .
Cztery zasady w tym rozdziale zostały również zaproponowane jako wytyczne dla etycznego nadzoru nad badaniami prowadzonymi w firmach i organizacjach pozarządowych (Polonetsky, Tene, and Jerome 2015) za pośrednictwem organów zwanych "Board Consumer Subject Review" (CSRB) (Calo 2013) .
Oprócz poszanowania autonomii, Raport Belmonta przyznaje również, że nie każdy człowiek jest w stanie prawdziwie samostanowienia. Na przykład dzieci, osoby cierpiące na choroby lub osoby żyjące w sytuacji poważnie ograniczonej wolności mogą nie być w stanie działać jako w pełni autonomiczne jednostki, a zatem osoby te podlegają zatem dodatkowej ochronie.
Zastosowanie zasady szacunku dla osób w erze cyfrowej może być trudne. Na przykład w badaniach nad cyfrową erą może być trudno zapewnić dodatkową ochronę osobom o ograniczonej zdolności samostanowienia, ponieważ badacze często niewiele wiedzą o swoich uczestnikach. Co więcej, świadoma zgoda w dziedzinie badań społecznych w epoce cyfrowej jest ogromnym wyzwaniem. W niektórych przypadkach prawdziwie świadoma zgoda może ucierpieć z powodu paradoksu przejrzystości (Nissenbaum 2011) , w którym informacja i zrozumienie są w konflikcie. Z grubsza, jeśli badacze dostarczą pełnych informacji na temat natury gromadzenia danych, analizy danych i praktyk bezpieczeństwa danych, wielu uczestnikom trudno będzie to zrozumieć. Ale jeśli badacze dostarczają zrozumiałych informacji, może brakować ważnych szczegółów technicznych. W badaniach medycznych w epoce analogowej - dominującej scenerii rozważanej w Raporcie Belmonta - można sobie wyobrazić, że lekarz rozmawia indywidualnie z każdym uczestnikiem, aby pomóc rozwiązać paradoks na rzecz przejrzystości. W badaniach online z udziałem tysięcy lub milionów osób takie podejście "twarzą w twarz" jest niemożliwe. Drugi problem dotyczący zgody w erze cyfrowej polega na tym, że w niektórych badaniach, takich jak analizy masywnych repozytoriów danych, niepraktyczne byłoby uzyskiwanie świadomej zgody od wszystkich uczestników. Omówię te i inne pytania dotyczące świadomej zgody bardziej szczegółowo w punkcie 6.6.1. Pomimo tych trudności, powinniśmy pamiętać, że świadoma zgoda nie jest ani konieczna, ani wystarczająca dla szacunku dla osób.
Więcej informacji na temat badań medycznych przed świadomą zgodą można znaleźć w Miller (2014) . Aby uzyskać pełną informację o świadomej zgodzie, patrz Manson and O'Neill (2007) . Zobacz także sugerowane odczyty dotyczące świadomej zgody poniżej.
Harmonia z kontekstem to szkoda, którą badania mogą powodować nie dla konkretnych osób, ale dla otoczenia społecznego. Ta koncepcja jest nieco abstrakcyjna, ale zilustruję klasyczny przykład: badanie Jury Wichita (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - również czasami nazywane Projektem Jury Chicago (Cornwell 2010) . W tym badaniu naukowcy z University of Chicago, w ramach większego badania społecznych aspektów systemu prawnego, potajemnie odnotowali sześć debat jury w Wichita, Kansas. Sędziowie i prawnicy w sprawach zatwierdzili nagrania, a proces ten był ściśle nadzorowany. Jednak jurorzy nie byli świadomi, że nagrania występują. Po odkryciu badania nastąpiło publiczne oburzenie. Departament Sprawiedliwości rozpoczął dochodzenie w sprawie badania, a naukowcy zostali wezwani do złożenia zeznań przed Kongresem. Ostatecznie Kongres przyjął nowe prawo, które uniemożliwia potajemne zapisywanie obrad jury.
Obawy krytyków Studium Jury Wichita nie stanowiły zagrożenia dla uczestników; raczej było to ryzyko szkód w kontekście obrad jury. Oznacza to, że ludzie sądzili, że jeśli członkowie jury nie wierzą, że dyskutują w bezpiecznej i chronionej przestrzeni, trudniej byłoby, by obrady jury przebiegały w przyszłości. Oprócz rozważań jury są też inne specyficzne konteksty społeczne, które społeczeństwo zapewnia dodatkową ochronę, takie jak relacje adwokat-klient i opieka psychologiczna (MacCarthy 2015) .
Ryzyko szkód w kontekście i zakłóceń systemów społecznych pojawia się także w niektórych eksperymentach polowych w naukach politycznych (Desposato 2016b) . Przykład dla bardziej kontekstowego obliczania kosztów i korzyści dla eksperymentu polowego w politologii znajduje się w Zimmerman (2016) .
Rekompensaty dla uczestników zostały omówione w szeregu ustawień związanych z badaniami wieku cyfrowego. Lanier (2014) proponuje płacenie uczestnikom za wygenerowane cyfrowe ślady. Bederson and Quinn (2011) omawiają płatności na internetowych rynkach pracy. Wreszcie, Desposato (2016a) proponuje opłacanie uczestników w eksperymentach terenowych. Podkreśla, że nawet jeśli uczestnikom nie można płacić bezpośrednio, darowiznę można przekazać grupie pracującej w ich imieniu. Na przykład w firmie Encore naukowcy mogli przekazać darowiznę grupie pracującej na rzecz dostępu do Internetu.
Warunki umów o świadczenie usług powinny mieć mniejszą wagę niż umowy wynegocjowane między równymi stronami, a nie prawa tworzone przez prawomocne rządy. Sytuacje, w których badacze naruszali umowy o świadczenie usług w przeszłości, zazwyczaj wymagały użycia automatycznych zapytań w celu audytu zachowań przedsiębiorstw (podobnie jak eksperymenty polowe mierzące dyskryminację). Dodatkowe dyskusje można znaleźć w Vaccaro et al. (2015) , Bruckman (2016a) i Bruckman (2016b) . Na przykład badań empirycznych, które omawiają warunki korzystania z usług, patrz Soeller et al. (2016) . Aby uzyskać więcej informacji na temat możliwych problemów prawnych, z którymi borykają się badacze, jeśli naruszają warunki korzystania z usługi, zobacz Sandvig and Karahalios (2016) .
Oczywiście napisano ogromną sumę o konsekwencjalizmie i deontologii. Przykład, w jaki sposób te ramy etyczne i inne mogą być wykorzystane do wnioskowania o badaniach wieku cyfrowego, patrz Zevenbergen et al. (2015) . Na przykład, jak można je zastosować do eksperymentów terenowych w ekonomii rozwoju, zobacz Baele (2013) .
Więcej informacji na temat badań audytowych dotyczących dyskryminacji można znaleźć w Pager (2007) i Riach and Rich (2004) . Te badania nie tylko nie mają świadomej zgody, ale również zawierają oszustwo bez składania sprawozdań.
Zarówno Desposato (2016a) i Humphreys (2015) oferują porady dotyczące eksperymentów terenowych bez zgody.
Sommers and Miller (2013) przeglądu wielu argumentów przemawiających za nierozpatrywaniem uczestników po oszustwie i twierdzą, że naukowcy powinni zrezygnować z odprawy
"W bardzo wąskim zakresie okoliczności, a mianowicie w badaniach terenowych, podczas których odprawa stwarza znaczne praktyczne bariery, ale naukowcy nie mieliby żadnych skrupułów na temat odprawy, gdyby mogli. Nie wolno zezwalać badaczom na rezygnację z odprawy w celu zachowania naiwnej puli uczestników, osłaniania się przed uczestnictwem w gniewie lub ochrony uczestników przed krzywdą. "
Inni twierdzą, że w niektórych sytuacjach, jeżeli odprawa powoduje więcej szkód niż dobra, należy jej unikać (Finn and Jakobsson 2007) . Odprawa jest przypadkiem, w którym niektórzy badacze nadadzą priorytet Szacunek dla osób nad dobroczynnością, podczas gdy niektórzy badacze robią coś odwrotnego. Jednym z możliwych rozwiązań byłoby znalezienie sposobu na przedstawienie odprawy uczestnikom. Oznacza to, że zamiast debatowania, jako czegoś, co może wyrządzić krzywdę, może to być również coś, co przynosi korzyści uczestnikom. Na przykład tego rodzaju Jagatic et al. (2007) edukacyjnych, patrz Jagatic et al. (2007) . Psychologowie opracowali techniki składania sprawozdań (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , a niektóre z nich mogą być z pożytkiem zastosowane w badaniach nad cyfrową erą. Humphreys (2015) oferuje interesujące przemyślenia na temat odroczonej zgody , która jest ściśle związana ze strategią podsumowania, którą opisałem.
Pomysł, aby poprosić próbkę uczestników o zgodę, jest związany z tym, co Humphreys (2015) nazywa zgodą .
Kolejnym pomysłem związanym z proponowaną świadomą zgodą jest zbudowanie panelu ludzi, którzy zgadzają się na eksperymenty online (Crawford 2014) . Niektórzy twierdzą, że ten panel byłby nieliczną próbką ludzi. Ale rozdział 3 (Zadawanie pytań) pokazuje, że problemy te można potencjalnie adresować za pomocą postratyfikacji. Również zgoda na udział w panelu może obejmować różne eksperymenty. Innymi słowy, uczestnicy niekoniecznie muszą wyrazić zgodę na każdy eksperyment indywidualnie, koncepcja zwana szeroką zgodą (Sheehan 2011) . Więcej informacji na temat różnic między jednorazową zgodą i zgodą na każde badanie, a także możliwą hybrydą, patrz: Hutton and Henderson (2015) .
Nagroda Netflix nie jest wyjątkowa, co ilustruje ważną techniczną właściwość zestawów danych zawierających szczegółowe informacje o ludziach, a tym samym oferuje ważne lekcje na temat możliwości "anonimizacji" nowoczesnych zbiorów danych społecznych. Pliki z wieloma informacjami na temat każdej osoby mogą być rzadkie , w znaczeniu określonym formalnie w Narayanan and Shmatikov (2008) . Oznacza to, że dla każdego rekordu nie ma zapisów, które są takie same, aw rzeczywistości nie ma rekordów, które są bardzo podobne: każda osoba znajduje się daleko od najbliższego sąsiada w zbiorze danych. Można sobie wyobrazić, że dane Netflix mogą być rzadkie, ponieważ przy około 20 000 filmów w pięciogwiazdkowej skali istnieje około \(6^{20,000}\) możliwych wartości, które każda osoba może mieć (6, ponieważ oprócz 1 do 5 gwiazdek, ktoś może nie ocenił filmu w ogóle). Ta liczba jest tak duża, że trudno ją pojąć.
Sparsity ma dwie główne implikacje. Po pierwsze, oznacza to, że próba "anonimizacji" zbioru danych na podstawie losowych zaburzeń prawdopodobnie zakończy się niepowodzeniem. Oznacza to, że nawet jeśli Netflix miałby losowo dostosować niektóre oceny (co zrobili), nie byłoby to wystarczające, ponieważ uszkodzony rekord jest nadal najbliższy możliwemu zapisowi informacji, które atakujący ma. Po drugie, niespójność oznacza, że ponowna identyfikacja jest możliwa, nawet jeśli atakujący ma niedoskonałą lub bezstronną wiedzę. Na przykład, w danych Netflix, wyobraźmy sobie, że atakujący zna twoje oceny dla dwóch filmów i dat, dla których zrobiłeś te oceny \(\pm\) 3 dni; tylko te informacje wystarczą, aby jednoznacznie zidentyfikować 68% osób w danych Netflix. Jeśli atakujący zna osiem filmów, które oceniłeś \(\pm\) 14 dni, to nawet jeśli dwie z tych znanych ocen są całkowicie błędne, 99% rekordów może zostać jednoznacznie zidentyfikowanych w zbiorze danych. Innymi słowy, niespójność jest podstawowym problemem dla "anonimizacji" danych, co jest niefortunne, ponieważ większość współczesnych zbiorów danych społecznych jest skąpa. Więcej informacji na temat "anonimizacji" rzadkich danych można znaleźć w Narayanan and Shmatikov (2008) .
Dane meta-telefoniczne również mogą wydawać się "anonimowe" i niewrażliwe, ale tak nie jest. Dane meta-telefoniczne są identyfikowalne i wrażliwe (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
Na Rysunku 6.6, naszkicowałem kompromis między ryzykiem dla uczestników a korzyściami dla społeczeństwa z publikacji danych. Dla porównania podejść ograniczonego dostępu (np. Ogrodzony ogród) i podejść ograniczonych danych (np. Pewna forma "anonimizacji") zobacz Reiter and Kinney (2011) . Aby uzyskać proponowany system kategoryzacji poziomów ryzyka danych, zobacz Sweeney, Crosas, and Bar-Sinai (2015) . Aby uzyskać więcej ogólnych dyskusji na temat udostępniania danych, zobacz Yakowitz (2011) .
Aby uzyskać bardziej szczegółową analizę tego kompromisu między ryzykiem a użytecznością danych, zobacz Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) i Goroff (2015) . Aby zobaczyć, że kompromis dotyczy rzeczywistych danych z masowo otwartych kursów internetowych (MOOC), zobacz Daries et al. (2014) i Angiuli, Blitzstein, and Waldo (2015) .
Różniczkowa prywatność oferuje również alternatywne podejście, które może łączyć zarówno niskie ryzyko z uczestnikami, jak i duże korzyści dla społeczeństwa; patrz Dwork and Roth (2014) oraz Narayanan, Huey, and Felten (2016) .
Więcej informacji na temat pojęcia informacji umożliwiających osobistą identyfikację (PII), która jest kluczowa dla wielu zasad dotyczących etyki badań, znajduje się w Narayanan and Shmatikov (2010) oraz Schwartz and Solove (2011) . Więcej informacji na temat potencjalnie newralgicznych danych można znaleźć w artykule Ohm (2015) .
W tej sekcji przedstawiłem powiązanie różnych zestawów danych jako coś, co może prowadzić do ryzyka informacyjnego. Może jednak również stworzyć nowe możliwości dla badań, jak twierdzi Currie (2013) .
Więcej informacji o pięciu sejfach znajdziesz w Desai, Ritchie, and Welpton (2016) . Aby dowiedzieć się, jak dane wyjściowe mogą być identyfikowane, zobacz Brownstein, Cassa, and Mandl (2006) , które pokazują, w jaki sposób można identyfikować mapy chorób. Dwork et al. (2017) rozważają również ataki na zagregowane dane, takie jak statystyki dotyczące liczby osób z pewną chorobą.
Pytania dotyczące korzystania z danych i publikowania danych również rodzą pytania dotyczące własności danych. Aby uzyskać więcej informacji na temat własności danych, zobacz Evans (2011) i Pentland (2012) .
Warren and Brandeis (1890) to przełomowy artykuł prawny na temat prywatności i najbardziej kojarzy się z ideą, że prywatność to prawo do zostania w spokoju. Długotrwałe traktowanie prywatności, które polecam, to Solove (2010) i Nissenbaum (2010) .
Aby zapoznać się z badaniami empirycznymi nad tym, jak ludzie myślą o prywatności, zobacz Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) proponują dwoistą teorię - że ludzie czasami koncentrują się na intuicyjnych problemach, a czasem koncentrują się na rozważanych problemach - aby wyjaśnić, w jaki sposób ludzie mogą wydawać pozornie sprzeczne stwierdzenia na temat prywatności. Więcej informacji na temat prywatności w ustawieniach internetowych, takich jak Twitter, zobacz Neuhaus and Webmoor (2012) .
Czasopismo naukowe opublikowało specjalną sekcję zatytułowaną "Koniec prywatności", która porusza kwestie prywatności i ryzyka informacyjnego z różnych perspektyw; streszczenie, patrz Enserink and Chin (2015) . Calo (2011) oferuje ramy do myślenia o szkodach, które wynikają z naruszenia prywatności. Pierwszym przykładem obaw o prywatność na samym początku epoki cyfrowej jest Packard (1964) .
Jednym z wyzwań przy stosowaniu standardu minimalnego ryzyka jest to, że nie jest jasne, czyje codzienne życie ma być używane do benchmarkingu (National Research Council 2014) . Na przykład ludzie bezdomni odczuwają większy dyskomfort w codziennym życiu. Nie oznacza to jednak, że etycznie dopuszczalne jest narażanie osób bezdomnych na badania o podwyższonym ryzyku. Z tego powodu wydaje się, że istnieje rosnący konsensus co do tego, że minimalne ryzyko powinno być porównywane z normą dotyczącą populacji ogólnej , a nie normą dla określonej populacji . Chociaż ogólnie zgadzam się z ideą standardu populacji ogólnej, uważam, że na dużych platformach internetowych, takich jak Facebook, rozsądny jest standardowy standard populacji. Tak więc, rozważając Emocjonalną kontagionię, uważam, że rozsądne jest porównywanie z codziennym ryzykiem na Facebooku. Standard populacyjny w tym przypadku jest o wiele łatwiejszy do oszacowania i jest mało prawdopodobne, aby był sprzeczny z zasadą sprawiedliwości, która ma na celu zapobieganie niesprawiedliwemu obciążaniu badań niesprawnymi grupami (np. Więźniami i sierotami).
Inni naukowcy wezwali również do włączenia kolejnych artykułów do załączników etycznych (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) oferuje również praktyczne wskazówki. Zook i współpracownicy (2017) oferują "dziesięć prostych zasad odpowiedzialnego badania dużych danych".