Forskningsetikk har tradisjonelt også tatt med temaer som vitenskapelig svindel og allokering av kreditt. Disse blir diskutert i større detalj i On Being Scientist ved Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Dette kapitlet er sterkt påvirket av situasjonen i USA. For mer om de etiske gjennomgangsprosedyrene i andre land, se kapitlene 6-9 i Desposato (2016b) . For et argument at de biomedisinske etiske prinsippene som har påvirket dette kapittelet, er overdrevent amerikanske, se Holm (1995) . For en ytterligere historisk gjennomgang av Institutional Review Boards i USA, se Stark (2012) . Tidsskriftet PS: Statsvitenskap og Politikk holdt et profesjonelt symposium om forholdet mellom politiske forskere og IRB; se Martinez-Ebers (2016) for et sammendrag.
Belmont Report og påfølgende forskrifter i USA har en tendens til å skille mellom forskning og praksis. Jeg har ikke gjort et slikt skille i dette kapittelet fordi jeg tror at de etiske prinsippene og rammene gjelder for begge innstillingene. For mer om dette skillet og problemene som det introduserer, se Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) og Metcalf and Crawford (2016) .
For mer om forskningssyn på Facebook, se Jackman and Kanerva (2016) . For ideer om forskningssyn på bedrifter og frivillige organisasjoner, se Calo (2013) , Polonetsky, Tene, and Jerome (2015) , og Tene and Polonetsky (2016) .
I forbindelse med bruk av mobiltelefondata for å hjelpe til med å løse 2014-Ebola-utbruddet i Vest-Afrika (Wesolowski et al. 2014; McDonald 2016) , for mer om personvernrisikoen for mobiltelefondata, se Mayer, Mutchler, and Mitchell (2016) . For eksempler på tidligere krise-relatert forskning ved bruk av mobiltelefondata, se Bengtsson et al. (2011) og Lu, Bengtsson, and Holme (2012) , og for mer om etikk av krise relatert forskning, se ( ??? ) .
Mange har skrevet om emosjonell forstyrrelse. Journalet Research Ethics viet hele spørsmålet i januar 2016 for å diskutere eksperimentet; se Hunter and Evans (2016) for en oversikt. Prosedyrene ved de nasjonale vitenskapsakademiene publiserte to deler om forsøket: Kahn, Vayena, and Mastroianni (2014) og Fiske and Hauser (2014) . Andre stykker om forsøket er: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) , og ( ??? ) .
Med hensyn til massovervåking er det gitt bred oversikt i Mayer-Schönberger (2009) og Marx (2016) . For et konkret eksempel på de endrede kostnadene for overvåking, estimerer Bankston and Soltani (2013) at sporing av en kriminell mistenkt bruker mobiltelefoner er omtrent 50 ganger billigere enn å bruke fysisk overvåking. Se også Ajunwa, Crawford, and Schultz (2016) for en diskusjon av overvåkning på jobben. Bell and Gemmell (2009) gir et mer optimistisk perspektiv på selvovervåkning.
I tillegg til å kunne spore observerbar atferd som er offentlig eller delvis offentlig (for eksempel smaker, slips og tid), kan forskere i stadig større grad utlede ting som mange deltakere anser å være private. For eksempel viste Michal Kosinski og kolleger (2013) at de kunne utlede sensitiv informasjon om mennesker, for eksempel seksuell orientering og bruk av vanedannende stoffer, fra tilsynelatende vanlige digitale spordata (Facebook Likes). Dette kan hende magisk, men tilnærmingen Kosinski og kollegaer som brukes - som kombinerte digitale spor, undersøkelser og veiledet læring - er faktisk noe jeg allerede har fortalt deg om. Husk det i kapittel 3 (Still spørsmål). Jeg fortalte deg hvordan Joshua Blumenstock og kollegaer (2015) kombinerte undersøkelsesdata med mobiltelefondata for å estimere fattigdom i Rwanda. Denne nøyaktig samme tilnærmingen, som kan brukes til å måle fattigdom effektivt i et utviklingsland, kan også brukes til potensielle personvernsbrudd.
For mer om mulig utilsiktet sekundær bruk av O'Doherty et al. (2016) , se O'Doherty et al. (2016) . I tillegg til potensialet for utilsiktet sekundær bruk, kan opprettelsen av selv en ufullstendig master database ha en kjølende effekt på sosialt og politisk liv hvis folk ikke ble villige til å lese bestemte materialer eller diskutere bestemte emner; se Schauer (1978) og Penney (2016) .
I situasjoner med overlappende regler involverer forsker noen ganger "regulatorisk shopping" (Grimmelmann 2015; Nickerson and Hyde 2016) . Spesielt kan enkelte forskere som ønsker å unngå IRB-tilsyn, danne partnerskap med forskere som ikke er dekket av IRB (f. Eks. Personer hos bedrifter eller frivillige organisasjoner), og få disse kollegaene til å samle inn og de-identifisere data. Deretter kan den IRB-dekkede forskeren analysere disse de-identifiserte dataene uten IRB-overvåking fordi forskningen ikke lenger anses som "human subjects research", i hvert fall i henhold til noen tolkninger av gjeldende regler. Denne typen IRB-unnskyldning er sannsynligvis ikke i samsvar med en prinsippbasert tilnærming til forskningsetikk.
I 2011 begynte en innsats å oppdatere Common Rule, og denne prosessen ble endelig fullført i 2017 ( ??? ) . For mer om denne innsatsen for å oppdatere Common Rule, se Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) og Metcalf (2016) .
Den klassiske prinsippbaserte tilnærmingen til biomedisinsk etikk er Beauchamp and Childress (2012) . De foreslår at fire hovedprinsipper skal veilede biomedisinsk etik: Respekt for autonomi, nonmaleficence, beneficence og Justice. Prinsippet om nonmaleficence oppfordrer en til å avstå fra å skade andre mennesker. Dette konseptet er dypt knyttet til den hippokratiske ideen om "Ikke skad". I forskningsetikk er dette prinsippet ofte kombinert med Beneficence-prinsippet, men se kapittel 5 i @ beauchamp_principles_2012 for mer om forskjellen mellom de to. For en kritikk at disse prinsippene er altfor amerikanske, se Holm (1995) . For mer om å balansere når prinsippene står i konflikt, se Gillon (2015) .
De fire prinsippene i dette kapittelet er også foreslått å lede etisk tilsyn med at forskningen utføres hos bedrifter og frivillige organisasjoner (Polonetsky, Tene, and Jerome 2015) gjennom organer kalt "Consumer Subject Review Boards" (CSRB) (Calo 2013) .
I tillegg til å respektere autonomi, anerkjenner Belmont-rapporten også at ikke alle mennesker er i stand til sann selvbestemmelse. For eksempel kan barn, personer som lider av sykdom eller personer som lever i situasjoner med alvorlig begrenset frihet ikke være i stand til å fungere som fullt autonome individer, og disse menneskene er derfor gjenstand for ekstra beskyttelse.
Bruk av prinsippet om respekt for personer i den digitale tidsalderen kan være utfordrende. For eksempel i digital-age-forskning kan det være vanskelig å gi ekstra beskyttelse for personer med redusert evne til selvbestemmelse fordi forskere ofte vet svært lite om deltakerne. Videre er informert samtykke i digital-age sosial forskning en stor utfordring. I noen tilfeller kan virkelig informert samtykke lider av gjennomsiktig paradoks (Nissenbaum 2011) , hvor informasjon og forståelse er i konflikt. Grovt, hvis forskere gir full informasjon om innholdet i datainnsamlingen, dataanalysen og datasikkerhetspraksis, vil det være vanskelig for mange deltakere å forstå. Men hvis forskere gir forståelig informasjon, kan det mangle viktige tekniske detaljer. I medisinsk forskning i den analoge alderen - den dominerende innstillingen som vurderes av Belmont-rapporten - kan man forestille seg en lege som snakker individuelt med hver deltaker for å bidra til å løse gjennomsiktighetsparametre. I nettstudier som involverer tusenvis eller millioner av mennesker, er en slik ansikt til ansikt tilnærming umulig. Et annet problem med samtykke i den digitale tidsalderen er at det i noen studier, som analyser av massive datalager, ville være umulig å få informert samtykke fra alle deltakere. Jeg diskuterer disse og andre spørsmål om informert samtykke nærmere i seksjon 6.6.1. Til tross for disse vanskelighetene, bør vi huske at informert samtykke ikke er nødvendig eller tilstrekkelig for respekt for personer.
For mer om medisinsk forskning før informert samtykke, se Miller (2014) . For en boklengdsbehandling av informert samtykke, se Manson and O'Neill (2007) . Se også de foreslåtte vurderingene om informert samtykke nedenfor.
Skader på kontekst er de skader som forskning kan føre til ikke bestemte mennesker, men til sosiale innstillinger. Dette konseptet er litt abstrakt, men jeg illustrerer med et klassisk eksempel: Wichita Jury Study (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - også noen ganger kalt Chicago Jury Project (Cornwell 2010) . I denne studien registrerte forskere fra University of Chicago, som en del av en større studie av sosiale aspekter av det juridiske systemet, i hemmelighet seks juryforhandlinger i Wichita, Kansas. Dommerne og advokatene i sakene hadde godkjent opptakene, og det var streng oversikt over prosessen. Men jurymedlemmene var ikke klar over at opptakene skjedde. Når studien ble oppdaget, var det offentlig opprør. Justisdepartementet begynte en undersøkelse av studien, og forskerne ble kalt til å vitne foran kongressen. Til slutt vedtok kongressen en ny lov som gjør det ulovlig å hemmeligholde bedømmelsen av juryen.
Bekymringen til kritikerne av Wichita Jury Study var ikke risikoen for skade på deltakerne; heller, det var risikoen for skader i sammenheng med juryens overveielse. Det var at folk trodde at hvis jurymedlemmer ikke trodde at de hadde diskusjoner i et trygt og beskyttet rom, ville det være vanskeligere for juryens overlegg å fortsette i fremtiden. I tillegg til juryens overveielse er det andre spesifikke sosiale sammenhenger som samfunnet gir ekstra beskyttelse, for eksempel advokat-klientforhold og psykologisk omsorg (MacCarthy 2015) .
Risikoen for skader på kontekst og forstyrrelser av sosiale systemer oppstår også i noen felteksperimenter i statsvitenskap (Desposato 2016b) . For et eksempel på en mer kontekstsensitiv kostnadsberegningsberegning for et felteksperiment i statsvitenskap, se Zimmerman (2016) .
Kompensasjon for deltakere har blitt diskutert i en rekke innstillinger relatert til digitalalderforskning. Lanier (2014) foreslår betalende deltakere for digitale spor som de genererer. Bederson and Quinn (2011) diskuterer utbetalinger i nettbaserte arbeidsmarkeder. Endelig foreslår Desposato (2016a) betale deltakere i felteksperimenter. Han påpeker at selv om deltakerne ikke kan betales direkte, kan det gis en donasjon til en gruppe som arbeider på deres vegne. For eksempel, i Encore, kunne forskerne ha gjort en donasjon til en gruppe som arbeider for å støtte tilgangen til Internett.
Vilkår for serviceavtaler bør ha mindre vekt enn kontrakter som forhandles mellom like parter og enn lover som er opprettet av legitime regjeringer. Situasjoner der forskere har overtrådt serviceavtaler i fortiden, har generelt involvert bruk av automatiserte spørringer for å kontrollere bedriftens oppførsel (i likhet med felteksperimenter for å måle diskriminering). For ytterligere diskusjoner, se Vaccaro et al. (2015) , Bruckman (2016a) og Bruckman (2016b) . For et eksempel på empirisk forskning som diskuterer vilkår for bruk, se Soeller et al. (2016) . For mer om mulige juridiske problemer møter forskere om de bryter med servicevilkår, se Sandvig and Karahalios (2016) .
Det er åpenbart at en enorm mengde er skrevet om konsekvensisme og deontologi. For et eksempel på hvordan disse etiske rammene, og andre, kan brukes til å begrunne om digital alderforskning, se Zevenbergen et al. (2015) . For et eksempel på hvordan de kan brukes til felteksperimenter i utviklingsøkonomi, se Baele (2013) .
For mer om revisjonsstudier av diskriminering, se Pager (2007) og Riach and Rich (2004) . Ikke bare har disse studiene informert samtykke, de involverer også bedrag uten debriefing.
Både Desposato (2016a) og Humphreys (2015) gir råd om felteksperimenter uten samtykke.
Sommers and Miller (2013) gjennomgår mange argumenter for ikke å debriefe deltakere etter bedrageri, og hevder at forskere bør avstå fra debriefing
"Under et svært smalt sett av omstendigheter, nemlig i feltforskning hvor debriefing utgjør betydelige praktiske barrierer, men forskere ville ikke ha noen problemer med å debriefe om de kunne. Forskere bør ikke ha lov til å avstå fra debriefing for å bevare en naiv deltakerbasseng, skjerme seg fra deltakerens vrede, eller beskytte deltakerne mot skade. "
Andre hevder at i noen situasjoner hvis debriefing forårsaker mer skade enn god, bør det unngås (Finn and Jakobsson 2007) . Debriefing er et tilfelle der enkelte forskere prioriterer Respekt for Personer over Beneficence, mens enkelte forskere gjør det motsatte. En mulig løsning ville være å finne måter å lage debriefing en læringserfaring for deltakerne. Det er, snarere enn å tenke på debriefing som noe som kan forårsake skade, kanskje debriefing kan også være noe som fordeler deltakerne. For et eksempel på denne typen pedagogisk debriefing, se Jagatic et al. (2007) . Psykologer har utviklet teknikker for debriefing (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , og noen av disse kan være hensiktsmessig brukt til digitalalderforskning. Humphreys (2015) tilbyr interessante tanker om utsatt samtykke , som er nært knyttet til debriefingsstrategien som jeg beskrev.
Ideen om å spørre et utvalg av deltakere for deres samtykke er relatert til hva Humphreys (2015) kaller avledet samtykke til .
En annen ide knyttet til informert samtykke som er foreslått, er å bygge et panel av mennesker som er enige om å være i online eksperimenter (Crawford 2014) . Noen har hevdet at dette panelet ville være en nonrandom utvalg av mennesker. Men kapittel 3 (Spørsmål) viser at disse problemene er potensielt adresserbare ved bruk av post-stratifisering. Også samtykke til å være på panelet kan dekke en rekke eksperimenter. Med andre ord, kan deltakerne kanskje ikke samtykke til hvert enkelt eksperiment, et konsept kalt bredt samtykke (Sheehan 2011) . For mer om forskjellene mellom engangs samtykke og samtykke for hver studie, så vel som en mulig hybrid, se Hutton and Henderson (2015) .
Langt unikt viser Netflix-prisen en viktig teknisk egenskap til datasett som inneholder detaljert informasjon om mennesker, og gir dermed viktige leksjoner om muligheten for "anonymisering" av moderne sosiale datasett. Filer med mange opplysninger om hver person er sannsynligvis sparsomme , i den forstand som er definert formelt i Narayanan and Shmatikov (2008) . Det er for hver post at det ikke er noen poster som er de samme, og faktisk er det ingen poster som er veldig like: hver person er langt borte fra nærmeste nabo i datasettet. Man kan forestille seg at Netflix-dataene kan være sparsomme fordi med ca. 20 000 filmer på femstjerners skala er det omtrent \(6^{20,000}\) mulige verdier som hver person kan ha (6 fordi, i tillegg til 1 til 5 stjerner, noen har kanskje ikke vurdert filmen i det hele tatt). Dette nummeret er så stort, det er vanskelig å forstå selv.
Sparsity har to hovedimplikasjoner. For det første betyr det at forsøk på å "anonymisere" datasettet basert på tilfeldig forstyrrelse, sannsynligvis vil mislykkes. Det vil si, selv om Netflix skulle tilfeldigvis justere noen av karakterene (som de gjorde), ville dette ikke være tilstrekkelig fordi den forstyrrede posten fortsatt er nærmest mulig post til informasjonen som angriperen har. For det andre betyr sparsity at gjenidentifisering er mulig, selv om angriperen har ufullkommen eller upartisk kunnskap. For eksempel, i Netflix-data, kan vi forestille oss at angriperen kjenner dine rangeringer for to filmer og datoene du gjorde disse vurderingene \(\pm\) 3 dager; Bare den informasjonen er nok til å identifisere 68% av personene i Netflix-dataene. Hvis angriperen kjenner åtte filmer du har vurdert \(\pm\) 14 dager, så kan 99% av postene unikt identifiseres i datasettet selv om to av disse kjente klassene er helt feil. Sparsity er med andre ord et grunnleggende problem for anstrengelser for å "anonymisere" data, noe som er uheldig fordi de fleste moderne sosiale datasett er sparsomme. For mer om "anonymisering" av sparsomme data, se Narayanan and Shmatikov (2008) .
Telefon metadata ser også ut til å være "anonym" og ikke følsom, men det er ikke tilfelle. Telefon metadata er identifiserbare og sensitive (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
I figur 6.6 skisserte jeg en avveining mellom risiko for deltakere og fordeler for samfunnet fra datafrigivelse. For en sammenligning mellom begrensede tilgangstilganger (f.eks. En inngjerdet hage) og begrensede data-tilnærminger (f.eks. En form for "anonymisering"), se Reiter and Kinney (2011) . For et foreslått kategoriseringssystem for risikonivåer av data, se Sweeney, Crosas, and Bar-Sinai (2015) . For en mer generell diskusjon om datadeling, se Yakowitz (2011) .
For mer detaljert analyse av denne Brickell and Shmatikov (2008) mellom risiko og bruk av data, se Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) og Goroff (2015) . For å se denne avhandlingen som brukes til ekte data fra massivt åpne online kurs (MOOCs), se Daries et al. (2014) og Angiuli, Blitzstein, and Waldo (2015) .
Differensiell personvern tilbyr også en alternativ tilnærming som kan kombinere både lav risiko for deltakere og stor nytte for samfunnet; se Dwork and Roth (2014) og Narayanan, Huey, and Felten (2016) .
For mer om begrepet personlig identifiserende informasjon (PII), som er sentral for mange av reglene om forskningsetikk, se Narayanan and Shmatikov (2010) og Schwartz and Solove (2011) . For mer om alle data er potensielt sensitive, se Ohm (2015) .
I denne delen har jeg skildret koblingen av forskjellige datasett som noe som kan føre til informasjonsrisiko. Det kan imidlertid også skape nye muligheter for forskning, slik det fremføres i Currie (2013) .
For mer på de fem safeene, se Desai, Ritchie, and Welpton (2016) . For et eksempel på hvordan utganger kan identifiseres, se Brownstein, Cassa, and Mandl (2006) , som viser hvordan kart over sykdomsprevalens kan identifiseres. Dwork et al. (2017) anser også angrep mot aggregerte data, for eksempel statistikk om hvor mange individer som har en viss sykdom.
Spørsmål om data bruk og datautgivelse reiser også spørsmål om data-eierskap. For mer, om data eierskap, se Evans (2011) og Pentland (2012) .
Warren and Brandeis (1890) er en milepæl juridisk artikkel om personvern og er mest knyttet til ideen om at personvern er rett til å være alene. Solove (2010) av personvern som jeg vil anbefale inkluderer Solove (2010) og Nissenbaum (2010) .
For en gjennomgang av empirisk forskning om hvordan folk tenker på personvern, se Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) foreslår en dual-systemteori - at folk noen ganger fokuserer på intuitive bekymringer og noen ganger fokuserer på ansett bekymringer - for å forklare hvordan folk kan skape tilsynelatende motstridende uttalelser om personvern. For mer om ideen om personvern i nettverksinnstillinger som Twitter, se Neuhaus and Webmoor (2012) .
Journal Science publiserte en spesiell seksjon med tittelen "The End of Privacy", som omhandler problemene med personvern og informasjonsrisiko fra en rekke forskjellige perspektiver; for en oppsummering, se Enserink and Chin (2015) . Calo (2011) gir et rammeverk for å tenke på de skader som kommer fra brudd på personvern. Et tidlig eksempel på bekymringer om personvern i begynnelsen av den digitale tidsalderen er Packard (1964) .
En utfordring når man prøver å anvende den minimale risikostandarden er at det ikke er klart hvor dagliglivet skal brukes til benchmarking (National Research Council 2014) . For eksempel har hjemløse mennesker høyere nivå av ubehag i hverdagen. Men det betyr ikke at det er etisk tillatt å utstede hjemløse til høyere risikoforskning. Av denne grunn ser det ut til å være en voksende konsensus om at minimal risiko bør benchmarkes mot en generell befolkningsstandard , ikke en bestemt befolkningsstandard . Selv om jeg generelt er enig med ideen om en generell befolkningsstandard, tror jeg at for en stor online plattform som Facebook er en spesifikk befolkningsstandard rimelig. Når jeg vurderer følelsesmessig smitte, mener jeg at det er rimelig å måle mot hverdagens risiko på Facebook. En spesifikk befolkningsstandard i dette tilfellet er mye lettere å evaluere og er usannsynlig å være i strid med prinsippet om rettferdighet, som søker å forhindre at byrden for forskning svikter urettferdig på ugunstige grupper (f.eks. Fanger og foreldreløse).
Andre lærde har også kalt flere papirer til å inkludere etiske bilag (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) tilbyr også praktiske tips. Zook og kolleger (2017) tilbyr "ti enkle regler for ansvarlig stor dataforskning."