Dette afsnit er beregnet til at blive brugt som reference, i stedet for at blive læst som en fortælling.
Forskningsetik har traditionelt også emner som videnskabelig svindel og tildeling af kredit. Disse emner er beskrevet mere detaljeret i Engineering (2009) .
Dette kapitel er stærkt præget af situationen i USA. For mere om de etiske klageprocedurer i andre lande, se kapitel 6, 7, 8, og 9 i Desposato (2016b) . For et argument, at de biomedicinske etiske principper, der har påvirket dette kapitel er overdrevent amerikansk, se Holm (1995) . For mere historisk gennemgang af Institutional Review Boards i USA, se Stark (2012) .
The Belmont-rapporten og efterfølgende forordninger i USA har lavet en skelnen mellem forskning og praksis. Denne skelnen er blevet kritiseret efterfølgende (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . Jeg gør ikke denne skelnen i dette kapitel, fordi jeg tror, at de etiske principper og rammer gælder for begge indstillinger. For mere om forskning tilsyn på Facebook, se Jackman and Kanerva (2016) . For et forslag til forskning tilsyn på virksomheder og ngo'er, se Polonetsky, Tene, and Jerome (2015) og Tene and Polonetsky (2016) .
For mere om sagen om Ebola-udbruddet i 2014, se McDonald (2016) , og for mere om behandling af personlige risici for mobiltelefon data, se Mayer, Mutchler, and Mitchell (2016) . For et eksempel på krise-relateret forskning ved hjælp af mobiltelefon data, se Bengtsson et al. (2011) og Lu, Bengtsson, and Holme (2012) .
Mange mennesker har skrevet om Følelsesmæssig Contagion. Tidsskriftet Research Ethics viet hele deres problem i januar 2016 diskuterer eksperimentet; se Hunter and Evans (2016) for en oversigt. Proceedings of National Akademikere i Science offentliggjorde to stykker om forsøget: Kahn, Vayena, and Mastroianni (2014) og Fiske and Hauser (2014) . Andre stykker om forsøget omfatter: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .
For mere om Encore, se Jones and Feamster (2015) .
Med hensyn til masse overvågning, er brede oversigter gives i Mayer-Schönberger (2009) og Marx (2016) . For et konkret eksempel på de skiftende omkostninger til overvågning, Bankston and Soltani (2013) anslår, at spore en kriminel mistænkt bruge mobiltelefoner er omkring 50 gange billigere end at bruge fysisk overvågning. Bell and Gemmell (2009) giver en mere optimistisk perspektiv på selv- overvågning. Ud over at være i stand til at spore observerbar adfærd, der er offentlig eller delvist offentligt (f.eks Smag, Slips, og Time), kan forskerne i stigende grad udlede ting, som mange deltagere anser for at være privat. For eksempel, Michal Kosinski og kolleger viste, at de kunne udlede følsomme oplysninger om personer, såsom seksuel orientering og brug af vanedannende stoffer fra tilsyneladende almindelige digitale spor data (Facebook Likes) (Kosinski, Stillwell, and Graepel 2013) . Dette lyder måske magiske, men tilgangen Kosinski og kolleger brugte-som kombinerer digitale spor, undersøgelser, og overvåget læring-er faktisk noget, som jeg allerede har fortalt dig om. Husk på, at i kapitel 3 (Stille spørgsmål) Jeg fortalte dig, hvordan Josh Blumenstock og kolleger (2015) undersøgelse data kombineret med mobiltelefon data til at estimere fattigdom i Rwanda. Denne nøjagtig samme fremgangsmåde, som kan bruges til effektivt at måle fattigdom i et udviklingsland, kan også bruges til potentielt privatlivets fred overtræde slutninger.
Inkonsistente love og normer kan føre til forskning, der ikke respekterer ønskerne fra deltagerne, og det kan føre til "regulerende shopping" af forskere (Grimmelmann 2015; Nickerson and Hyde 2016) . Især nogle forskere, der ønsker at undgå IRB tilsyn har partnere, der ikke er omfattet af interne metoder (fx mennesker på virksomheder eller ngo'er) indsamle og de-identificere data. Derefter kan forskerne analysere denne de-identificerede data uden IRB tilsyn, i hvert fald ifølge nogle fortolkninger af gældende regler. Denne form for IRB unddragelse synes at være i strid med en principbaseret tilgang.
For mere om de usammenhængende og heterogene ideer, som folk har om helbredsoplysninger, se Fiore-Gartland and Neff (2015) . For mere om det problem, at heterogenitet skaber for forskningsetik beslutninger se Meyer (2013) .
En forskel mellem analoge alder og digitale tidsalder forskning er, at forskningen interaktion med deltagerne i digitale tidsalder er mere fjern. Disse interaktioner opstår ofte gennem en mellemmand, såsom et selskab, og der er typisk en stor fysisk-og sociale afstande mellem forskere og deltagere. Denne fjernt samspil gør nogle ting, som er let i analog tidsalder forskning vanskeligt i digitale tidsalder forskning, såsom frasortere deltagere, der kræver ekstra beskyttelse, afsløre bivirkninger, og rense skade, hvis det sker. For eksempel, lad os kontrast Følelsesmæssig Contagion med et hypotetisk lab eksperiment om samme emne. I laboratoriet eksperimentet, kunne forskerne frasortere alle, der ankommer til laboratoriet viser tydelige tegn på følelsesmæssig nød. Yderligere, hvis laboratoriet eksperimentet skabt en utilsigtet hændelse, ville forskerne se det, levere tjenesteydelser til at afhjælpe den skade, og derefter foretage justeringer af forsøgsprotokollen at forebygge fremtidige skader. Den fjerne natur interaktion i selve Emotional Contagion eksperiment gør hver af disse enkle og fornuftige skridt yderst vanskeligt. Også, jeg formoder, at afstanden mellem forskere og deltagere gør forskere mindre følsom over for de bekymringer, deres deltagere.
Andre kilder til inkonsistente normer og love. Nogle af denne uoverensstemmelse kommer fra det faktum, at denne forskning sker over hele verden. For eksempel Encore involveret folk fra hele verden, og derfor kan det være omfattet af den beskyttelse af personoplysninger og privatlivets fred love mange forskellige lande. Hvad hvis de normer, der gælder tredjeparts web anmodninger (hvad Encore gjorde) er forskellige i Tyskland, USA, Kenya og Kina? Hvad hvis normerne er ikke engang konsistent inden for et enkelt land? En anden kilde til uoverensstemmelse kommer fra samarbejder mellem forskere på universiteter og virksomheder; for eksempel, Emotional Contagion var et samarbejde mellem en data videnskabsmand på Facebook og en professor og ph.d.-studerende ved Cornell. På Facebook kører store eksperimenter er rutine, og på det tidspunkt, ikke kræver nogen tredjepart etisk gennemgang. På Cornell de normer og regler er meget forskellige; stort set alle eksperimenter skal gennemgås af Cornell IRB. Så, hvilket regelsæt bør styre følelsesmæssige Contagion-Facebooks eller Cornell?
For mere om indsatsen for at revidere den fælles regel, se Evans (2013) , Council (2014) , Metcalf (2016) , og Hudson and Collins (2015) .
Den klassiske principper tilgang til biomedicinsk etik er Beauchamp and Childress (2012) . De foreslår, at fire hovedprincipper bør vejlede biomedicinsk etik: Respekt for autonomi, Nonmaleficence, Godgørenhed, og retfærdighed. Princippet om nonmaleficence opfordrer en til at afholde sig fra at skade andre mennesker. Dette koncept er dybt forbundet til hippokratiske idé om "Gør ingen skade". I forskningsetik, dette princip er ofte kombineret med princippet om godgørenhed, men se Beauchamp and Childress (2012) (kapitel 5) for mere om sondringen mellem de to . For en kritik af, at disse principper er alt amerikansk, se Holm (1995) . For mere om balancering, når principperne konflikt, se Gillon (2015) .
Er også blevet foreslået De fire principper i dette kapitel til at guide etisk tilsyn for forskning sker på virksomheder og ngo'er (Polonetsky, Tene, and Jerome 2015) gennem organer kaldet "Consumer Emne for anmeldelse Boards" (CSRBs) (Calo 2013) .
Ud over at respektere selvstændighed, Belmont rapporten erkender også, at ikke ethvert menneske er i stand til ægte selvbestemmelse. For eksempel, børn, folk der lider af sygdom, eller mennesker, der bor i situationer med stærkt begrænset frihed måske ikke i stand til at fungere som fuldt selvstændige individer, og disse mennesker er derfor underlagt ekstra beskyttelse.
Anvendelse af princippet om respekt for personer i den digitale tidsalder kan være udfordrende. For eksempel i digitale tidsalder forskning, kan det være svært at give ekstra beskyttelse til personer med nedsat evne til selvbestemmelse, fordi forskerne ofte ved meget lidt om deres deltagere. Endvidere informerede samtykke i digitale tidsalder social forskning er en kæmpe udfordring. I nogle tilfælde kan virkelig informeret samtykke lider gennemsigtighed paradoks (Nissenbaum 2011) , hvor information og forståelse er i konflikt. Groft, hvis forskerne give fuldstændige oplysninger om arten af den dataindsamling, dataanalyse og datasikkerhed praksis, vil det være svært for mange deltagere at forstå. Men hvis forskerne giver forståelig information, kan det mangle vigtige tekniske oplysninger. I medicinsk forskning i analog aldersrelaterede den dominerende indstilling behandlet af Belmont Report-man kunne forestille sig en læge taler individuelt med hver enkelt deltager for at hjælpe med at løse gennemsigtighed paradoks. I online undersøgelser med tusinder eller millioner af mennesker, sådan et ansigt-til-ansigt tilgang er umuligt. Et andet problem med samtykke i den digitale tidsalder er, at i nogle undersøgelser, såsom analyse af massive datalagre, ville det være upraktisk at indhente informeret samtykke fra alle deltagere. Jeg diskuterer disse og andre spørgsmål om informeret samtykke nærmere i afsnit 6.6.1. På trods af disse vanskeligheder, men vi bør huske på, at informeret samtykke hverken er nødvendig eller tilstrækkelig for Respekt for personer.
For mere om medicinsk forskning, før informeret samtykke, se Miller (2014) . For en bog-længde behandling af informeret samtykke, se Manson and O'Neill (2007) . Se også de foreslåede aflæsninger om informeret samtykke nedenfor.
Harms til sammenhæng er den skade, som forskningen kan forårsage ikke til bestemte personer, men til sociale sammenhænge. Dette koncept er en smule abstrakt, men jeg vil illustrere det med to eksempler: en analog og en digital.
Et klassisk eksempel på skader til sammenhæng kommer fra Wichita Jury Study [ Vaughan (1967) , Katz, Capron, and Glass (1972) ; Ch 2] -. Også nogle gange kaldet Chicago Jury Project (Cornwell 2010) . I denne undersøgelse forskere fra University of Chicago, som del af en større undersøgelse om sociale aspekter af retssystemet, hemmeligt optaget seks jury overvejelser i Wichita, Kansas. De dommere og advokater i de tilfælde havde godkendt optagelserne, og der var en streng kontrol med processen. Men de nævninge var uvidende om, at optagelserne var indtruffet. Når undersøgelsen blev opdaget, var der offentlig forargelse. Justitsministeriet indledte en undersøgelse af undersøgelsen, og forskerne var indkaldt til at vidne foran Kongressen. I sidste ende, vedtog Kongressen en ny lov, der gør det ulovligt at hemmeligt registrere jury overvejelser.
Den bekymring af kritikere af Wichita juryen Study blev ikke skade til deltagerne; snarere, det var skader til for rammerne af juryen overvejelser. Det vil sige, folk troede, at hvis jurymedlemmer ikke troede at de havde drøftelser i en sikker og beskyttet rum, ville det være sværere for jury overvejelser at fortsætte i fremtiden. Udover jury overvejelser, er der andre specifikke sociale sammenhænge, som samfundet giver med ekstra beskyttelse, såsom advokat-klient relationer og psykologbehandling (MacCarthy 2015) .
Risikoen for skader på sammenhæng og afbrydelse af sociale systemer også kommer op i nogle markforsøg i statskundskab (Desposato 2016b) . For et eksempel på en mere kontekstafhængig beregning cost-benefit for et felt eksperiment i statskundskab, se Zimmerman (2016) .
Erstatning for deltagerne er blevet drøftet i en række indstillinger for digitale tidsalder forskning. Lanier (2014) foreslået at betale deltagere til digitale spor, de genererer. Bederson and Quinn (2011) diskuterer betalinger i online arbejdsmarkeder. Endelig Desposato (2016a) foreslår betalende deltagere i markforsøg. Han påpeger, at selv om deltagerne ikke kan betales direkte, kunne en donation ske til en gruppe, der arbejder på deres vegne. For eksempel i Encore forskerne kunne have gjort en donation til en gruppe, der arbejder for at støtte adgang til internettet.
Vilkår-of-service, aftaler bør have mindre vægt end aftaler indgået mellem ligeværdige parter og love skabt af legitime regeringer. Situationer, hvor forskere har overtrådt vilkårene-of-service-aftaler i fortiden indebærer normalt bruger automatiserede forespørgsler til at revidere virksomhedernes adfærd (meget gerne feltforsøg til at måle diskrimination). For yderligere diskussion se Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . For et eksempel på empirisk forskning, der diskuterer hensyn til service, se Soeller et al. (2016) . For mere om de mulige juridiske problemer, forskere står overfor, hvis de overtræder servicevilkårene se Sandvig and Karahalios (2016) .
Naturligvis har enorme mængder blevet skrevet om konsekventialisme og deontologiske. For et eksempel på, hvordan disse etiske rammer, og andre, kan bruges til at ræsonnere om digitale tidsalder forskning, se Zevenbergen et al. (2015) . For et eksempel på, hvordan disse etiske rammer kan anvendes på markforsøg i udvikle økonomi, se Baele (2013) .
For mere om revisions- undersøgelser af diskrimination, se Pager (2007) og Riach and Rich (2004) . Ikke alene har disse undersøgelser ikke informeret samtykke, de indebærer også bedrag uden debriefing.
Både Desposato (2016a) og Humphreys (2015) tilbyde rådgivning om markforsøg uden samtykke.
Sommers and Miller (2013) anmeldelser mange argumenter for ikke debriefing deltagere efter bedrag, og argumenterer for, at forskere skal give afkald "debriefing under et meget snævert sæt omstændigheder, nemlig, i felt forskning, hvor debriefing udgør betydelige praktiske barrierer, men forskerne ville have ingen betænkeligheder ved debriefing, hvis de kunne. Forskere bør ikke være tilladt at give afkald debriefing for at bevare en naiv deltager pool, beskytte sig mod deltagere vrede, eller beskytte deltagerne mod overgreb. "Andre hævder, at hvis debriefing forårsager mere skade end gavn det bør undgås. Debriefing er en sag, hvor nogle forskere prioriterer Respekt for Personer over Godgørenhed, og nogle forskere gøre det modsatte. En mulig løsning ville være at finde måder at gøre debriefing en lærerig oplevelse for deltagerne. Det vil sige, i stedet for at tænke på debriefing som noget, der kan forårsage skade, måske debriefing kan også være noget, der gavner deltagerne. For et eksempel på denne form for undervisning debriefing, se Jagatic et al. (2007) om debriefing studerende efter en social phishing forsøg. Psykologer har udviklet teknikker til debriefing (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , og nogle af disse kan med fordel anvendes på digitale tidsalder forskning. Humphreys (2015) byder på interessante tanker om udskudt samtykke, der er nært beslægtet med den debriefing strategi, som jeg beskrevet.
Ideen om at stille en prøve af deltagere for deres samtykke er relateret til, hvad Humphreys (2015) kalder udledes samtykke.
En yderligere idé, der er blevet foreslået relateret til informeret samtykke er at opbygge et panel af mennesker, der er enige om at være i online eksperimenter (Crawford 2014) . Nogle har hævdet, at dette panel ville være en ikke-stikprøve af mennesker. Men, kapitel 3 (Stille spørgsmål) viser, at disse problemer er potentielt adresserbare hjælp efterfølgende stratificering og prøve matching. Også samtykke til at være på panelet kunne omfatte en række eksperimenter. Med andre ord kan deltagerne ikke behøver at samtykke til hvert eksperiment individuelt, et begreb kaldet bred samtykke (Sheehan 2011) .
Langt fra enestående, Netflix Prize illustrerer en vigtig teknisk egenskab af datasæt, der indeholder detaljerede oplysninger om mennesker, og dermed giver vigtige erfaringer om muligheden for "anonymisering" af moderne sociale datasæt. Filer med mange stykker af oplysninger om hver person vil sandsynligvis være sparsom, i den forstand formelt defineret i Narayanan and Shmatikov (2008) . Det er, for hver post er der ingen poster, der er det samme, og i virkeligheden er der ingen poster, der er meget ens: hver person er langt væk fra deres nærmeste nabo i datasættet. Man kan forestille sig, at de Netflix data kan være sparsomme, fordi med omkring 20.000 film på et 5 stjernet skala, der er omkring \ (6 ^ {20.000} \) mulige værdier, som hver person kan have (6 fordi foruden en til fem stjerner , nogen måske ikke bedømt filmen overhovedet). Dette antal er så stort, er det svært at selv forstå.
Sparsity har to primære implikationer. Først, betyder det, at forsøge at "anonymisere" datasættet baseret på tilfældig forstyrrelse vil sandsynligvis mislykkes. Det vil sige, selv om Netflix var at tilfældigt justere nogle af de ratings (som de gjorde), ville dette ikke være tilstrækkeligt, fordi det forstyrrede rekord er stadig den tættest mulige post til de oplysninger, som angriberen har. For det andet, den sparsity betyder, at de-anonymisering er mulig, selv om angriberen har ufuldkomne eller upartisk viden. For eksempel, i Netflix data, lad os forestille os angriberen kender dine ratings for to film og de datoer, du gjorde disse ratings +/- 3 dage; bare, at oplysninger alene er tilstrækkeligt til entydigt at identificere 68% af befolkningen i Netflix data. Hvis angriberne ved 8 film, som du har bedømt +/- 14 dage, så selv om to af disse kendte ratings er helt forkert, 99% af poster kan entydigt identificeres i datasættet. Med andre ord, sparsity er et grundlæggende problem for bestræbelserne på at "anonymisere" data, som er uheldigt, fordi de fleste moderne sociale datasæt er sparsomme.
Telefon metadata også kan synes at være "anonym" og ikke følsom, men det er ikke tilfældet. Telefon metadata er identificerbar og følsom (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
I figur 6.6, jeg skitseret en afvejning mellem risiko for deltagerne og fordele til forskning fra frigivelse af data. For en sammenligning mellem begrænset adgang tilgange (f.eks en walled garden) og begrænset data tilgange (f.eks en form for anonymisering) se Reiter and Kinney (2011) . For en foreslået kategorisering system risikoniveauer af data, se Sweeney, Crosas, and Bar-Sinai (2015) . Endelig for en mere generel diskussion af datadeling, se Yakowitz (2011) .
For mere detaljeret analyse af denne afvejning mellem risiko og nytte af data, se Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , og Goroff (2015) . For at se denne afvejning anvendes på reelle data fra massivt åbne online kurser (MOOCs), se Daries et al. (2014) og Angiuli, Blitzstein, and Waldo (2015) .
Differential privatliv tilbyder også en alternativ tilgang, der kan kombinere både høj gavn for samfundet og lav risiko for deltagerne, se Dwork and Roth (2014) og Narayanan, Huey, and Felten (2016) .
For mere om begrebet personligt identificerbare oplysninger (PII), som er centralt for mange af de regler om forskningsetik, se Narayanan and Shmatikov (2010) og Schwartz and Solove (2011) . For mere om alle data potentielt følsomme, se Ohm (2015) .
I dette afsnit har jeg portrætteret sammenkædning af forskellige datasæt som noget, der kan føre til oplysende risiko. Men det kan også skabe nye muligheder for forskning, som hævdet i Currie (2013) .
For mere om de fem pengeskabe, se Desai, Ritchie, and Welpton (2016) . For et eksempel på hvordan udgange kan identificere, se Brownstein, Cassa, and Mandl (2006) , som viser, hvordan kort over udbredelsen sygdom kan identificere. Dwork et al. (2017) finder også angreb mod samlede data, såsom statistikker om, hvor mange personer har en bestemt sygdom.
Warren and Brandeis (1890) er en milepæl juridisk artikel om privatlivets fred, og artiklen er mest forbundet med tanken om, at privatlivets fred er en ret til at være i fred. Mere nylig bog længde behandlinger af privatlivets fred, som jeg vil anbefale omfatter Solove (2010) og Nissenbaum (2010) .
For en gennemgang af empirisk forskning om, hvordan folk mener om beskyttelse af personlige oplysninger, se Acquisti, Brandimarte, and Loewenstein (2015) . Tidsskriftet Science offentliggjorde et særnummer med titlen "The End of Privacy", som omhandler spørgsmål om privatlivets fred og risikooplysninger fra en række forskellige perspektiver; for en oversigt se Enserink and Chin (2015) . Calo (2011) tilbyder en ramme for at tænke over de skader, der kommer fra krænkelse af privatlivets fred. Et tidligt eksempel på bekymringer om privatlivets fred i selve begyndelsen af den digitale tidsalder er Packard (1964) .
En udfordring, når de forsøger at anvende minimal risiko standarden er, at det ikke er klart, hvis daglige liv skal bruges til benchmarking (Council 2014) . For eksempel hjemløse har højere niveauer af ubehag i deres dagligdag. Men betyder det ikke, at det er etisk tilladeligt at udsætte hjemløse til forskning højere risiko. Derfor synes der at være en voksende enighed om, at minimal risiko bør benchmarkes mod en almindelige befolkning standard, ikke en bestemt population standard. Mens jeg generelt enig med tanken om en generel befolkning standard, jeg tror, at for store online platforme som Facebook, en bestemt population standard er rimelig. Det vil sige, når man overvejer Emotional Contagion, jeg tror, at det er rimeligt at benchmarke mod hverdagens risici på Facebook. En specifik population standard i dette tilfælde er meget lettere at evaluere og forventes ikke at være i strid med princippet om retfærdighed, som søger at forhindre byrder forskning ikke uretfærdigt på dårligt stillede grupper (f.eks fanger og forældreløse).
Andre forskere har også opfordret til flere papirer til at omfatte etiske bilag (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) tilbyder også praktiske tips.