Forskningsetiken har traditionellt också inkluderat ämnen som vetenskapligt bedrägerier och kreditfördelning. Dessa diskuteras närmare i On Being Scientist vid Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Detta kapitel påverkas starkt av situationen i USA. För mer om de etiska granskningsförfarandena i andra länder, se kapitlen 6-9 i Desposato (2016b) . För ett argument att de biomedicinska etiska principerna som har påverkat detta kapitel är alltför amerikanska, se Holm (1995) . För ytterligare en historisk granskning av institutionella granskningskontor i USA, se Stark (2012) . Tidningen PS: Statsvetenskap och Politik höll ett professionellt symposium om förhållandet mellan politiska forskare och IRB; se Martinez-Ebers (2016) för en sammanfattning.
Belmontrapporten och efterföljande regler i USA tenderar att skilja mellan forskning och praktik. Jag har inte gjort en sådan skillnad i detta kapitel eftersom jag anser att de etiska principerna och ramarna gäller för båda inställningarna. För mer om denna skillnad och de problem som den introducerar, se Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) och Metcalf and Crawford (2016) .
För mer om forskningstillsyn på Facebook, se Jackman and Kanerva (2016) . För idéer om forskningstillsyn hos företag och icke-statliga organisationer, se Calo (2013) , Polonetsky, Tene, and Jerome (2015) och Tene and Polonetsky (2016) .
I samband med användningen av mobildata för att hjälpa till att ta itu med 2014 Ebola-utbrottet i Västafrika (Wesolowski et al. 2014; McDonald 2016) , se Mayer, Mutchler, and Mitchell (2016) (Wesolowski et al. 2014; McDonald 2016) för mer om privatlivsriskerna för mobiltelefondata. Mayer, Mutchler, and Mitchell (2016) . För exempel på tidigare krisrelaterad forskning med mobiltelefondata, se Bengtsson et al. (2011) och Lu, Bengtsson, and Holme (2012) , och för mer om etik av krisrelaterad forskning, se ( ??? ) .
Många har skrivit om Emotional Contagion. Tidskriften Research Ethics ägnade hela sin fråga i januari 2016 för att diskutera experimentet; se Hunter and Evans (2016) för en översikt. Projekten för de nationella vetenskapsakademierna publicerade två delar om experimentet: Kahn, Vayena, and Mastroianni (2014) och Fiske and Hauser (2014) . Andra bitar om försöket är: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) , och ( ??? ) .
När det gäller massövervakning tillhandahålls breda översikter i Mayer-Schönberger (2009) och Marx (2016) . För ett konkret exempel på de förändrade kostnaderna för övervakning uppskattar Bankston and Soltani (2013) att spårning av en misstänkt misstänkt med mobiltelefoner är cirka 50 gånger billigare än att använda fysisk övervakning. Se även Ajunwa, Crawford, and Schultz (2016) för en diskussion av övervakning på jobbet. Bell and Gemmell (2009) ger ett mer optimistiskt perspektiv på självövervakning.
Förutom att kunna spåra observerbart beteende som är offentligt eller delvis offentligt (t.ex. Smak, Slips och Tid), kan forskare alltmer utgå från saker som många deltagare anser vara privata. Till exempel visade Michal Kosinski och kollegor (2013) att de kunde dra in känslig information om människor, som sexuell läggning och användning av beroendeframkallande ämnen, från till synes vanliga digitala spårdata (Facebook Likes). Det här kanske låter magiskt, men den metod som Kosinski och kollegor använde - vilket kombinerat digitala spår, undersökningar och övervakat lärande - är faktiskt något som jag redan har berättat om. Minns det i kapitel 3 (Fråga frågor). Jag berättade hur Joshua Blumenstock och kollegor (2015) samlade undersökningsdata med mobiltelefondata för att uppskatta fattigdom i Rwanda. Detta exakt samma tillvägagångssätt, som kan användas för att effektivt mäta fattigdom i ett utvecklingsland, kan också användas för potentiellt sekretessbrott.
För mer om eventuella oavsiktliga sekundära användningar av hälsodata, se O'Doherty et al. (2016) . Utöver potentialen för oavsiktlig sekundär användning kan skapandet av till och med en ofullständig masterdatabas ha en chillande effekt på det sociala och politiska livet om människor blev ovilliga att läsa vissa material eller diskutera vissa ämnen. se Schauer (1978) och Penney (2016) .
I situationer med överlappande regler involverar forskaren ibland "reglerande shopping" (Grimmelmann 2015; Nickerson and Hyde 2016) . Speciellt kan vissa forskare som vill undvika IRB-övervakning bilda partnerskap med forskare som inte omfattas av IRB (t.ex. personer i företag eller icke-statliga organisationer) och få kollegorna att samla in och avidentifiera data. Därefter kan den IRB-täckta forskaren analysera den här identifierade data utan IRB-övervakning, eftersom forskningen inte längre betraktas som "human research", åtminstone enligt vissa tolkningar av gällande regler. Denna typ av IRB-undvikning är förmodligen inte förenlig med en principbaserad metodik för forskningsetik.
Under 2011 började en ansträngning att uppdatera den gemensamma regeln, och processen avslutades slutligen 2017 ( ??? ) . För mer om dessa ansträngningar för att uppdatera den gemensamma regeln, se Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) och Metcalf (2016) .
Det klassiska principbaserade tillvägagångssättet till biomedicinsk etik är Beauchamp and Childress (2012) . De föreslår att fyra huvudprinciper ska styra biomedicinsk etik: Respekt för autonomi, nonmaleficence, Beneficence och Justice. Principen om nonmaleficence uppmanar en att avstå från att orsaka skada på andra människor. Detta begrepp är djupt kopplat till den hippokratiska ideen om "Skad inte." I forskningsetiken kombineras denna princip ofta med principen om förmånlighet, men se kapitel 5 i @ beauchamp_principles_2012 för mer om skillnaden mellan de två. För en kritik att dessa principer är alltför amerikanska, se Holm (1995) . För mer om balansering när principerna står i konflikt, se Gillon (2015) .
De fyra principerna i detta kapitel har också föreslagits för att styra etisk övervakning för forskning som utförs på företag och icke-statliga organisationer (Polonetsky, Tene, and Jerome 2015) genom organ som kallas "Consumer Subject Review Boards" (CSRB) (Calo 2013) .
Förutom att respektera autonomi erkänner Belmont-rapporten också att inte varje människa är kapabel till sann självbestämmande. Barn, personer som lider av sjukdom eller personer som lever i situationer med allvarligt begränsad frihet kan till exempel inte kunna fungera som helt autonoma individer, och dessa personer är därför föremål för extra skydd.
Att tillämpa principen om respekt för personer i den digitala tidsåldern kan vara utmanande. Till exempel i digital-åldersforskning kan det vara svårt att ge extra skydd för personer med minskad förmåga att självbestämmande eftersom forskare ofta vet väldigt lite om sina deltagare. Vidare är informerat samtycke i digital-age social forskning en enorm utmaning. I vissa fall kan realiserat samtycke leda till öppenhetsparadoxen (Nissenbaum 2011) , där information och förståelse står i konflikt. Om forskare ger fullständig information om typen av datainsamling, dataanalys och datasäkerhetspraxis, blir det svårt för många deltagare att förstå. Men om forskare ger begriplig information kan det sakna viktiga tekniska detaljer. I medicinsk forskning i den analoga åldern - den dominerande inställningen som betraktas av Belmont-rapporten - kan man tänka sig att en läkare pratar individuellt med varje deltagare för att hjälpa till att lösa insynsparadoxen. I online-studier med tusentals eller miljontals människor är ett sådant ansikte mot ansikte inte möjligt. Ett andra problem med samtycke i den digitala tidsåldern är att det i vissa studier, som analyser av massiva datalager, inte är opraktiskt att få informerat samtycke från alla deltagare. Jag diskuterar dessa och andra frågor om informerat samtycke mer detaljerat i avsnitt 6.6.1. Trots dessa svårigheter bör vi dock komma ihåg att informerat samtycke varken är nödvändigt eller tillräckligt för respekt för personer.
För mer om medicinsk forskning före informerat samtycke, se Miller (2014) . För en boklängdsbehandling av informerat samtycke, se Manson and O'Neill (2007) . Se även de rekommenderade läsningarna om informerat samtycke nedan.
Harmoniserar sig för sammanhanget är de skador som forskning kan leda till inte specifika personer utan sociala inställningar. Detta begrepp är lite abstrakt, men jag ska illustrera med ett klassiskt exempel: Wichita-jurystudien (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) -som ibland kallas Chicago Jury Project (Cornwell 2010) . I den här studien registrerade forskare från University of Chicago, som en del av en större studie av de sociala aspekterna av rättssystemet, i hemlighet sex juryns överläggningar i Wichita, Kansas. Domarna och juristerna i fallen hade godkänt inspelningarna, och det var strikt övervakning av processen. Domarna var dock inte medvetna om att inspelningar inträffade. När studien upptäcktes var det offentligt upprörande. Justitiedepartementet inledde en undersökning av studien, och forskarna kallades för att vittna framför kongressen. I slutändan passerade kongressen en ny lag som gör det olagligt att i hemlighet registrera juryns överläggning.
Orsaken till kritikerna i Wichita Jury Study var inte risken för att deltagarna skadades. Det var snarare risken för skador i samband med juryns överläggning. Det var att folk trodde att om jurymedlemmar inte trodde att de hade diskussioner på ett säkert och skyddat utrymme skulle det bli svårare för juryns överläggningar att fortsätta i framtiden. Förutom juryns överläggning finns det andra specifika sociala sammanhang som samhället ger extra skydd, till exempel advokat-klientrelationer och psykologisk vård (MacCarthy 2015) .
Risken för skador på sammanhang och avbrott i sociala system uppstår också i vissa fältförsök i statsvetenskap (Desposato 2016b) . För ett exempel på en mer kontextkänslig kostnads-nyttoberäkning för ett fältförsök i statsvetenskap, se Zimmerman (2016) .
Kompensation för deltagare har diskuterats i ett antal inställningar relaterade till digital-åldersforskning. Lanier (2014) föreslår betalande deltagare för digitala spår som de genererar. Bederson and Quinn (2011) diskuterar betalningar på online-arbetsmarknader. Slutligen Desposato (2016a) att betala deltagare i fältförsök. Han påpekar att även om deltagarna inte kan betala direkt, kan en donation göras till en grupp som arbetar på deras vägnar. Till exempel, i Encore, kunde forskarna ha gjort en donation till en grupp som arbetar för att stödja tillgången till Internet.
Avtal om tjänsteavtal bör ha mindre vikt än avtal som förhandlats mellan lika parter och än lagar som skapats av legitima regeringar. Situationer där forskare har brutit mot avtal om tjänstgöring tidigare har i allmänhet deltagit i att använda automatiska frågor för att granska företagens beteende (som fältförsök för att mäta diskriminering). För ytterligare diskussioner, se Vaccaro et al. (2015) , Bruckman (2016a) och Bruckman (2016b) . För ett exempel på empirisk forskning som diskuterar användarvillkor, se Soeller et al. (2016) . För mer om de möjliga juridiska problemen står forskare inför om de bryter mot användarvillkor, se Sandvig and Karahalios (2016) .
Uppenbarligen har en enorm mängd skrivits om konsekvenser och deontologi. För ett exempel på hur dessa etiska ramar och andra kan användas för att Zevenbergen et al. (2015) forskningen om digital ålder, se Zevenbergen et al. (2015) . För ett exempel på hur de kan tillämpas på fältförsök i utvecklingsekonomi, se Baele (2013) .
För mer om studier om diskriminering, se Pager (2007) och Riach and Rich (2004) . Dessa studier har inte bara informerat samtycke, de innebär också bedrägerier utan debriefing.
Både Desposato (2016a) och Humphreys (2015) erbjuder råd om fältförsök utan samtycke.
Sommers and Miller (2013) granskar många argument för att inte debriefing deltagare efter bedrägeri och argumentera för att forskare bör avstå från debriefing
"Under en mycket begränsad omständighet, nämligen i fältforskning där debriefing utgör avsevärda praktiska hinder men forskare skulle inte ha några problem med debriefing om de kunde. Forskare bör inte tillåtas att avstå från debriefing för att bevara en naiv deltagare pool, skydda sig från deltagarens ilska eller skydda deltagare mot skada. "
Andra hävdar att i vissa situationer om debriefing orsakar mer skada än bra, bör det undvikas (Finn and Jakobsson 2007) . Debriefing är ett fall där vissa forskare prioriterar respekt för personer över förmån, medan vissa forskare gör motsatsen. En möjlig lösning skulle vara att hitta sätt att göra debriefing en lärande upplevelse för deltagarna. Det är snarare än att tänka på debriefing som något som kan orsaka skada, kanske debriefing kan också vara något som gynnar deltagarna. För ett exempel på denna typ av utbildningsdebriefing, se Jagatic et al. (2007) . Psykologer har utvecklat tekniker för debriefing (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , och några av dessa kan med fördel användas för digital-åldersforskning. Humphreys (2015) erbjuder intressanta tankar om uppskjutet samtycke , vilket är nära relaterat till debriefingsstrategin som jag beskrivit.
Tanken att fråga ett samtal av deltagare för deras samtycke är relaterat till vad Humphreys (2015) kallar förledt samtycke .
En ytterligare idé om informerat samtycke som har föreslagits är att bygga en panel av personer som är överens om att vara i online-experiment (Crawford 2014) . Vissa har hävdat att den här panelen skulle vara ett ojämnt urval av människor. Men kapitel 3 (Frågor) visar att dessa problem är potentiellt adresserbara med hjälp av postlagstiftning. Samtycke till att vara på panelen kan också omfatta en rad olika experiment. Med andra ord kan deltagarna inte behöva samtycka till varje experiment individuellt, ett koncept som kallas brett samtycke (Sheehan 2011) . För mer om skillnaderna mellan engångsintyg och samtycke för varje studie, samt en eventuell hybrid, se Hutton and Henderson (2015) .
Långt från unikt illustrerar Netflixpriset en viktig teknisk egenskap hos dataset som innehåller detaljerad information om människor och ger därmed viktiga lärdomar om möjligheten att "anonymisera" moderna sociala dataset. Filer med många uppgifter om varje person kommer sannolikt att vara glesa , i den mening som formellt definieras i Narayanan and Shmatikov (2008) . Det är för varje post, det finns inga poster som är samma, och det finns faktiskt inga poster som är mycket lika: varje person är långt ifrån deras närmaste granne i datasetet. Man kan föreställa sig att de Netflix uppgifterna kan vara glesa eftersom med ca 20 tusen filmer på ett femstjärnigt skala, det finns cirka \(6^{20,000}\) möjliga värden att varje person kan ha (6 eftersom, förutom att en till 5 stjärnor, någon har kanske inte betygsatt filmen alls). Detta nummer är så stort, det är svårt att ens förstå.
Sparsity har två huvudsakliga konsekvenser. Först innebär det att försök att "anonymisera" datasetet baserat på slumpmässig störning kommer sannolikt att misslyckas. Det vill säga, även om Netflix skulle slumpmässigt anpassa vissa av de betyg som de gjorde, skulle det inte vara tillräckligt för att den störda posten fortfarande är den närmaste möjliga posten till informationen som angriparen har. För det andra betyder sparsiteten att omidentifiering är möjlig även om angriparen har ofullständig eller opartisk kunskap. Till exempel, i Netflix-data, låt oss föreställa oss att angriparen känner till dina betyg för två filmer och de datum du gjorde dessa betyg \(\pm\) 3 dagar; Bara den informationen är tillräcklig för att unikt identifiera 68% av personerna i Netflix-data. Om angriparen vet åtta filmer som du har betygsatt \(\pm\) 14 dagar, kan även 99% av poster identifieras unikt i datasetet, även om två av dessa kända klassificeringar är helt felaktiga. Med andra ord är sparsity ett grundläggande problem för ansträngningar att "anonymisera" data, vilket är olyckligt eftersom de flesta moderna sociala dataset är glesa. För mer om "anonymisering" av glesa data, se Narayanan and Shmatikov (2008) .
Telefonmetadata kan också tyckas vara "anonyma" och inte känsliga, men det är inte så. Telefonmetadata är identifierbara och känsliga (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
I figur 6.6 skisserade jag en avvägning mellan risk för deltagare och fördelar för samhället från datafrisättning. För en jämförelse mellan begränsade åtkomstmetoder (t.ex. en muromgärdad trädgård) och begränsade datatillgångar (t.ex. en form av "anonymisering") se Reiter and Kinney (2011) . För ett föreslagna kategoriseringssystem för risknivåer för data, se Sweeney, Crosas, and Bar-Sinai (2015) . För en mer allmän diskussion om datadeling, se Yakowitz (2011) .
För mer detaljerad analys av denna avvägning mellan risk och användbarhet, se Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) och Goroff (2015) . För att se denna avvägning tillämpas på reella data från massivt öppna onlinekurser (MOOCs), se Daries et al. (2014) och Angiuli, Blitzstein, and Waldo (2015) .
Differentiell integritet erbjuder också ett alternativt tillvägagångssätt som kan kombinera både låg risk för deltagare och stor nytta för samhället. se Dwork and Roth (2014) och Narayanan, Huey, and Felten (2016) .
För mer om begreppet personidentifierande information (PII), som är centralt för många av reglerna om forskningsetik, se Narayanan and Shmatikov (2010) och Schwartz and Solove (2011) . För mer om alla data är potentiellt känsliga, se Ohm (2015) .
I det här avsnittet har jag skildrat kopplingen av olika dataset som något som kan leda till informationsrisk. Men det kan också skapa nya möjligheter till forskning, vilket argumenterades i Currie (2013) .
För mer på de fem kassaskålarna, se Desai, Ritchie, and Welpton (2016) . För ett exempel på hur utdata kan identifieras, se Brownstein, Cassa, and Mandl (2006) , som visar hur kartor över sjukdomsprevalens kan identifieras. Dwork et al. (2017) anser också attacker mot aggregerad data, såsom statistik om hur många individer som har en viss sjukdom.
Frågor om datanvändning och datautgivning ger också frågor om datainnehav. För mer om datainnehåll, se Evans (2011) och Pentland (2012) .
Warren and Brandeis (1890) är en milstolpe juridisk artikel om integritet och är mest associerad med idén om att integritet är rätt att vara ensam. Book-length behandlingar av integritet som jag skulle rekommendera är Solove (2010) och Nissenbaum (2010) .
För en översyn av empirisk forskning om hur människor tänker på integritet, se Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) föreslår en dual-systemteori - att människor ibland fokuserar på intuitiva farhågor och ibland fokuserar på ansedda bekymmer - för att förklara hur människor kan göra uppenbarligen motsägelsefulla uttalanden om integritet. För mer om idén om integritet i online-inställningar som Twitter, se Neuhaus and Webmoor (2012) .
Tidskriften Science publicerade en särskild sektion med titeln "The End of Privacy", som behandlar frågor om integritet och informationsrisker ur olika perspektiv. För en sammanfattning, se Enserink and Chin (2015) . Calo (2011) erbjuder ett ramverk för att tänka på de skador som kommer från brott mot privatlivet. Ett tidigt exempel på bekymmer om integritet i början av den digitala tiden är Packard (1964) .
En utmaning när man försöker tillämpa den minimala risknivån är att det inte är klart, vars dagliga liv ska användas för benchmarking (National Research Council 2014) . Till exempel har hemlösa personer högre nivåer av obehag i deras dagliga liv. Men det innebär inte att det är etiskt tillåtet att utsätta hemlösa för forskning med högre risk. Av denna anledning verkar det finnas ett växande samförstånd om att minimal risk bör riktas mot en allmän befolkningsstandard , inte en specifik befolkningsstandard . Medan jag allmänt håller med tanken på en allmän befolkningsstandard tror jag att för en stor onlineplattform som Facebook är en specifik befolkningsstandard rimlig. När jag överväger emotionell smitta tror jag att det är rimligt att riktmärka mot daglig risk på Facebook. En specifik befolkningsstandard är i detta fall mycket enklare att utvärdera och är osannolikt att den strider mot principen om rättvisa, som syftar till att förhindra att bördorna av forskning misslyckas orättvist i missgynnade grupper (t.ex. fångar och föräldralösa barn).
Andra forskare har också krävt att fler artiklar ska inkludera etiska bilagor (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) erbjuder också praktiska tips. Zook och kollegor (2017) erbjuder "tio enkla regler för ansvarsfull stor dataforskning."