Questa sezione è progettato per essere utilizzato come riferimento, piuttosto che essere letta come una narrazione.
Etica della ricerca ha tradizionalmente incluso anche temi quali la frode scientifica e allocazione del credito. Questi argomenti sono discussi in maggiore dettaglio nella Engineering (2009) .
Questo capitolo è fortemente modellato dalla situazione negli Stati Uniti. Per maggiori informazioni sul profilo etico delle procedure in altri paesi, vedi capitoli 6, 7, 8, e 9 del Desposato (2016b) . Per un argomento che i principi etici biomedici che hanno influenzato questo capitolo sono eccessivamente americano, vedi Holm (1995) . Per ulteriori rassegna storica di Institutional Review Boards negli Stati Uniti, vedere Stark (2012) .
Il Rapporto Belmont e le successive normative negli Stati Uniti hanno fatto una distinzione tra ricerca e pratica. Questa distinzione è stata criticata in seguito (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . Non faccio questa distinzione in questo capitolo perché penso che i principi etici e dei quadri valgono per entrambe le impostazioni. Per maggiori informazioni sulla supervisione di ricerca presso Facebook, vedere Jackman and Kanerva (2016) . Per una proposta per la supervisione di ricerca presso aziende e organizzazioni non governative, vedere Polonetsky, Tene, and Jerome (2015) e Tene and Polonetsky (2016) .
Per maggiori informazioni sul caso della epidemia di Ebola nel 2014, vedere McDonald (2016) , e per di più sui rischi per la privacy dei dati del telefono cellulare, vedere Mayer, Mutchler, and Mitchell (2016) . Per un esempio di ricerca di crisi legate utilizzando i dati di telefonia mobile, vedi Bengtsson et al. (2011) e Lu, Bengtsson, and Holme (2012) .
Molte persone hanno scritto su di contagio emotivo. La rivista Etica Research dedicato tutta la loro emissione gennaio 2016 discutere l'esperimento; vedi Hunter and Evans (2016) per una panoramica. Gli Atti degli accademici Nazionale della Scienza ha pubblicato due pezzi circa l'esperimento: Kahn, Vayena, and Mastroianni (2014) e Fiske and Hauser (2014) . Altri pezzi circa l'esperimento sono: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .
Per ulteriori informazioni su Encore, vedere Jones and Feamster (2015) .
In termini di sorveglianza di massa, ampie rassegne sono state fornite in Mayer-Schönberger (2009) e Marx (2016) . Per un esempio concreto dei costi mutevoli di sorveglianza, Bankston and Soltani (2013) stima che il monitoraggio di un sospetto criminale utilizzando i telefoni cellulari è di circa 50 volte più economico rispetto all'utilizzo di sorveglianza fisica. Bell and Gemmell (2009) fornisce una prospettiva più ottimista su di sé sorveglianza. Oltre ad essere in grado di monitorare il comportamento osservabile che è pubblico o parzialmente pubblico (ad esempio, il gusto, i legami, e ora), i ricercatori possono dedurre sempre più cose che molti partecipanti considerano privato. Ad esempio, Michal Kosinski e colleghi hanno dimostrato che potevano dedurre informazioni sensibili su persone, come l'orientamento sessuale e l'uso di sostanze stupefacenti da dati di traccia digitali apparentemente normali (Facebook piace) (Kosinski, Stillwell, and Graepel 2013) . Questo potrebbe sembrare magica, ma l'approccio Kosinski e colleghi hanno utilizzato-che unisce tracce digitali, indagini, e sotto la supervisione di apprendimento-è in realtà qualcosa che ho già detto circa. Ricordiamo che nel capitolo 3 (Fare domande) ho detto come Josh Blumenstock e colleghi (2015) dati dell'indagine combinati con i dati di telefonia mobile per stimare la povertà in Ruanda. Questo approccio esattamente stesso, che può essere utilizzato per misurare efficacemente povertà in un paese in sviluppo, può essere utilizzato anche per potenzialmente privacy violazione inferenze.
Leggi e norme incoerenti può portare a una ricerca che non rispetta i desideri dei partecipanti, e può portare a "carrello della regolamentazione" dai ricercatori (Grimmelmann 2015; Nickerson and Hyde 2016) . In particolare, alcuni ricercatori che vogliono evitare la supervisione IRB hanno partner che non sono coperti da IRBs (ad esempio, le persone a società o ONG) raccogliere e de-identificare i dati. Poi, i ricercatori possono analizzare questi dati de-identificati senza la supervisione IRB, almeno secondo alcune interpretazioni delle norme vigenti. Questo tipo di evasione IRB sembra essere incompatibile con un approccio basato su principi.
Per ulteriori sulle idee inconsistenti ed eterogenee che le persone hanno di dati sanitari, vedere Fiore-Gartland and Neff (2015) . Per maggiori informazioni sul problema che l'eterogeneità crea per l'etica della ricerca decisioni vedere Meyer (2013) .
Una differenza tra l'età analogici e di ricerca nell'era digitale è che in era digitale interazione con i partecipanti la ricerca è più lontana. Queste interazioni si verificano spesso tramite un intermediario, come una società, e non vi è in genere un grande distanza sociale fisico-e tra ricercatori e partecipanti. Questa interazione lontano fa alcune cose che sono facili nella ricerca dell'età analogica difficile nella ricerca nell'era digitale, come ad esempio lo screening fuori i partecipanti che necessitano di una protezione extra, rilevando gli eventi avversi, e il risanamento del male se si verifica. Ad esempio, si contrappongono contagio emotivo con un esperimento di laboratorio ipotetica sullo stesso argomento. Nel esperimento di laboratorio, i ricercatori potrebbero escludere tutti coloro che arriva al laboratorio che mostra evidenti segni di stress emotivo. Inoltre, se l'esperimento di laboratorio ha creato un evento avverso, i ricercatori vedrebbero, fornire servizi a rimediare il danno, e quindi apportare modifiche al protocollo sperimentale per prevenire danni futuri. La natura lontana dell'interazione nell'esperimento reale emotivo contagio rende ognuno di questi passaggi semplici e sensate estremamente difficile. Inoltre, ho il sospetto che la distanza tra i ricercatori ed i partecipanti rende ricercatori meno sensibile alle preoccupazioni dei loro partecipanti.
Altre fonti di norme e leggi incoerenti. Alcune di questa incoerenza deriva dal fatto che questa ricerca sta accadendo in tutto il mondo. Ad esempio, Encore ha coinvolto persone provenienti da tutto il mondo, e quindi potrebbe essere soggetta alla protezione dei dati e le leggi sulla privacy di molti paesi diversi. Che cosa succede se le norme che disciplinano le richieste Web di terzi (ciò che stava facendo Encore) sono diversi in Germania, Stati Uniti, Kenya e la Cina? Che cosa succede se le norme non sono nemmeno coerenti all'interno di un singolo paese? Una seconda fonte di incoerenza deriva dalla collaborazione tra ricercatori presso le università e le imprese; per esempio, emotivo Contagion stata una collaborazione tra uno scienziato dati a Facebook e uno studente professore e laureato alla Cornell. Facebook in esecuzione grandi esperimenti è di routine e, in quel momento, non necessitava di alcuna terza parte esame etico. Alla Cornell le norme e le regole sono molto diverse; praticamente tutti gli esperimenti devono essere riesaminate dalla Cornell IRB. Quindi, quale insieme di regole dovrebbero governare emotivo Contagion-di Facebook o di Cornell di?
Per ulteriori sugli sforzi per rivedere la regola comune, vedere Evans (2013) , Council (2014) , Metcalf (2016) , e Hudson and Collins (2015) .
L'approccio classico basato su principi di etica biomedica è Beauchamp and Childress (2012) . Essi propongono che quattro principi devono guidare etica biomedica: Rispetto per l'autonomia, non maleficenza, Beneficenza, e la giustizia. Il principio di non maleficenza un esorta ad astenersi dal provocare danni ad altre persone. Questo concetto è profondamente legato all'idea di Ippocrate di "non nuocere". In etica della ricerca, questo principio è spesso combinato con il principio di beneficenza, ma vedere Beauchamp and Childress (2012) (capitolo 5) per più sulla distinzione tra i due . Per una critica che questi principi sono eccessivamente americano, vedi Holm (1995) . Per ulteriori informazioni sul bilanciamento quando il conflitto principi, vedi Gillon (2015) .
I quattro principi di questo capitolo sono stati anche proposti per guidare la supervisione etica per la ricerca accadendo a imprese e organizzazioni non governative (Polonetsky, Tene, and Jerome 2015) attraverso gli organi chiamati "Consumer Oggetto Review Boards" (CSRBs) (Calo 2013) .
Oltre a rispettare l'autonomia, il Rapporto Belmont riconosce anche che non ogni essere umano è capace di vera autodeterminazione. Ad esempio, i bambini, le persone affette da una malattia, o le persone che vivono in situazioni di libertà a rigorose restrizioni potrebbero non essere in grado di agire come individui completamente autonomi, e queste persone sono, pertanto, oggetto di una protezione extra.
Applicando il principio del rispetto per le persone nell'era digitale può essere impegnativo. Ad esempio, nel campo della ricerca nell'era digitale, può essere difficile per fornire protezione in più per le persone con capacità ridotta di autodeterminazione perché i ricercatori spesso sanno molto poco di loro partecipanti. Inoltre, il consenso informato in nell'era digitale ricerca sociale è una sfida enorme. In alcuni casi, il consenso veramente informato può soffrire la trasparenza paradosso (Nissenbaum 2011) , in cui l'informazione e la comprensione sono in conflitto. Approssimativamente, se i ricercatori forniscono informazioni complete sulla natura della raccolta dei dati, l'analisi dei dati e procedure di protezione dei dati, sarà difficile per molti partecipanti a comprendere. Ma, se i ricercatori forniscono informazioni comprensibili, si può mancare importanti informazioni tecniche. Nella ricerca medica nell'era-all'impostazione dominare analogico considerati dal Rapporto Belmont-si potrebbe immaginare un medico parlando individualmente con ogni partecipante per aiutare a risolvere il paradosso di trasparenza. In studi linea coinvolgono migliaia o milioni di persone, un tale approccio faccia a faccia è impossibile. Un secondo problema con il consenso nell'era digitale è che in alcuni studi, come l'analisi di archivi di dati enormi, non sarebbe pratico per ottenere il consenso informato da tutti i partecipanti. Discuto queste ed altre domande circa il consenso informato più dettagliatamente nella sezione 6.6.1. Nonostante queste difficoltà, però, dobbiamo ricordare che il consenso informato non è né necessaria né sufficiente per il rispetto per le persone.
Per maggiori informazioni sulla ricerca medica prima del consenso informato, vedere Miller (2014) . Per un trattamento libro-lunghezza del consenso informato, vedere Manson and O'Neill (2007) . Si vedano anche le letture consigliate circa il consenso informato di seguito.
Danni al contesto è il danno che la ricerca può causare non a persone specifiche, ma di contesti sociali. Questo concetto è un po 'astratto, ma io illustrare con due esempi: uno analogico e uno digitale.
Un classico esempio di danni al contesto viene dalla Wichita giuria Study [ Vaughan (1967) ; Katz, Capron, and Glass (1972) ; Ch 2] -. A volte chiamato anche la giuria del progetto di Chicago (Cornwell 2010) . In questo studio i ricercatori dell'Università di Chicago, come parte di un più ampio studio sugli aspetti sociali del sistema giuridico, segretamente registrate sei deliberazioni della giuria a Wichita, Kansas. I giudici e gli avvocati nei casi avevano approvato le registrazioni, e non vi era rigorosa supervisione del processo. Tuttavia, i giurati non erano a conoscenza che le registrazioni si verificavano. Una volta che lo studio è stato scoperto, c'era indignazione pubblica. Il Dipartimento di Giustizia ha iniziato un'indagine dello studio, i ricercatori sono stati chiamati a testimoniare davanti al Congresso. In ultima analisi, il Congresso ha approvato una nuova legge che rende illegale per registrare segretamente giuria deliberazione.
La preoccupazione dei critici dello studio Wichita giuria non è stato male ai partecipanti; piuttosto, è stata danni al contesto della giuria deliberazione. Cioè, la gente credeva che se i membri della giuria non credevano che stavano avendo discussioni in uno spazio sicuro e protetto, sarebbe più difficile per le deliberazioni della giuria di procedere in futuro. Oltre alla giuria deliberazione, ci sono altri contesti sociali specifici che la società fornisce una protezione extra, come i rapporti avvocato-cliente e assistenza psicologica (MacCarthy 2015) .
Il rischio di danni al contesto e l'interruzione dei sistemi sociali è disponibile anche in alcuni esperimenti sul campo in scienze politiche (Desposato 2016b) . Per un esempio di una più sensibile al contesto di calcolo costi-benefici per un esperimento sul campo in Scienze Politiche, vedere Zimmerman (2016) .
Compensazione per i partecipanti è stato discusso in una serie di impostazioni relative alla ricerca nell'era digitale. Lanier (2014) ha proposto di pagare i partecipanti per tracce digitali che generano. Bederson and Quinn (2011) discute i pagamenti nei mercati del lavoro on-line. Infine, Desposato (2016a) propone di pagare i partecipanti in esperimenti sul campo. Egli fa notare che, anche se i partecipanti non possono essere pagate direttamente, una donazione potrebbe essere fatto ad un gruppo di lavoro per loro conto. Ad esempio, in Encore i ricercatori hanno potuto hanno fatto una donazione ad un gruppo di lavoro per supportare l'accesso a Internet.
Termini-of-service accordi dovrebbero avere meno peso rispetto a contratti negoziati tra le parti uguali e leggi create dai governi legittimi. Situazioni in cui i ricercatori hanno violato gli accordi termini del servizio in passato comportano generalmente utilizzando query automatizzate per controllare il comportamento delle imprese (molto simile a esperimenti sul campo per misurare la discriminazione). Per discussione supplementare vedere Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . Per un esempio di ricerca empirica che discute termini di servizio, vedere Soeller et al. (2016) . Per ulteriori informazioni su possibili problemi legali affrontano i ricercatori se violano i termini di servizio vedono Sandvig and Karahalios (2016) .
Ovviamente, enormi quantità sono stati scritti su consequenzialismo e deontologia. Per un esempio di come questi quadri etici, e altri, può essere utilizzato per ragionare sulla ricerca era digitale, vedere Zevenbergen et al. (2015) . Per un esempio di come questi quadri etici possono essere applicati alle sperimentazioni sul campo in sviluppare l'economia, vedere Baele (2013) .
Per ulteriori informazioni su studi di audit di discriminazione, vedere Pager (2007) e Riach and Rich (2004) . Non solo questi studi non hanno il consenso informato, che coinvolgerà anche l'inganno senza debriefing.
Entrambi Desposato (2016a) e Humphreys (2015) offrono consigli su esperimenti sul campo senza consenso.
Sommers and Miller (2013) del cliente molti argomenti a favore di non debriefing partecipanti dopo l'inganno, e sostiene che i ricercatori dovrebbero rinunciare "debriefing sotto un insieme molto ristretto di circostanze, vale a dire, in una ricerca sul campo in cui debriefing pone notevoli ostacoli pratici ma i ricercatori avrebbero non esitano a debriefing se potessero. I ricercatori non dovrebbe essere consentito di rinunciare debriefing al fine di preservare una piscina partecipante ingenuo, si sono al riparo da partecipante rabbia, o proteggere i partecipanti dal male ". Altri sostengono che se debriefing provoca più danni che bene dovrebbe essere evitato. Debriefing è un caso in cui alcuni ricercatori priorità rispetto per le persone oltre Beneficenza, e alcuni ricercatori fanno l'opposto. Una possibile soluzione potrebbe essere quella di trovare modi per rendere debriefing una esperienza di apprendimento per i partecipanti. Cioè, piuttosto che pensare di debriefing come qualcosa che può causare danni, forse debriefing può anche essere qualcosa che avvantaggia i partecipanti. Per un esempio di questo tipo di educazione debriefing, vedere Jagatic et al. (2007) su debriefing studenti dopo un esperimento di phishing sociale. Gli psicologi hanno sviluppato tecniche per debriefing (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) e alcuni di questi possono essere utilmente applicato alla ricerca nell'era digitale. Humphreys (2015) offre riflessioni interessanti sul consenso differito, che è strettamente legato alla strategia di debriefing che ho descritto.
L'idea di chiedere un campione di partecipanti per il loro consenso è legato a ciò che Humphreys (2015) chiama il consenso dedotto.
Un'altra idea che è stata proposta relativa al consenso informato è quello di costruire un gruppo di persone che accettano di essere in esperimenti on-line (Crawford 2014) . Alcuni hanno sostenuto che questo pannello sarebbe un campione non casuale di persone. Ma, capitolo 3 (Fare domande) mostra che questi problemi sono potenzialmente indirizzabili utilizzando post-stratificazione e la congruenza del campione. Inoltre, il consenso ad essere sul pannello potrebbe coprire una varietà di esperimenti. In altre parole, i partecipanti non potrebbero avere bisogno di consenso per ogni esperimento individualmente, un concetto chiamato vasto consenso (Sheehan 2011) .
Lontano dal unico, il Premio Netflix illustra un importante proprietà tecnica di insiemi di dati che contengono informazioni dettagliate su persone e, quindi, offre lezioni importanti circa la possibilità di "anonimizzazione" dei moderni insiemi di dati sociali. I file con molti pezzi di informazioni su ogni persona che sono suscettibili di essere sparsa, nel senso definito formalmente in Narayanan and Shmatikov (2008) . Cioè, per ogni record non ci sono documenti che sono gli stessi, e in effetti non ci sono documenti che sono molto simili: ogni persona è lontano dal loro vicino più prossimo nel set di dati. Si può immaginare che i dati di Netflix potrebbe essere scarsa a causa di circa 20.000 film su una scala a 5 stelle, ci sono circa \ (6 ^ {20.000} \) possibili valori che ogni persona potrebbe avere (6 perché oltre a una a 5 stelle , qualcuno potrebbe non aver valutato il filmato a tutti). Questo numero è così grande, è difficile da comprendere anche.
Sparsity ha due implicazioni principali. In primo luogo, ciò significa che il tentativo di "anonimi" l'insieme di dati sulla base di perturbazione casuale probabilmente fallire. Cioè, anche se dovesse Netflix per regolare in modo casuale alcuni dei rating (che hanno fatto), questo non sarebbe sufficiente perché il record perturbato è ancora il record più vicino possibile alle informazioni che l'attaccante ha. In secondo luogo, la scarsità significa che de-anonima è possibile anche se l'attaccante ha conoscenza imperfetta o imparziale. Ad esempio, nei dati di Netflix, immaginiamo l'attaccante conosce i tuoi punteggi di due film e le date che hai fatto i rating +/- 3 giorni; solo che l'informazione da sola è sufficiente per identificare in modo univoco il 68% delle persone nei dati di Netflix. Se gli attaccanti sa 8 film che avete valutato +/- 14 giorni, quindi, anche se due di queste valutazioni noti sono completamente sbagliato, il 99% dei record è possibile individuare nel set di dati. In altre parole, scarsità è un problema fondamentale per gli sforzi per "anonimi" i dati, il che è un peccato, perché più moderno set di dati sociale sono scarsi.
metadati Telefono potrebbe anche apparire "anonimo" e non sensibile, ma che non è il caso. Metadati telefonico è identificabile e sensibile (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
Nella Figura 6.6, ho abbozzato un trade-off tra rischio per i partecipanti ed i benefici di ricerca dal rilascio di dati. Per un confronto tra gli approcci limitato l'accesso (ad esempio, un giardino murato) e approcci dati riservati (ad esempio, una qualche forma di trasformazione in forma anonima) vedi Reiter and Kinney (2011) . Per un sistema di classificazione proposto di livelli di rischio dei dati, vedere Sweeney, Crosas, and Bar-Sinai (2015) . Infine, per una discussione più generale di condivisione dei dati, vedere Yakowitz (2011) .
Per un'analisi più dettagliata di questo trade-off tra il rischio e l'utilità dei dati, vedere Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , e Goroff (2015) . Per vedere questo trade-off applicato ai dati reali di corsi on-line in maniera massiccia aperti (MOOCs), vedere Daries et al. (2014) e Angiuli, Blitzstein, and Waldo (2015) .
Privacy differenziale offre anche un approccio alternativo che può combinare sia elevato beneficio per la società e basso rischio per i partecipanti, vedere Dwork and Roth (2014) e Narayanan, Huey, and Felten (2016) .
Per maggiori informazioni sul concetto di informazione di identificazione personale (PII), che è centrale per molte delle regole di etica della ricerca, vedere Narayanan and Shmatikov (2010) e Schwartz and Solove (2011) . Per ulteriori informazioni su tutti i dati potenzialmente sensibili, vedere Ohm (2015) .
In questa sezione, ho interpretato il collegamento tra diversi insiemi di dati come qualcosa che può portare al rischio informativo. Tuttavia, può anche creare nuove opportunità per la ricerca, come sostenuto in Currie (2013) .
Per ulteriori informazioni su cinque cassette di sicurezza, vedi Desai, Ritchie, and Welpton (2016) . Per un esempio di come le uscite possono essere identificando, vedere Brownstein, Cassa, and Mandl (2006) , che mostra come le mappe di prevalenza della malattia possono essere identificando. Dwork et al. (2017) considera anche gli attacchi contro i dati aggregati, come ad esempio le statistiche su quante persone hanno una certa malattia.
Warren and Brandeis (1890) è un articolo legale punto di riferimento per la privacy, e l'articolo è più associato con l'idea che la privacy è un diritto di essere lasciato solo. Più recentemente trattamenti lunghezza libro di privacy che mi sento di raccomandare includono Solove (2010) e Nissenbaum (2010) .
Per una rassegna di ricerca empirica su come la gente pensa sulla privacy, vedere Acquisti, Brandimarte, and Loewenstein (2015) . La rivista Science ha pubblicato un numero speciale dal titolo "La fine della Privacy", che tratta le questioni della privacy e di rischio le informazioni da una varietà di prospettive diverse; per un riepilogo vedi Enserink and Chin (2015) . Calo (2011) offre un quadro di riferimento per pensare i danni che derivano da violazioni della privacy. Uno dei primi esempi di preoccupazioni sulla privacy in albori dell'era digitale è Packard (1964) .
Una sfida quando si cerca di applicare lo standard minimo rischio è che non è chiaro la cui vita quotidiana è quello di essere utilizzato per l'analisi comparativa (Council 2014) . Ad esempio, le persone senza fissa dimora hanno livelli più elevati di disagio nella loro vita quotidiana. Ma, ciò non implica che sia eticamente lecito esporre le persone senza fissa dimora alla ricerca di rischio più elevato. Per questo motivo, sembra che ci sia un crescente consenso che il minimo rischio deve essere confrontata con uno standard della popolazione generale, non una specifica standard della popolazione. Mentre io generalmente d'accordo con l'idea di uno standard popolazione generale, penso che per le grandi piattaforme online come Facebook, uno standard specifica popolazione è ragionevole. Cioè, se si considera contagio emotivo, penso che sia ragionevole punto di riferimento contro il rischio di tutti i giorni su Facebook. Una norma specifica popolazione in questo caso è molto più facile da valutare e è improbabile che entrare in conflitto con il principio di giustizia, che cerca di evitare che gli oneri di ricerca non aver ingiustamente sui gruppi svantaggiati (ad esempio, i detenuti e gli orfani).
Altri studiosi hanno chiamato anche per altri documenti da includere appendici etici (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) offre anche consigli pratici.