Die Forschungsethik umfasst traditionell auch Themen wie wissenschaftlichen Betrug und Kreditvergabe. Diese werden ausführlicher in " Vom Wissenschaftler als Wissenschaftler" des Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) diskutiert.
Dieses Kapitel wird stark von der Situation in den Vereinigten Staaten beeinflusst. Weitere Desposato (2016b) zu den ethischen Überprüfungsverfahren in anderen Ländern finden Sie in den Kapiteln 6-9 von Desposato (2016b) . Für ein Argument, dass die biomedizinischen ethischen Prinzipien, die dieses Kapitel beeinflusst haben, übermäßig amerikanisch sind, siehe Holm (1995) . Für eine weitere historische Übersicht der Institutional Review Boards in den USA siehe Stark (2012) . Die Zeitschrift PS: Politikwissenschaft und Politik hielt ein Fachsymposium über die Beziehung zwischen Politologen und IRBs; Eine Zusammenfassung finden Sie in Martinez-Ebers (2016) .
Der Belmont-Bericht und die nachfolgenden Regelungen in den USA tendieren dazu, zwischen Forschung und Praxis zu unterscheiden. Ich habe in diesem Kapitel keine solche Unterscheidung getroffen, weil ich glaube, dass die ethischen Prinzipien und Rahmen für beide Situationen gelten. Näheres zu dieser Unterscheidung und den damit verbundenen Problemen finden Sie in Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) und Metcalf and Crawford (2016) .
Weitere Informationen zur Forschungsaufsicht auf Facebook finden Sie unter Jackman and Kanerva (2016) . Für Ideen zur Forschungsaufsicht in Unternehmen und NGOs siehe Calo (2013) , Polonetsky, Tene, and Jerome (2015) sowie Tene and Polonetsky (2016) .
In Bezug auf die Verwendung von Mobiltelefon-Daten zur Bewältigung des 2014-Ebola-Ausbruchs in Westafrika (Wesolowski et al. 2014; McDonald 2016) , mehr zu den Datenschutzrisiken von Mobiltelefon-Daten siehe Mayer, Mutchler, and Mitchell (2016) . Beispiele früherer krisenbezogener Forschung mit Mobiltelefon-Daten finden Sie unter Bengtsson et al. (2011) und Lu, Bengtsson, and Holme (2012) , und für mehr über die Ethik der krisenbezogenen Forschung siehe ( ??? ) .
Viele Menschen haben über emotionale Ansteckung geschrieben. Die Zeitschrift Research Ethics widmete ihre gesamte Ausgabe im Januar 2016 der Diskussion des Experiments. Einen Überblick bietet Hunter and Evans (2016) . Das Proceedings of the National Academics of Science veröffentlichte zwei Stücke über das Experiment: Kahn, Vayena, and Mastroianni (2014) und Fiske and Hauser (2014) . Andere Stücke über das Experiment sind: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) und ( ??? ) .
In Bezug auf die Massenüberwachung werden in Mayer-Schönberger (2009) und Marx (2016) breite Übersichten gegeben. Für ein konkretes Beispiel für die sich ändernden Kosten der Überwachung schätzen Bankston and Soltani (2013) , dass die Verfolgung eines verdächtigen Kriminellen mit Mobiltelefonen etwa 50 Mal billiger ist als die Verwendung von physischer Überwachung. Siehe auch Ajunwa, Crawford, and Schultz (2016) für eine Diskussion über Überwachung bei der Arbeit. Bell and Gemmell (2009) bieten eine optimistischere Sicht auf die Selbstüberwachung.
Zusätzlich zu der Möglichkeit, beobachtbares Verhalten zu verfolgen, das öffentlich oder teilweise öffentlich ist (z. B. Geschmack, Bindung und Zeit), können Forscher zunehmend auf Dinge schließen, die viele Teilnehmer für privat halten. Zum Beispiel zeigten Michal Kosinski und Kollegen (2013) , dass sie aus scheinbar alltäglichen digitalen Trace-Daten (Facebook Likes) sensible Informationen über Menschen wie sexuelle Orientierung und Verwendung von Suchtmitteln ableiten können. Das mag magisch klingen, aber der Ansatz, den Kosinski und seine Kollegen verwendeten - was digitale Spuren, Umfragen und überwachtes Lernen miteinander kombiniert - ist etwas, von dem ich Ihnen bereits erzählt habe. Daran erinnern, dass in Kapitel 3 (Fragen stellen). Ich erzählte Ihnen, wie Joshua Blumenstock und seine Kollegen (2015) Umfragedaten mit Mobiltelefondaten kombinierten, um die Armut in Ruanda zu schätzen. Dieser genau gleiche Ansatz, der zur effizienten Messung der Armut in einem Entwicklungsland verwendet werden kann, kann auch für potenziell datenschutzverletzende Schlussfolgerungen verwendet werden.
Weitere Informationen zu möglichen unbeabsichtigten sekundären Verwendungen von Gesundheitsdaten finden Sie in O'Doherty et al. (2016) . Neben dem Potenzial für unbeabsichtigte Sekundärnutzungen könnte die Schaffung einer unvollständigen Master-Datenbank eine abschreckende Wirkung auf das soziale und politische Leben haben, wenn die Menschen nicht bereit wären, bestimmte Materialien zu lesen oder bestimmte Themen zu diskutieren; siehe Schauer (1978) und Penney (2016) .
In Situationen mit sich überschneidenden Regeln nehmen Forscher manchmal "regulatorisches Einkaufen" in (Grimmelmann 2015; Nickerson and Hyde 2016) . Insbesondere können einige Forscher, die IRB-Aufsicht vermeiden möchten, Partnerschaften mit Forschern eingehen, die nicht von IRBs abgedeckt werden (z. B. Menschen in Unternehmen oder NGOs), und diese Kollegen veranlassen, Daten zu sammeln und zu de-identifizieren. Dann kann der IRB-Covered Researcher diese de-identifizierten Daten ohne IRB-Kontrolle analysieren, da die Forschung nicht mehr als "Forschung für menschliche Subjekte" angesehen wird, zumindest nach einigen Interpretationen der aktuellen Regeln. Diese Art der IRB-Hinterziehung ist wahrscheinlich nicht mit einem prinzipienbasierten Ansatz der Forschungsethik vereinbar.
Im Jahr 2011 begann man, die Gemeinsame Regel zu aktualisieren, und dieser Prozess wurde schließlich 2017 ( ??? ) . Weitere Informationen zu diesen Bemühungen zur Aktualisierung der gemeinsamen Regel finden sich in Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) und Metcalf (2016) .
Der klassische prinzipienbasierte Ansatz zur biomedizinischen Ethik ist der von Beauchamp and Childress (2012) . Sie schlagen vor, dass vier Hauptprinzipien die biomedizinische Ethik leiten sollten: Respekt für Autonomie, Nichtbeleidigung, Wohltätigkeit und Gerechtigkeit. Das Prinzip der Nichtbelästigung fordert dazu auf, auf andere Menschen keinen Schaden zu verursachen. Dieses Konzept ist eng mit der hippokratischen Idee von "Do not harm" verbunden. In der Forschungsethik wird dieses Prinzip oft mit dem Prinzip der Wohltätigkeit kombiniert, aber siehe Kapitel 5 von @ beauchamp_principles_2012, um mehr über die Unterscheidung zwischen den beiden zu erfahren. Für eine Kritik, dass diese Prinzipien übermäßig amerikanisch sind, siehe Holm (1995) . Weitere Informationen zum Thema Ausgleich bei Widersprüchen zwischen den Prinzipien finden Sie in Gillon (2015) .
Die vier Prinzipien in diesem Kapitel wurden auch vorgeschlagen, um die ethische Kontrolle der Forschung in Unternehmen und NGOs (Polonetsky, Tene, and Jerome 2015) durch Gremien, die "Consumer Subject Review Boards" (CSRBs) genannt werden, zu leiten (Calo 2013) .
Neben der Autonomie respektiert der Belmont-Bericht auch, dass nicht jeder Mensch zu echter Selbstbestimmung fähig ist. Beispielsweise können Kinder, kranke Menschen oder Personen, die in stark eingeschränkter Freiheit leben, möglicherweise nicht in der Lage sein, vollständig autonome Personen zu sein, und diese Personen unterliegen daher einem zusätzlichen Schutz.
Die Anwendung des Grundsatzes der Achtung von Personen im digitalen Zeitalter kann eine Herausforderung darstellen. Zum Beispiel kann es in der digitalen Altersforschung schwierig sein, Personen mit eingeschränkter Selbstbestimmung einen zusätzlichen Schutz zu bieten, da die Forscher oft nur wenig über ihre Teilnehmer wissen. Darüber hinaus ist die Einwilligung nach Aufklärung in der Sozialforschung im digitalen Zeitalter eine große Herausforderung. In einigen Fällen kann die wirklich informierte Zustimmung unter dem Transparenzparadox leiden (Nissenbaum 2011) , wo Information und Verständnis in Konflikt stehen. Wenn Forscher umfassende Informationen über die Art der Datensammlung, Datenanalyse und Datensicherheitspraktiken liefern, wird es für viele Teilnehmer schwierig sein, sie zu verstehen. Wenn Forscher jedoch verständliche Informationen liefern, fehlen ihnen möglicherweise wichtige technische Details. In der medizinischen Forschung im analogen Zeitalter - dem dominierenden Setting, das im Belmont Report berücksichtigt wird - könnte man sich einen Arzt vorstellen, der individuell mit jedem Teilnehmer spricht, um das Transparenzparadoxon zu lösen. In Online-Studien mit Tausenden oder Millionen von Menschen ist solch ein persönlicher Kontakt unmöglich. Ein zweites Problem bei der Einwilligung im digitalen Zeitalter ist, dass es in einigen Studien, wie bei der Analyse massiver Datenspeicher, unpraktisch wäre, eine Einverständniserklärung aller Teilnehmer zu erhalten. Ich diskutiere diese und andere Fragen zur Einwilligung nach Aufklärung detaillierter in Abschnitt 6.6.1. Trotz dieser Schwierigkeiten sollten wir jedoch daran denken, dass die Einwilligung nach Aufklärung für den Respekt vor Personen weder notwendig noch ausreichend ist.
Weitere Informationen zur medizinischen Forschung vor der Einwilligung nach Aufklärung finden Sie in Miller (2014) . Für eine buchlange Behandlung der Einwilligung nach Manson and O'Neill (2007) siehe Manson and O'Neill (2007) . Siehe auch die vorgeschlagenen Lesungen zur Einverständniserklärung unten.
Schaden für den Kontext ist der Schaden, den Forschung nicht für bestimmte Menschen, sondern für soziale Einstellungen verursachen kann. Dieses Konzept ist ein bisschen abstrakt, aber ich werde es anhand eines klassischen Beispiels illustrieren: die Wichita-Jury-Studie (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - manchmal auch als Chicago-Jury-Projekt bezeichnet (Cornwell 2010) . In dieser Studie haben Forscher der Universität von Chicago im Rahmen einer umfassenderen Studie über soziale Aspekte des Rechtssystems sechs Würdigungstexte in Wichita, Kansas, aufgezeichnet. Die Richter und Anwälte hatten die Aufnahmen genehmigt, und der Prozess wurde streng überwacht. Den Geschworenen war jedoch nicht bewusst, dass Aufnahmen stattfanden. Sobald die Studie entdeckt wurde, gab es öffentliche Empörung. Das Justizministerium begann eine Untersuchung der Studie, und die Forscher wurden aufgefordert, vor dem Kongress auszusagen. Letztendlich verabschiedete der Kongress ein neues Gesetz, das es illegal macht, Geschworenenberatungen heimlich aufzuzeichnen.
Die Sorge der Kritiker der Wichita-Jury-Studie war nicht das Risiko, den Teilnehmern Schaden zuzufügen; es war eher die Gefahr von Schäden im Zusammenhang mit der Entscheidung der Jury. Das heißt, die Leute dachten, wenn die Jurymitglieder nicht glaubten, dass sie in einem sicheren und geschützten Raum diskutierten, wäre es für die Jury schwierig, in Zukunft weiter zu beraten. Neben der Beratung durch die Jury gibt es noch andere spezifische soziale Kontexte, die die Gesellschaft mit einem zusätzlichen Schutz versehen, wie zum Beispiel Anwalt-Klienten-Beziehungen und psychologische Betreuung (MacCarthy 2015) .
Auch in einigen politikwissenschaftlichen (Desposato 2016b) die Gefahr von Kontextschädigungen und der Störung sozialer Systeme (Desposato 2016b) . Ein Beispiel für eine kontextsensitivere Kosten-Nutzen-Rechnung für ein Feldexperiment in der Politikwissenschaft finden Sie in Zimmerman (2016) .
Die Vergütung für die Teilnehmer wurde in einer Reihe von Einstellungen im Zusammenhang mit der digitalen Altersforschung diskutiert. Lanier (2014) schlägt vor, die Teilnehmer für die von ihnen erzeugten digitalen Spuren zu bezahlen. Bederson and Quinn (2011) diskutieren Zahlungen auf Online-Arbeitsmärkten. Schließlich schlägt Desposato (2016a) vor, die Teilnehmer an Feldexperimenten zu bezahlen. Er weist darauf hin, dass selbst wenn die Teilnehmer nicht direkt bezahlt werden können, eine Spende an eine Gruppe, die in ihrem Namen arbeitet, geleistet werden kann. Zum Beispiel könnten die Forscher in Encore eine Spende an eine Gruppe geleistet haben, die den Zugang zum Internet unterstützt.
Terms-of-Service-Vereinbarungen sollten weniger Gewicht haben als Verträge, die zwischen gleichen Parteien ausgehandelt wurden, und weniger als Gesetze, die von legitimen Regierungen geschaffen wurden. Situationen, in denen Forscher in der Vergangenheit gegen Dienstleistungsvereinbarungen verstoßen haben, umfassen im Allgemeinen die Verwendung automatisierter Abfragen zur Überprüfung des Verhaltens von Unternehmen (ähnlich wie Feldexperimente zur Messung von Diskriminierung). Für weitere Diskussionen, siehe Vaccaro et al. (2015) , Bruckman (2016a) und Bruckman (2016b) . Für ein Beispiel für empirische Forschung, die Servicebedingungen diskutiert, siehe Soeller et al. (2016) . Näheres zu den möglichen rechtlichen Problemen, mit denen Forscher konfrontiert sind, wenn sie gegen die Nutzungsbedingungen verstoßen, finden Sie in Sandvig and Karahalios (2016) .
Offensichtlich wurde eine enorme Menge über Konsequenzialismus und Deontologie geschrieben. Ein Beispiel dafür, wie diese ethischen Rahmenbedingungen und andere zur Begründung der digitalen Altersforschung herangezogen werden können, finden Sie in Zevenbergen et al. (2015) . Für ein Beispiel, wie sie auf Feldversuche in der Entwicklungsökonomie angewendet werden können, siehe Baele (2013) .
Weitere Informationen zu Prüfungsstudien zur Diskriminierung finden Sie unter Pager (2007) und Riach and Rich (2004) . Diese Studien haben nicht nur eine Einwilligung nach Aufklärung, sie beinhalten auch eine Täuschung ohne Nachbesprechung.
Sowohl Desposato (2016a) als auch Humphreys (2015) bieten Beratung zu Feldversuchen ohne Zustimmung.
Sommers and Miller (2013) überprüfen viele Argumente dafür, Teilnehmer nach Täuschung nicht zu debriefieren, und argumentieren, dass Forscher auf Debriefing verzichten sollten
"Unter sehr engen Umständen, nämlich in der Feldforschung, bei der das Debriefing erhebliche praktische Hindernisse aufzeigt, aber die Forscher würden keine Bedenken haben, Debriefing durchzuführen, wenn sie könnten. Den Forschern sollte es nicht erlaubt sein, auf das Debriefing zu verzichten, um einen naiven Teilnehmerpool zu bewahren, sich vor der Wut der Teilnehmer zu schützen oder die Teilnehmer vor Schaden zu bewahren. "
Andere argumentieren, dass in einigen Situationen, wenn Debriefing mehr Schaden als Nutzen verursacht, vermieden werden sollte (Finn and Jakobsson 2007) . Debriefing ist ein Fall, in dem einige Forscher den Respekt vor Personen über Wohltätigkeit bevorzugen, während einige Forscher das Gegenteil tun. Eine mögliche Lösung wäre, Wege zu finden, Debriefing zu einer Lernerfahrung für die Teilnehmer zu machen. Anstatt Debriefing als etwas zu betrachten, das Schaden anrichten kann, kann Debriefing vielleicht auch etwas sein, das den Teilnehmern nützt. Ein Beispiel für eine Jagatic et al. (2007) pädagogische Nachbesprechung findet sich bei Jagatic et al. (2007) . Psychologen haben Techniken für das Debriefing entwickelt (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , und einige von diesen könnten nützlich für die digitale Altersforschung verwendet werden. Humphreys (2015) bietet interessante Gedanken über die gestaffelte Einwilligung , die eng mit der von mir beschriebenen Debriefing-Strategie verbunden ist.
Die Idee, eine Stichprobe von Teilnehmern um ihre Einwilligung zu bitten, bezieht sich auf das, was Humphreys (2015) die abgeleitete Einwilligung nennt.
Eine weitere Idee in Bezug auf die Einwilligung nach Aufklärung ist, eine Gruppe von Personen zu bilden, die zustimmen, an Online-Experimenten (Crawford 2014) . Einige haben argumentiert, dass dieses Panel eine nicht zufällige Stichprobe von Menschen sein würde. Aber Kapitel 3 (Fragen stellen) zeigt, dass diese Probleme potentiell durch Post-Stratifizierung adressierbar sind. Auch die Einwilligung in das Panel könnte eine Vielzahl von Experimenten abdecken. Mit anderen Worten, die Teilnehmer müssen möglicherweise nicht jedem Experiment einzeln zustimmen, ein Konzept, das als " breite Zustimmung" bezeichnet wird (Sheehan 2011) . Näheres zu den Unterschieden zwischen einmaliger Einwilligung und Einwilligung für jede Studie sowie einen möglichen Hybrid finden Sie in Hutton and Henderson (2015) .
Der Netflix-Preis ist nicht einzigartig, sondern stellt eine wichtige technische Eigenschaft von Datensätzen dar, die detaillierte Informationen über Personen enthalten und somit wichtige Erkenntnisse über die Möglichkeit der "Anonymisierung" moderner sozialer Datensätze liefern. Dateien mit vielen Informationen über jede Person sind wahrscheinlich spärlich , in dem Sinne, wie er formal in Narayanan and Shmatikov (2008) . Das heißt, für jeden Datensatz gibt es keine Datensätze, die identisch sind, und tatsächlich gibt es keine Datensätze, die sehr ähnlich sind: Jede Person ist weit entfernt von ihrem nächsten Nachbarn in dem Datensatz. Man kann sich vorstellen, dass die Netflix-Daten spärlich sind, denn bei etwa 20.000 Filmen auf einer Fünf-Sterne-Skala gibt es ungefähr \(6^{20,000}\) mögliche Werte, die jede Person haben könnte (6, weil zusätzlich zu 1 bis 5 Sterne, könnte jemand den Film überhaupt nicht bewertet haben). Diese Zahl ist so groß, dass es schwer zu verstehen ist.
Sparsity hat zwei wesentliche Auswirkungen. Erstens bedeutet dies, dass der Versuch, den Datensatz basierend auf zufälligen Störungen zu "anonymisieren", wahrscheinlich fehlschlägt. Das heißt, selbst wenn Netflix einige der Bewertungen zufällig anpassen würde (was sie getan haben), würde dies nicht ausreichen, da der gestörte Datensatz immer noch so nah wie möglich an der Information des Angreifers ist. Zweitens bedeutet die Seltenheit, dass eine erneute Identifizierung möglich ist, selbst wenn der Angreifer unvollkommenes oder unparteiisches Wissen hat. Stellen Sie sich zum Beispiel in den Netflix-Daten vor, dass der Angreifer Ihre Bewertungen für zwei Filme und die Daten, die Sie mit diesen Bewertungen gemacht haben, kennt \(\pm\) 3 Tage; Nur diese Informationen allein reichen aus, um 68% der Personen in den Netflix-Daten eindeutig zu identifizieren. Wenn der Angreifer acht Filme kennt, die Sie mit \(\pm\) 14 Tagen bewertet haben, können auch dann, wenn zwei dieser bekannten Bewertungen vollständig falsch sind, 99% der Datensätze im Dataset eindeutig identifiziert werden. Mit anderen Worten, Sparsity ist ein grundlegendes Problem für die Bemühungen, Daten zu "anonymisieren", was bedauerlich ist, weil die meisten modernen sozialen Datensätze spärlich sind. Mehr zur "Anonymisierung" von spärlichen Daten siehe Narayanan and Shmatikov (2008) .
Telefon-Metadaten könnten auch "anonym" und nicht sensibel erscheinen, aber das ist nicht der Fall. Telefon-Metadaten sind identifizierbar und sensibel (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
In Abbildung 6.6 skizzierte ich einen Kompromiss zwischen dem Risiko für die Teilnehmer und dem Nutzen für die Gesellschaft durch die Datenfreigabe. Für einen Vergleich zwischen Restricted Access-Ansätzen (z. B. einem ummauerten Garten) und eingeschränkten Datenansätzen (z. B. eine Form von "Anonymisierung") siehe Reiter and Kinney (2011) . Für ein vorgeschlagenes Kategorisierungssystem für Risikoniveaus von Daten siehe Sweeney, Crosas, and Bar-Sinai (2015) . Für eine allgemeine Erörterung des Datenaustauschs siehe Yakowitz (2011) .
Für eine detailliertere Analyse dieses Kompromisses zwischen dem Risiko und Nutzen von Daten siehe Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) und Goroff (2015) . Um zu sehen, dass dieser Trade-off auf reale Daten von massiv offenen Online-Kursen (MOOCs) Daries et al. (2014) , siehe Daries et al. (2014) und Angiuli, Blitzstein, and Waldo (2015) .
Differentieller Datenschutz bietet auch einen alternativen Ansatz, der sowohl ein geringes Risiko für die Teilnehmer als auch einen hohen Nutzen für die Gesellschaft kombinieren kann; siehe Dwork and Roth (2014) und Narayanan, Huey, and Felten (2016) .
Mehr über das Konzept der persönlich identifizierenden Informationen (PII), das für viele Regeln der Forschungsethik von zentraler Bedeutung ist, finden Sie in Narayanan and Shmatikov (2010) und Schwartz and Solove (2011) . Weitere Informationen zu potenziell sensitiven Daten finden Sie unter Ohm (2015) .
In diesem Abschnitt habe ich die Verknüpfung verschiedener Datensätze als etwas dargestellt, das zu Informationsrisiken führen kann. Es kann jedoch auch neue Möglichkeiten für die Forschung schaffen, wie in Currie (2013) argumentiert wurde.
Weitere Desai, Ritchie, and Welpton (2016) zu den fünf Safes finden Sie unter Desai, Ritchie, and Welpton (2016) . Ein Beispiel dafür, wie Outputs identifiziert werden können, finden Sie in Brownstein, Cassa, and Mandl (2006) , die zeigen, wie Karten der Krankheitsprävalenz identifiziert werden können. Dwork et al. (2017) auch Angriffe auf aggregierte Daten in Betracht, beispielsweise Statistiken darüber, wie viele Personen eine bestimmte Krankheit haben.
Fragen zur Datennutzung und Datenveröffentlichung werfen auch Fragen zum Datenbesitz auf. Weitere Informationen zum Datenbesitz finden Sie in Evans (2011) und Pentland (2012) .
Warren and Brandeis (1890) ist ein bahnbrechender rechtlicher Artikel über Privatsphäre und ist am meisten mit der Idee verbunden, dass Privatsphäre ein Recht ist, in Ruhe gelassen zu werden. Buch-Länge Behandlungen der Privatsphäre, die ich empfehlen würde, gehören Solove (2010) und Nissenbaum (2010) .
Einen Überblick über die empirische Forschung darüber, wie Menschen über Privatsphäre denken, finden Sie unter Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) schlagen eine duale Systemtheorie vor - die Menschen konzentrieren sich manchmal auf intuitive Belange und konzentrieren sich manchmal auf erwogene Bedenken - um zu erklären, wie Menschen scheinbar widersprüchliche Aussagen über Privatsphäre machen können. Weitere Neuhaus and Webmoor (2012) Thema Privatsphäre in Online-Einstellungen wie Twitter finden Sie unter Neuhaus and Webmoor (2012) .
Die Zeitschrift Science veröffentlichte einen speziellen Abschnitt mit dem Titel "Das Ende des Datenschutzes", der sich mit den Themen Privatsphäre und Informationsrisiko aus verschiedenen Perspektiven befasst. Für eine Zusammenfassung, siehe Enserink and Chin (2015) . Calo (2011) bietet einen Rahmen, um über die Schäden nachzudenken, die aus Verletzungen der Privatsphäre entstehen. Ein frühes Beispiel für Bedenken hinsichtlich des Datenschutzes zu Beginn des digitalen Zeitalters ist Packard (1964) .
Eine Herausforderung bei der Anwendung des Minimalrisikostandards besteht darin, dass nicht klar ist, wessen tägliches Leben für das Benchmarking genutzt werden soll (National Research Council 2014) . Zum Beispiel haben obdachlose Menschen ein höheres Maß an Unbehagen in ihrem täglichen Leben. Aber das bedeutet nicht, dass es ethisch vertretbar ist, obdachlose Menschen einer risikoreicheren Forschung auszusetzen. Aus diesem Grund scheint es einen wachsenden Konsens darüber zu geben, dass ein minimales Risiko mit einem allgemeinen Populationsstandard und nicht mit einem spezifischen Populationsstandard verglichen werden sollte. Während ich generell der Idee eines allgemeinen Bevölkerungsstandards zustimme, denke ich, dass für große Online-Plattformen wie Facebook ein spezifischer Bevölkerungsstandard angemessen ist. Wenn ich Emotional Contagion in Erwägung ziehe, denke ich, dass es sinnvoll ist, sich gegen das alltägliche Risiko auf Facebook zu messen. Ein spezifischer Bevölkerungsstandard ist in diesem Fall viel leichter zu bewerten und widerspricht wahrscheinlich nicht dem Prinzip der Gerechtigkeit, mit dem verhindert werden soll, dass die Forschungslasten auf benachteiligte Gruppen (z. B. Häftlinge und Waisen) ungerecht verteilt werden.
Andere Wissenschaftler haben auch gefordert, dass weitere Arbeiten ethische Anhänge enthalten (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) bietet auch praktische Tipps. Zook und Kollegen (2017) bieten "zehn einfache Regeln für eine verantwortungsvolle Big-Data-Forschung".