Onderzoeksethiek omvat traditioneel ook onderwerpen als wetenschappelijke fraude en kredietallocatie. Deze worden in meer detail besproken in On Being a Scientist van Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Dit hoofdstuk is sterk beïnvloed door de situatie in de Verenigde Staten. Voor meer informatie over de ethische beoordelingsprocedures in andere landen, zie hoofdstuk 6-9 van Desposato (2016b) . Voor een argument dat de biomedische ethische principes die dit hoofdstuk hebben beïnvloed overdreven Amerikaans zijn, zie Holm (1995) . Voor een verdere historische beoordeling van institutionele beoordelingsraden in de Verenigde Staten, zie Stark (2012) . Het tijdschrift PS: Politicologie en Politiek hield een professioneel symposium over de relatie tussen politicologen en IRB's; zie Martinez-Ebers (2016) voor een samenvatting.
Het Belmont-rapport en daaropvolgende voorschriften in de Verenigde Staten hebben de neiging onderscheid te maken tussen onderzoek en praktijk. Ik heb in dit hoofdstuk niet zo'n onderscheid gemaakt omdat ik vind dat de ethische principes en kaders van toepassing zijn op beide instellingen. Voor meer informatie over dit onderscheid en de problemen die het introduceert, zie Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) en Metcalf and Crawford (2016) .
Kijk voor meer informatie over onderzoekstoezicht op Facebook op Jackman and Kanerva (2016) . Zie Calo (2013) , Polonetsky, Tene, and Jerome (2015) en Tene and Polonetsky (2016) voor ideeën over onderzoekstoezicht op bedrijven en ngo's.
Met betrekking tot het gebruik van mobiele telefoongegevens om de ebola-uitbraak in 2014 in West-Afrika aan te pakken (Wesolowski et al. 2014; McDonald 2016) , voor meer informatie over de privacyrisico's van mobiele telefoongegevens, zie Mayer, Mutchler, and Mitchell (2016) . Voor voorbeelden van eerder crisisgerelateerd onderzoek met behulp van mobiele telefoongegevens, zie Bengtsson et al. (2011) en Lu, Bengtsson, and Holme (2012) , en voor meer informatie over de ethiek van crisisgerelateerd onderzoek, zie ( ??? ) .
Veel mensen hebben geschreven over Emotionele Besmetting. Het tijdschrift Research Ethics wijdde hun volledige nummer in januari 2016 aan het bespreken van het experiment; zie Hunter and Evans (2016) voor een overzicht. De Proceedings van de National Academics of Science publiceerden twee stukken over het experiment: Kahn, Vayena, and Mastroianni (2014) en Fiske and Hauser (2014) . Andere stukken over het experiment zijn: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) en ( ??? ) .
Wat massasurveillance betreft, worden brede overzichten gegeven in Mayer-Schönberger (2009) en Marx (2016) . Voor een concreet voorbeeld van de veranderende kosten van surveillance schatten Bankston and Soltani (2013) dat het volgen van een criminele verdachte met mobiele telefoons ongeveer 50 keer goedkoper is dan het gebruik van fysieke surveillance. Zie ook Ajunwa, Crawford, and Schultz (2016) voor een bespreking van surveillance op het werk. Bell and Gemmell (2009) bieden een optimistischer kijk op zelfcontrole.
Naast het kunnen volgen van observeerbaar gedrag dat openbaar of gedeeltelijk publiek is (bijv. Smaken, Stropdassen en Tijd), kunnen onderzoekers steeds vaker dingen afleiden die door veel deelnemers als privé worden beschouwd. Michal Kosinski en collega's (2013) toonden bijvoorbeeld aan dat ze gevoelige informatie over mensen, zoals seksuele geaardheid en het gebruik van verslavende middelen, konden afleiden uit schijnbaar gewone digitale traceergegevens (Facebook Likes). Dit klinkt misschien magisch, maar de benadering die Kosinski en zijn collega's gebruikten - wat digitale sporen, enquêtes en begeleid leren combineerde - is eigenlijk iets waarover ik je al heb verteld. Bedenk dat in hoofdstuk 3 (Vragen stellen). Ik heb je verteld hoe Joshua Blumenstock en collega's (2015) enquêtegegevens combineren met gegevens van mobiele telefoons om de armoede in Rwanda te schatten. Deze exact dezelfde aanpak, die kan worden gebruikt om armoede in een ontwikkelingsland efficiënt te meten, kan ook worden gebruikt voor mogelijk inbreukmakende gevolgtrekkingen.
Voor meer informatie over mogelijk onbedoeld secundair gebruik van gezondheidsgegevens, zie O'Doherty et al. (2016) . Naast het potentieel voor onbedoeld secundair gebruik, zou het creëren van zelfs een onvolledige hoofddatabank een huiveringwekkend effect kunnen hebben op het sociale en politieke leven als mensen niet bereid zijn bepaalde materialen te lezen of bepaalde onderwerpen te bespreken; zie Schauer (1978) en Penney (2016) .
In situaties met overlappende regels neemt de onderzoeker soms deel aan 'regulatory shopping' (Grimmelmann 2015; Nickerson and Hyde 2016) . Sommige onderzoekers die IRB-toezicht willen vermijden, kunnen met name partnerschappen aangaan met onderzoekers die niet onder de IRB's vallen (bijv. Mensen bij bedrijven of NGO's) en die collega's gegevens laten verzamelen en de-identificeren. Vervolgens kan de met de IRB beklede onderzoeker deze niet-geïdentificeerde gegevens analyseren zonder IRB-toezicht, omdat het onderzoek niet langer wordt beschouwd als "onderzoek van menselijke subjecten", althans volgens enkele interpretaties van de huidige regels. Dit soort IRB-ontduiking is waarschijnlijk niet consistent met een op beginselen gebaseerde benadering van onderzoekethiek.
In 2011 is begonnen met het bijwerken van de gemeenschappelijke regel en dit proces is uiteindelijk voltooid in 2017 ( ??? ) . Voor meer informatie over deze inspanningen om de gemeenschappelijke regel bij te werken, zie Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) en Metcalf (2016) .
De klassieke, op beginselen gebaseerde benadering van de biomedische ethiek is die van Beauchamp and Childress (2012) . Ze stellen voor dat vier hoofdprincipes richting geven aan de biomedische ethiek: respect voor autonomie, nonmaleficence, beneficence en justice. Het principe van nonmaleficence dringt er bij iemand op aan zich te onthouden van het veroorzaken van schade aan andere mensen. Dit concept hangt nauw samen met het Hippocratische idee van "Do not harm." In onderzoekethiek wordt dit principe vaak gecombineerd met het principe van Weldadigheid, maar zie hoofdstuk 5 van @ beauchamp_principles_2012 voor meer informatie over het onderscheid tussen beide. Voor een kritiek dat deze principes overdreven Amerikaans zijn, zie Holm (1995) . Zie Gillon (2015) voor meer informatie over het balanceren wanneer de principes botsen.
De vier principes in dit hoofdstuk zijn ook voorgesteld als richtsnoer voor ethisch toezicht op onderzoek dat wordt gedaan bij bedrijven en ngo's (Polonetsky, Tene, and Jerome 2015) via organen genaamd "Consumer Subject Review Boards" (CSRB's) (Calo 2013) .
Naast het respecteren van de autonomie, erkent het rapport van Belmont ook dat niet elk mens in staat is tot echte zelfbeschikking. Kinderen, mensen die lijden aan ziekte of mensen die in een situatie met ernstig beperkte vrijheid leven, kunnen bijvoorbeeld mogelijk niet als volledig autonome individuen optreden en deze mensen zijn daarom onderhevig aan extra bescherming.
Het toepassen van het principe van Respect voor personen in het digitale tijdperk kan een uitdaging zijn. In onderzoek naar digitale leeftijden kan het bijvoorbeeld moeilijk zijn om extra bescherming te bieden aan mensen met een verminderd zelfbeschikkingsvermogen, omdat onderzoekers vaak maar heel weinig weten over hun deelnemers. Verder is geïnformeerde toestemming voor sociaal-wetenschappelijk onderzoek in digitale tijden een enorme uitdaging. In sommige gevallen kan echt geïnformeerde toestemming lijden onder de transparantieparadox (Nissenbaum 2011) , waar informatie en begrip met elkaar in conflict zijn. Grofweg, als onderzoekers volledige informatie verstrekken over de aard van de gegevensverzameling, gegevensanalyse en gegevensbeveiligingspraktijken, zal het voor veel deelnemers moeilijk te begrijpen zijn. Maar als onderzoekers begrijpelijke informatie verstrekken, kan het belangrijke technische details missen. In medisch onderzoek in het analoge tijdperk - de dominante setting die wordt overwogen door het Belmont-rapport - zou je je een arts kunnen voorstellen die individueel met elke deelnemer spreekt om de transparantieparadox te helpen oplossen. In online onderzoeken met duizenden of miljoenen mensen is een dergelijke face-to-face benadering onmogelijk. Een tweede probleem met toestemming in het digitale tijdperk is dat in sommige onderzoeken, zoals analyses van enorme gegevensopslagplaatsen, het onpraktisch zou zijn om geïnformeerde toestemming van alle deelnemers te verkrijgen. Ik bespreek deze en andere vragen over geïnformeerde toestemming in meer detail in paragraaf 6.6.1. Ondanks deze problemen moeten we echter niet vergeten dat geïnformeerde toestemming noch noodzakelijk noch voldoende is voor Respect voor personen.
Voor meer informatie over medisch onderzoek vóór geïnformeerde toestemming, zie Miller (2014) . Zie Manson and O'Neill (2007) voor een langdurige behandeling van informed consent. Zie ook de voorgestelde lezingen over geïnformeerde toestemming hieronder.
Harmonie van context zijn de schade die onderzoek kan veroorzaken, niet aan specifieke mensen, maar aan sociale instellingen. Dit concept is een beetje abstract, maar ik zal illustreren met een klassiek voorbeeld: de Wichita Jury-studie (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) -ook soms het Chicago Jury Project (Cornwell 2010) . In deze studie hebben onderzoekers van de University of Chicago, in het kader van een grotere studie van sociale aspecten van het rechtssysteem, in zes films van de jury in Wichita, Kansas, in het geheim opgenomen. De rechters en advocaten in de zaken hadden de opnames goedgekeurd en er was strikt toezicht op het proces. De juryleden wisten echter niet dat er opnames plaatsvonden. Toen de studie eenmaal was ontdekt, was er publieke verontwaardiging. Het ministerie van Justitie begon met een onderzoek naar de studie en de onderzoekers werden opgeroepen om te getuigen voor het Congres. Uiteindelijk heeft het Congres een nieuwe wet aangenomen die het illegaal maakt om in het geheim de juryberaadslaging te registreren.
De zorg van critici van de Wichita Jurystudie was niet het risico van schade aan de deelnemers; het was eerder het risico van schade aan de context van juryberaadslaging. Dat wil zeggen, mensen dachten dat als juryleden niet geloofden dat ze discussies voerden in een veilige en beschermde ruimte, het voor juryberaadslagingen in de toekomst moeilijker zou zijn om door te gaan. Naast juryberaadslaging zijn er andere specifieke sociale contexten die de maatschappij biedt met extra bescherming, zoals advocaat-cliëntrelaties en psychologische zorg (MacCarthy 2015) .
Het risico van schade aan de context en de verstoring van sociale systemen doen zich ook voor bij sommige veldexperimenten in de politicologie (Desposato 2016b) . Zie Zimmerman (2016) voor een voorbeeld van een meer contextgevoelige kosten-batenanalyse voor een veldexperiment in de politicologie.
Compensatie voor deelnemers is besproken in een aantal instellingen met betrekking tot onderzoek naar digitale leeftijden. Lanier (2014) stelt betalende deelnemers voor digitale sporen voor die ze genereren. Bederson and Quinn (2011) bespreken betalingen op online arbeidsmarkten. Ten slotte stelt Desposato (2016a) voor om deelnemers te betalen voor veldexperimenten. Hij wijst erop dat zelfs als deelnemers niet direct kunnen worden betaald, een gift kan worden gedaan aan een groep die namens hen werkt. In Encore hadden de onderzoekers bijvoorbeeld een donatie kunnen doen aan een groep die werkte om de toegang tot internet te ondersteunen.
Servicevoorwaarden moeten minder gewicht in de schaal leggen dan contracten die worden gesloten tussen gelijke partijen en dan wetten die zijn opgesteld door legitieme regeringen. Situaties waarin onderzoekers in het verleden servicecontractovereenkomsten hebben geschonden, hebben doorgaans betrekking op het gebruik van geautomatiseerde vragen om het gedrag van bedrijven te controleren (net als veldexperimenten om discriminatie te meten). Voor aanvullende discussies, zie Vaccaro et al. (2015) , Bruckman (2016a) en Bruckman (2016b) . Zie Soeller et al. (2016) Voor een voorbeeld van empirisch onderzoek dat de servicevoorwaarden Soeller et al. (2016) . Voor meer informatie over de mogelijke juridische problemen waarmee onderzoekers worden geconfronteerd als ze de servicevoorwaarden schenden, zie Sandvig and Karahalios (2016) .
Vanzelfsprekend is er enorm veel geschreven over consequentialisme en deontologie. Zie Zevenbergen et al. (2015) Voor een voorbeeld van hoe deze ethische kaders en andere kunnen worden gebruikt om te redeneren over onderzoek naar digitale leeftijden Zevenbergen et al. (2015) . Zie Baele (2013) voor een voorbeeld van hoe ze kunnen worden toegepast op veldexperimenten in de ontwikkelingseconomie.
Zie Pager (2007) en Riach and Rich (2004) voor meer informatie over auditstudies naar discriminatie. Niet alleen hebben deze studies geen geïnformeerde toestemming, ze omvatten ook misleiding zonder debriefing.
Zowel Desposato (2016a) als Humphreys (2015) bieden zonder toestemming toestemming voor veldexperimenten.
Sommers and Miller (2013) bespreken veel argumenten voor het niet debriefen van deelnemers na bedrog en stellen dat onderzoekers debriefing moeten verlaten
"Onder een zeer beperkte reeks omstandigheden, namelijk in veldonderzoek waarbij debriefing aanzienlijke praktische belemmeringen oplevert, maar onderzoekers zouden geen problemen hebben met de debriefing als ze dat zouden kunnen. Onderzoekers mogen niet de toelating krijgen om debriefing te onthouden om een naïeve deelnemerspool te behouden, zichzelf te beschermen tegen woede van deelnemers of deelnemers te beschermen tegen schade. "
Anderen beweren dat in sommige situaties als debriefing meer kwaad dan goed veroorzaakt, dit moet worden vermeden (Finn and Jakobsson 2007) . Debriefing is een geval waarin sommige onderzoekers prioriteit geven aan Respect voor Personen boven Weldadigheid, terwijl sommige onderzoekers het tegenovergestelde doen. Een mogelijke oplossing zou zijn om manieren te vinden om van debriefing een leerervaring voor de deelnemers te maken. Dat wil zeggen dat debriefing in plaats van debriefing te beschouwen als iets dat schade kan aanrichten, misschien ook iets is dat de deelnemers ten goede komt. Voor een voorbeeld van dit soort educatieve debriefing, zie Jagatic et al. (2007) . Psychologen hebben technieken ontwikkeld voor debriefing (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , en sommige hiervan kunnen nuttig worden toegepast op onderzoek naar digitale leeftijden. Humphreys (2015) biedt interessante ideeën over uitgestelde toestemming , die nauw gerelateerd is aan de debriefingstrategie die ik heb beschreven.
Het idee om een steekproef van deelnemers te vragen om hun toestemming is gerelateerd aan wat Humphreys (2015) afgeleide toestemming noemt.
Een ander idee met betrekking tot geïnformeerde toestemming is voorgesteld om een panel van mensen te bouwen die ermee instemmen om deel te nemen aan online experimenten (Crawford 2014) . Sommigen hebben betoogd dat dit panel een niet-willekeurige steekproef van mensen zou zijn. Maar hoofdstuk 3 (Vragen stellen) laat zien dat deze problemen mogelijk adresseerbaar zijn door middel van poststratificatie. Ook kan toestemming om deel te nemen aan het panel verschillende experimenten omvatten. Met andere woorden, deelnemers hoeven misschien niet individueel in te stemmen met elk experiment, een concept dat brede instemming wordt genoemd (Sheehan 2011) . Voor meer informatie over de verschillen tussen eenmalige toestemming en toestemming voor elke studie, evenals een mogelijke hybride, zie Hutton and Henderson (2015) .
De Netflix-prijs is niet uniek, maar illustreert een belangrijke technische eigenschap van datasets met gedetailleerde informatie over mensen, en biedt dus belangrijke lessen over de mogelijkheid van 'anonimisering' van moderne sociale datasets. Bestanden met veel stukjes informatie over elke persoon zijn waarschijnlijk schaars , in de zin die formeel is gedefinieerd in Narayanan and Shmatikov (2008) . Dat wil zeggen, voor elke record zijn er geen records die hetzelfde zijn, en in feite zijn er geen records die erg op elkaar lijken: elke persoon is ver weg van zijn naaste buur in de dataset. Je kunt je voorstellen dat de Netflix-gegevens misschien schaars zijn, want met ongeveer 20.000 films op een vijfsterrenschaal zijn er ongeveer \(6^{20,000}\) mogelijke waarden die elke persoon zou kunnen hebben (6 omdat, naast 1 tot 5 sterren, iemand heeft de film misschien helemaal niet beoordeeld). Dit aantal is zo groot dat het moeilijk te begrijpen is.
Sparsity heeft twee belangrijke implicaties. Ten eerste betekent dit dat pogingen om de gegevensset te 'anonimiseren' op basis van willekeurige verstoringen waarschijnlijk mislukken. Dat wil zeggen, zelfs als Netflix een aantal beoordelingen willekeurig zou aanpassen (wat ze deden), zou dit niet voldoende zijn omdat de verstoorde record nog steeds het dichtst mogelijke record is van de informatie die de aanvaller heeft. Ten tweede betekent de sparsity dat heridentificatie mogelijk is, zelfs als de aanvaller imperfecte of onpartijdige kennis heeft. Laten we ons bijvoorbeeld in de Netflix-gegevens voorstellen dat de aanvaller uw beoordelingen kent voor twee films en de datums waarop u die beoordelingen hebt gemaakt \(\pm\) 3 dagen; alleen die informatie alleen is voldoende om 68% van de mensen in de Netflix-gegevens eenduidig te identificeren. Als de aanvaller acht films kent die u een score van \(\pm\) 14 dagen hebt gegeven, dan is het mogelijk dat 99% van de records uniek geïdentificeerd kan worden in de gegevensset, zelfs als twee van deze bekende beoordelingen volledig fout zijn. Met andere woorden, sparsity is een fundamenteel probleem voor pogingen om gegevens te "anonimiseren", wat jammer is omdat de meeste moderne sociale datasets schaars zijn. Zie Narayanan and Shmatikov (2008) voor meer informatie over "anonimisering" van schaarse gegevens.
Telefoon meta-gegevens kunnen ook "anoniem" en niet gevoelig lijken, maar dat is niet het geval. Telefoon-metadata zijn identificeerbaar en gevoelig (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
In figuur 6.6 schetste ik een uitruil tussen het risico voor deelnemers en de voordelen voor de samenleving door het vrijgeven van de gegevens. Zie Reiter and Kinney (2011) voor een vergelijking tussen benaderingen met beperkte toegang (bijvoorbeeld een ommuurde tuin) en beperkte gegevensbenaderingen (bijvoorbeeld een vorm van "anonimisering" Reiter and Kinney (2011) . Voor een voorgesteld categorisatiesysteem van risiconiveaus van gegevens, zie Sweeney, Crosas, and Bar-Sinai (2015) . Zie Yakowitz (2011) voor een meer algemene discussie over het delen van gegevens.
Zie Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) en Goroff (2015) voor een meer gedetailleerde analyse van deze Brickell and Shmatikov (2008) tussen het risico en het nut van gegevens. Zie Daries et al. (2014) Om deze afweging toegepast op echte gegevens van massaal open online cursussen (MOOC's) te bekijken Daries et al. (2014) en Angiuli, Blitzstein, and Waldo (2015) .
Differentiële privacy biedt ook een alternatieve aanpak die zowel een laag risico voor de deelnemers kan combineren als een groot voordeel voor de samenleving; zie Dwork and Roth (2014) en Narayanan, Huey, and Felten (2016) .
Voor meer informatie over het concept van persoonlijk identificeerbare informatie (PII), dat centraal staat in veel van de regels over onderzoeksethiek, zie Narayanan and Shmatikov (2010) en Schwartz and Solove (2011) . Zie Ohm (2015) voor meer informatie over mogelijk gevoelige gegevens.
In deze sectie heb ik de koppeling van verschillende datasets beschreven als iets dat kan leiden tot informatierisico's. Het kan echter ook nieuwe mogelijkheden voor onderzoek creëren, zoals betoogd in Currie (2013) .
Desai, Ritchie, and Welpton (2016) voor meer informatie over de vijf kluizen naar Desai, Ritchie, and Welpton (2016) . Zie Brownstein, Cassa, and Mandl (2006) voor een voorbeeld van de manier waarop outputs kunnen worden geïdentificeerd, die laten zien hoe kaarten van prevalentie van ziekten kunnen worden geïdentificeerd. Dwork et al. (2017) overwegen ook aanvallen op geaggregeerde gegevens, zoals statistieken over hoeveel individuen een bepaalde ziekte hebben.
Vragen over het gebruik van gegevens en de uitgifte van gegevens roepen ook vragen op over het eigendom van gegevens. Zie voor meer informatie over eigendom van gegevens Evans (2011) en Pentland (2012) .
Warren and Brandeis (1890) is een historisch juridisch artikel over privacy en wordt het meest geassocieerd met het idee dat privacy een recht is om met rust gelaten te worden. Book-length behandelingen van privacy die ik zou aanbevelen omvatten Solove (2010) en Nissenbaum (2010) .
Zie Acquisti, Brandimarte, and Loewenstein (2015) voor een overzicht van empirisch onderzoek naar hoe mensen over privacy denken. Phelan, Lampe, and Resnick (2016) stellen een duale systeemtheorie voor - dat mensen soms focussen op intuïtieve zorgen en soms focussen op weloverwogen zorgen - om uit te leggen hoe mensen ogenschijnlijk tegenstrijdige uitspraken kunnen doen over privacy. Voor meer informatie over privacy in online-instellingen zoals Twitter, zie Neuhaus and Webmoor (2012) .
Het tijdschrift Science publiceerde een speciale sectie getiteld 'The End of Privacy', waarin de problemen rond privacy en informatierisico vanuit verschillende perspectieven worden behandeld; voor een samenvatting, zie Enserink and Chin (2015) . Calo (2011) biedt een kader voor het nadenken over de schade die voortvloeit uit schendingen van de privacy. Een vroeg voorbeeld van bezorgdheid over privacy aan het begin van het digitale tijdperk is Packard (1964) .
Een uitdaging bij het toepassen van de minimale risiconorm is dat het niet duidelijk is wiens dagelijks leven moet worden gebruikt voor benchmarking (National Research Council 2014) . Daklozen hebben bijvoorbeeld meer hinder in hun dagelijks leven. Maar dat betekent niet dat het ethisch is toegestaan om daklozen bloot te stellen aan onderzoek met een hoger risico. Om deze reden lijkt er een groeiende consensus te bestaan dat minimaal risico vergeleken moet worden met een algemene populatienorm en niet met een specifieke populatienorm . Hoewel ik het in het algemeen eens ben met het idee van een algemene populatienorm, denk ik dat voor grote online platforms zoals Facebook een specifieke populatienorm redelijk is. Dus, als ik Emotional Contagion overweeg, denk ik dat het redelijk is om te benchmarken met het dagelijkse risico op Facebook. Een specifieke-populatiestandaard is in dit geval veel gemakkelijker te evalueren en zal waarschijnlijk niet in strijd zijn met het rechtsbeginsel, dat beoogt te voorkomen dat de lasten van onderzoek ten onrechte op achtergestelde groepen (bijvoorbeeld gevangenen en wezen) falen.
Andere wetenschappers hebben ook gevraagd om meer papieren met ethische bijlagen (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) biedt ook praktische tips. Zook en collega's (2017) bieden 'tien eenvoudige regels voor verantwoord big data-onderzoek'.