L'éthique de la recherche a traditionnellement inclus des sujets tels que la fraude scientifique et l'attribution de crédit. Celles-ci sont discutées plus en détail dans On Being a Scientist par l' Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Ce chapitre est fortement influencé par la situation aux États-Unis. Pour en savoir plus sur les procédures d'examen éthique dans d'autres pays, voir les chapitres 6 à 9 de Desposato (2016b) . Pour un argument selon lequel les principes éthiques biomédicaux qui ont influencé ce chapitre sont excessivement américains, voir Holm (1995) . Pour un examen plus approfondi des commissions d'examen institutionnelles aux États-Unis, voir Stark (2012) . La revue PS: Political Science and Politics a tenu un symposium professionnel sur les relations entre les politologues et les IRB; voir Martinez-Ebers (2016) pour un résumé.
Le rapport Belmont et les règlements subséquents aux États-Unis ont tendance à faire une distinction entre la recherche et la pratique. Je n'ai pas fait une telle distinction dans ce chapitre parce que je pense que les principes et les cadres éthiques s'appliquent aux deux contextes. Pour plus d'informations sur cette distinction et les problèmes qu'elle introduit, voir Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) et Metcalf and Crawford (2016) .
Pour en savoir plus sur la surveillance de la recherche sur Facebook, voir Jackman and Kanerva (2016) . Pour des idées sur la supervision de la recherche dans les entreprises et les ONG, voir Calo (2013) , Polonetsky, Tene, and Jerome (2015) et Tene and Polonetsky (2016) .
En ce qui concerne l'utilisation des données de téléphonie mobile pour aider à lutter contre l'épidémie d'Ebola en 2014 en Afrique de l'Ouest (Wesolowski et al. 2014; McDonald 2016) , voir Mayer, Mutchler, and Mitchell (2016) . Pour des exemples de recherches antérieures sur la crise utilisant des données de téléphonie mobile, voir Bengtsson et al. (2011) et Lu, Bengtsson, and Holme (2012) , et pour en savoir plus sur l'éthique de la recherche liée à la crise, voir ( ??? ) .
Beaucoup de gens ont écrit sur la contagion émotionnelle. La revue Research Ethics a consacré tout son numéro en janvier 2016 à la discussion de l'expérience; Voir Hunter and Evans (2016) pour un aperçu. Les Actes des National Academics of Science ont publié deux articles sur l'expérience: Kahn, Vayena, and Mastroianni (2014) et Fiske and Hauser (2014) . D'autres pièces sur l'expérience incluent: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) , et ( ??? ) .
En termes de surveillance de masse, des aperçus généraux sont fournis dans Mayer-Schönberger (2009) et Marx (2016) . Pour un exemple concret de l'évolution des coûts de la surveillance, Bankston and Soltani (2013) estiment que le suivi d'un suspect criminel utilisant un téléphone mobile est environ 50 fois moins cher que la surveillance physique. Voir aussi Ajunwa, Crawford, and Schultz (2016) pour une discussion sur la surveillance au travail. Bell and Gemmell (2009) offrent une perspective plus optimiste sur l'autosurveillance.
En plus d'être en mesure de suivre les comportements observables qui sont publics ou partiellement publics (p. Ex. Goûts, liens et temps), les chercheurs peuvent de plus en plus déduire des choses que de nombreux participants considèrent comme privées. Par exemple, Michal Kosinski et ses collègues (2013) ont montré qu'ils pouvaient inférer des informations sensibles sur des personnes, telles que l'orientation sexuelle et l'utilisation de substances addictives, à partir de données de trace numériques apparemment ordinaires (Facebook aime). Cela peut sembler magique, mais l'approche que Kosinski et ses collègues ont utilisée - qui combine les traces numériques, les sondages et l'apprentissage supervisé - est en fait quelque chose dont je vous ai déjà parlé. Rappelez-vous que dans le chapitre 3 (Poser des questions). Je vous ai dit comment Joshua Blumenstock et ses collègues (2015) combiné des données d'enquête avec des données de téléphonie mobile pour estimer la pauvreté au Rwanda. Cette même approche, qui peut être utilisée pour mesurer efficacement la pauvreté dans un pays en développement, peut également être utilisée pour des inférences potentiellement violant la vie privée.
Pour plus d'informations sur les utilisations secondaires involontaires possibles des données sur la santé, voir O'Doherty et al. (2016) . Outre la possibilité d'utilisations secondaires involontaires, la création d'une base de données maîtrisée, même incomplète, pourrait avoir un effet dissuasif sur la vie sociale et politique si les gens ne voulaient plus lire certains documents ou discuter de certains sujets; voir Schauer (1978) et Penney (2016) .
Dans les situations où les règles se chevauchent, les chercheurs se livrent parfois à des «achats réglementaires» (Grimmelmann 2015; Nickerson and Hyde 2016) . En particulier, certains chercheurs qui souhaitent éviter la surveillance de la CISR peuvent former des partenariats avec des chercheurs qui ne sont pas couverts par les RIR (p. Ex. Des employés d'entreprises ou d'ONG) et demander à leurs collègues de recueillir et de désidentifier des données. Ensuite, le chercheur couvert par l'IRB peut analyser ces données anonymisées sans surveillance de l'IRB parce que la recherche n'est plus considérée comme une «recherche sur des sujets humains», du moins selon certaines interprétations des règles actuelles. Ce type d'évasion fiscale n'est probablement pas compatible avec une approche fondée sur des principes de l'éthique de la recherche.
En 2011, un effort a commencé à mettre à jour la règle commune, et ce processus a finalement été achevé en 2017 ( ??? ) . Pour plus d'informations sur ces efforts de mise à jour de la Règle commune, voir Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) et Metcalf (2016) .
L'approche classique fondée sur les principes de l'éthique biomédicale est celle de Beauchamp and Childress (2012) . Ils proposent que quatre principes principaux devraient guider l'éthique biomédicale: le respect de l'autonomie, la non-déficience, la bienfaisance et la justice. Le principe de non-maléficité pousse à s'abstenir de causer du tort à d'autres personnes. Ce concept est profondément lié à l'idée hippocratique de «ne pas nuire». En éthique de la recherche, ce principe est souvent combiné avec le principe de bienfaisance, mais voir le chapitre 5 de @ beauchamp_principles_2012 pour plus d'informations sur la distinction entre les deux. Pour une critique selon laquelle ces principes sont trop américains, voir Holm (1995) . Pour en savoir plus sur l'équilibre lorsque les principes entrent en conflit, voir Gillon (2015) .
Les quatre principes de ce chapitre ont également été proposés pour guider la surveillance éthique de la recherche effectuée dans les entreprises et les ONG (Polonetsky, Tene, and Jerome 2015) par des organismes appelés «Consumer Subject Review Boards» (CSRB) (Calo 2013) .
En plus de respecter l'autonomie, le rapport Belmont reconnaît également que tout être humain n'est pas capable de véritable autodétermination. Par exemple, les enfants, les personnes souffrant d'une maladie ou les personnes vivant dans des situations de restriction sévère de la liberté peuvent ne pas être en mesure d'agir en tant qu'individus pleinement autonomes, et ces personnes sont donc soumises à une protection supplémentaire.
Appliquer le principe du respect des personnes à l'ère numérique peut être difficile. Par exemple, dans la recherche sur l'âge numérique, il peut être difficile de fournir des protections supplémentaires aux personnes ayant une capacité réduite d'autodétermination, car les chercheurs en savent souvent très peu sur leurs participants. En outre, le consentement éclairé dans la recherche sociale numérique est un énorme défi. Dans certains cas, le consentement véritablement éclairé peut souffrir du paradoxe de la transparence (Nissenbaum 2011) , où l' information et la compréhension sont en conflit. Grosso modo, si les chercheurs fournissent des informations complètes sur la nature de la collecte de données, l'analyse des données et les pratiques de sécurité des données, il sera difficile à comprendre pour de nombreux participants. Mais si les chercheurs fournissent des informations compréhensibles, ils peuvent manquer de détails techniques importants. Dans la recherche médicale à l'ère analogique - le cadre dominant considéré par le rapport Belmont - on pourrait imaginer un médecin parlant individuellement avec chaque participant pour aider à résoudre le paradoxe de la transparence. Dans les études en ligne impliquant des milliers ou des millions de personnes, une telle approche face-à-face est impossible. Un deuxième problème avec le consentement à l'ère numérique est que dans certaines études, telles que les analyses de dépôts de données massifs, il serait impossible d'obtenir le consentement éclairé de tous les participants. J'aborde ces questions et d'autres questions sur le consentement éclairé plus en détail à la section 6.6.1. Malgré ces difficultés, nous devons toutefois nous rappeler que le consentement éclairé n'est ni nécessaire ni suffisant pour le respect des personnes.
Pour en savoir plus sur la recherche médicale avant le consentement éclairé, voir Miller (2014) . Pour un traitement complet du consentement éclairé, voir Manson and O'Neill (2007) . Voir aussi les lectures suggérées sur le consentement éclairé ci-dessous.
Les dommages au contexte sont les dommages que la recherche peut causer non pas à des personnes spécifiques mais à des contextes sociaux. Ce concept est un peu abstrait, mais je vais illustrer avec un exemple classique: l'étude du jury Wichita (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - parfois aussi appelé le Chicago Jury Project (Cornwell 2010) . Dans cette étude, des chercheurs de l'Université de Chicago, dans le cadre d'une étude plus large des aspects sociaux du système juridique, ont enregistré secrètement six délibérations de jury à Wichita, au Kansas. Les juges et les avocats dans les affaires avaient approuvé les enregistrements, et il y avait un contrôle strict du processus. Cependant, les jurés ne savaient pas que des enregistrements étaient en cours. Une fois l'étude a été découverte, il y avait l'indignation publique. Le ministère de la Justice a commencé une enquête sur l'étude, et les chercheurs ont été appelés à témoigner devant le Congrès. En fin de compte, le Congrès a adopté une nouvelle loi qui rend illégal d'enregistrer secrètement la délibération du jury.
La préoccupation des critiques de l'étude du jury Wichita n'était pas le risque de préjudice pour les participants; plutôt, c'était le risque de préjudice dans le contexte de la délibération du jury. Autrement dit, les gens pensaient que si les membres du jury ne croyaient pas avoir des discussions dans un espace protégé et protégé, il serait plus difficile pour les délibérations du jury de procéder à l'avenir. En plus de la délibération du jury, il existe d'autres contextes sociaux spécifiques que la société offre une protection supplémentaire, tels que les relations avocat-client et les soins psychologiques (MacCarthy 2015) .
Le risque de dommages au contexte et la perturbation des systèmes sociaux apparaissent également dans certaines expériences de terrain en sciences politiques (Desposato 2016b) . Pour un exemple de calcul coût-bénéfice plus sensible au contexte pour une expérience de terrain en science politique, voir Zimmerman (2016) .
La compensation pour les participants a été discutée dans un certain nombre de contextes liés à la recherche numérique. Lanier (2014) propose de payer les participants pour les traces numériques qu'ils génèrent. Bederson and Quinn (2011) discutent des paiements sur les marchés du travail en ligne. Enfin, Desposato (2016a) propose de payer les participants dans des expériences de terrain. Il souligne que même si les participants ne peuvent pas être payés directement, un don pourrait être fait à un groupe travaillant en leur nom. Par exemple, dans Encore, les chercheurs auraient pu faire un don à un groupe travaillant pour soutenir l'accès à Internet.
Les accords sur les termes de service devraient avoir moins de poids que les contrats négociés entre des parties égales et que les lois créées par des gouvernements légitimes. Les situations où les chercheurs ont violé les accords sur les termes de service dans le passé ont généralement impliqué l'utilisation de requêtes automatisées pour auditer le comportement des entreprises (tout comme les expériences sur le terrain pour mesurer la discrimination). Pour des discussions supplémentaires, voir Vaccaro et al. (2015) , Bruckman (2016a) et Bruckman (2016b) . Pour un exemple de recherche empirique Soeller et al. (2016) des termes de service, voir Soeller et al. (2016) . Pour plus d'informations sur les éventuels problèmes juridiques auxquels les chercheurs sont confrontés s'ils violent les conditions de service, voir Sandvig and Karahalios (2016) .
De toute évidence, énormément de choses ont été écrites sur le conséquentialisme et la déontologie. Pour un exemple de la façon dont ces cadres éthiques, et d'autres, peuvent être utilisés pour raisonner sur la recherche numérique-âge, voir Zevenbergen et al. (2015) . Pour un exemple de la façon dont ils peuvent être appliqués aux expériences de terrain en économie du développement, voir Baele (2013) .
Pour plus d'informations sur les études d'audit sur la discrimination, voir Pager (2007) et Riach and Rich (2004) . Non seulement ces études n'ont pas de consentement éclairé, mais elles impliquent également une tromperie sans débriefing.
Desposato (2016a) et Humphreys (2015) offrent des conseils sur les expériences de terrain sans consentement.
Sommers and Miller (2013) passent en revue de nombreux arguments en faveur de ne pas débriefer les participants après la tromperie, et soutiennent que les chercheurs devraient renoncer au débriefing
"Dans un cadre très étroit de circonstances, à savoir, dans la recherche sur le terrain dans laquelle débriefing pose des obstacles pratiques considérables, mais les chercheurs n'auraient aucun scrupule à débriefing si elles le pouvaient. Les chercheurs ne devraient pas être autorisés à renoncer au débriefing afin de préserver un bassin de participants naïfs, de se protéger de la colère des participants ou de protéger les participants de tout préjudice.
D'autres soutiennent que, dans certaines situations, si le debriefing cause plus de mal que de bien, il devrait être évité (Finn and Jakobsson 2007) . Le débriefing est un cas où certains chercheurs accordent la priorité au respect des personnes plutôt qu'à la bienfaisance, alors que certains chercheurs font le contraire. Une solution possible consisterait à trouver des moyens de faire du débriefing une expérience d'apprentissage pour les participants. Autrement dit, plutôt que de considérer le débriefing comme quelque chose qui peut causer du tort, peut-être que le debriefing peut aussi profiter aux participants. Pour un exemple de ce genre de débriefing éducatif, voir Jagatic et al. (2007) . Les psychologues ont développé des techniques de débriefing (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , et certaines d'entre elles peuvent être utilement appliquées à la recherche numérique. Humphreys (2015) propose des réflexions intéressantes sur le consentement différé , étroitement lié à la stratégie de débriefing que j'ai décrite.
L'idée de demander à un échantillon de participants leur consentement est liée à ce que Humphreys (2015) appelle le consentement inféré .
Une autre idée liée au consentement éclairé qui a été proposée est de constituer un panel de personnes qui acceptent de participer à des expériences en ligne (Crawford 2014) . Certains ont soutenu que ce panel serait un échantillon non aléatoire de personnes. Mais le chapitre 3 (Poser des questions) montre que ces problèmes sont potentiellement adressables en post-stratification. En outre, le consentement à être sur le panneau pourrait couvrir une variété d'expériences. En d'autres termes, les participants pourraient ne pas avoir besoin de consentir à chaque expérience individuellement, un concept appelé consentement général (Sheehan 2011) . Pour plus d'informations sur les différences entre le consentement ponctuel et le consentement pour chaque étude, ainsi qu'un éventuel hybride, voir Hutton and Henderson (2015) .
Loin d'être unique, le Prix Netflix illustre une propriété technique importante des ensembles de données qui contiennent des informations détaillées sur les personnes, et offre donc des leçons importantes sur la possibilité de «l'anonymisation» des ensembles de données sociales modernes. Les fichiers comportant de nombreux éléments d'information sur chaque personne risquent d'être épars , au sens formel défini par Narayanan and Shmatikov (2008) . C'est-à-dire, pour chaque enregistrement, il n'y a aucun enregistrement qui soit identique, et en fait il n'y a pas d'enregistrements qui soient très similaires: chaque personne est loin de son plus proche voisin dans l'ensemble de données. On peut imaginer que les données de Netflix pourraient être rares car avec environ 20 000 films sur une échelle de cinq étoiles, il y a environ \(6^{20,000}\) valeurs possibles que chaque personne pourrait avoir (6 parce que, en plus de 1 à 5 étoiles, quelqu'un pourrait ne pas avoir évalué le film du tout). Ce nombre est si grand, il est difficile à comprendre même.
Sparsity a deux implications principales. Premièrement, cela signifie que tenter d'anonymiser l'ensemble de données en fonction d'une perturbation aléatoire échouera probablement. C'est-à-dire que même si Netflix ajustait au hasard certaines évaluations (ce qu'elles ont fait), cela ne serait pas suffisant car l'enregistrement perturbé est toujours l'enregistrement le plus proche possible de l'information que possède l'attaquant. Deuxièmement, la rareté signifie que la ré-identification est possible même si l'attaquant a une connaissance imparfaite ou impartiale. Par exemple, dans les données Netflix, imaginons que l'attaquant connaisse vos notes pour deux films et les dates auxquelles vous avez fait ces évaluations \(\pm\) 3 jours; seulement cette information est suffisante pour identifier de façon unique 68% des personnes dans les données Netflix. Si l'attaquant connaît huit films que vous avez notés \(\pm\) 14 jours, alors même si deux de ces classements connus sont complètement faux, 99% des enregistrements peuvent être identifiés de manière unique dans l'ensemble de données. En d'autres termes, la rareté est un problème fondamental pour les efforts visant à «anonymiser» les données, ce qui est regrettable car la plupart des ensembles de données sociales modernes sont rares. Pour plus d'informations sur «l'anonymisation» des données éparses, voir Narayanan and Shmatikov (2008) .
Les méta-données téléphoniques peuvent également sembler «anonymes» et non sensibles, mais ce n'est pas le cas. Les méta-données téléphoniques sont identifiables et sensibles (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
Dans la figure 6.6, j'ai esquissé un compromis entre le risque pour les participants et les avantages pour la société de la publication des données. Pour une comparaison entre les approches à accès restreint (par exemple, un jardin clos) et les approches à données restreintes (par exemple, une forme d '«anonymisation»), voir Reiter and Kinney (2011) . Pour un système de catégorisation proposé des niveaux de risque, voir Sweeney, Crosas, and Bar-Sinai (2015) . Pour une discussion plus générale sur le partage des données, voir Yakowitz (2011) .
Pour une analyse plus détaillée de cet arbitrage entre le risque et l'utilité des données, voir Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) et Goroff (2015) . Pour voir ce compromis appliqué aux données réelles des cours en ligne massivement ouverts (MOOC), voir Daries et al. (2014) et Angiuli, Blitzstein, and Waldo (2015) .
La vie privée différentielle offre également une approche alternative qui peut combiner à la fois un faible risque pour les participants et un avantage important pour la société; voir Dwork and Roth (2014) et Narayanan, Huey, and Felten (2016) .
Pour en savoir plus sur le concept d'information d'identification personnelle (PII), qui est au cœur de nombreuses règles sur l'éthique de la recherche, voir Narayanan and Shmatikov (2010) et Schwartz and Solove (2011) . Pour plus d'informations sur toutes les données potentiellement sensibles, voir Ohm (2015) .
Dans cette section, j'ai décrit le lien entre différents ensembles de données comme quelque chose qui peut conduire à un risque informationnel. Cependant, cela peut également créer de nouvelles opportunités pour la recherche, comme le souligne Currie (2013) .
Pour plus d'informations sur les cinq coffres-forts, voir Desai, Ritchie, and Welpton (2016) . Pour un exemple de la manière dont les résultats peuvent être identifiés, voir Brownstein, Cassa, and Mandl (2006) , qui montre comment les cartes de la prévalence de la maladie peuvent être identifiées. Dwork et al. (2017) considèrent également les attaques contre des données agrégées, telles que les statistiques sur le nombre d'individus atteints d'une maladie donnée.
Les questions sur l'utilisation des données et la diffusion des données soulèvent également des questions sur la propriété des données. Pour plus d'informations sur la propriété des données, voir Evans (2011) et Pentland (2012) .
Warren and Brandeis (1890) est un article juridique important sur la vie privée et est le plus souvent associé à l'idée que la vie privée est un droit à être laissé seul. Les traitements de la vie privée que je recommanderais pour le Solove (2010) sont Solove (2010) et Nissenbaum (2010) .
Pour un examen de la recherche empirique sur la façon dont les gens pensent à la vie privée, voir Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) proposent une théorie du système dual - que les gens se concentrent parfois sur des préoccupations intuitives et se concentrent parfois sur des préoccupations - pour expliquer comment les gens peuvent faire des déclarations apparemment contradictoires sur la vie privée. Pour plus d'informations sur la protection de la vie privée dans les environnements en ligne tels que Twitter, voir Neuhaus and Webmoor (2012) .
La revue Science a publié une section spéciale intitulée «La fin de la vie privée», qui aborde les questions de la vie privée et le risque informationnel à partir d'une variété de points de vue différents; Pour un résumé, voir Enserink and Chin (2015) . Calo (2011) offre un cadre de réflexion sur les dommages qui découlent des violations de la vie privée. Packard (1964) est un des premiers exemples de préoccupations concernant la protection de la vie privée au tout début de l'ère numérique.
L'un des défis lorsqu'on essaie d'appliquer la norme de risque minimal est qu'on ne sait pas exactement à qui la vie quotidienne doit servir pour l'analyse comparative (National Research Council 2014) . Par exemple, les sans-abri ont des niveaux d'inconfort plus élevés dans leur vie quotidienne. Mais cela n'implique pas qu'il soit éthiquement permis d'exposer les sans-abri à des recherches à plus haut risque. Pour cette raison, il semble y avoir un consensus croissant sur le fait que le risque minimal doit être comparé à une norme de population générale, et non à une norme de population spécifique . Bien que je sois généralement d'accord avec l'idée d'une norme de population générale, je pense que pour les grandes plateformes en ligne comme Facebook, une norme de population spécifique est raisonnable. Ainsi, en considérant la contagion émotionnelle, je pense qu'il est raisonnable de comparer les risques quotidiens sur Facebook. Une norme spécifique à la population dans ce cas est beaucoup plus facile à évaluer et ne contredit pas le principe de la justice, qui cherche à éviter que la recherche ne pénalise injustement les groupes défavorisés (par exemple, les prisonniers et les orphelins).
D'autres chercheurs ont également demandé que d'autres documents incluent des annexes éthiques (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) offre également des conseils pratiques. Zook et ses collègues (2017) proposent «dix règles simples pour une recherche responsable des données volumineuses».