La recherche sociale à l'ère numérique a des caractéristiques différentes et soulève donc différentes questions éthiques.
À l'ère analogique, la plupart des recherches sociales avaient une échelle relativement limitée et fonctionnaient selon un ensemble de règles raisonnablement claires. La recherche sociale à l'ère numérique est différente. Les chercheurs - souvent en collaboration avec les entreprises et les gouvernements - ont plus de pouvoir sur les participants que par le passé, et les règles sur la façon dont ce pouvoir devrait être utilisé ne sont pas encore claires. Par pouvoir, je veux dire simplement la capacité de faire des choses aux gens sans leur consentement ou même leur conscience. Le genre de choses que les chercheurs peuvent faire pour les gens comprennent l'observation de leur comportement et leur inscription dans des expériences. À mesure que le pouvoir des chercheurs d'observer et de perturber augmente, il n'y a pas eu d'augmentation équivalente de clarté quant à la façon dont ce pouvoir devrait être utilisé. En fait, les chercheurs doivent décider comment exercer leur pouvoir en fonction de règles, de lois et de normes incompatibles et qui se chevauchent. Cette combinaison de puissantes capacités et de directives vagues crée des situations difficiles.
Un ensemble de pouvoirs que les chercheurs ont maintenant est la capacité d'observer le comportement des gens sans leur consentement ou leur sensibilisation. Les chercheurs pourraient, bien sûr, le faire par le passé, mais à l'ère numérique, l'échelle est complètement différente, un fait qui a été proclamé à plusieurs reprises par de nombreux fans de sources de données volumineuses. En particulier, si nous passons de l'échelle d'un étudiant ou d'un professeur à l'échelle d'une entreprise ou d'un gouvernement - des institutions avec lesquelles les chercheurs collaborent de plus en plus -, les problèmes éthiques potentiels deviennent complexes. Une métaphore que je pense aider les gens à visualiser l'idée de la surveillance de masse est le panoptique . Initialement proposé par Jeremy Bentham comme une architecture pour les prisons, le panopticon est un bâtiment circulaire avec des cellules construites autour d'une tour de guet centrale (figure 6.3). Celui qui occupe cette tour de guet peut observer le comportement de toutes les personnes dans les chambres sans être vu elle-même. La personne dans la tour de guet est donc une voyante invisible (Foucault 1995) . Pour certains défenseurs de la vie privée, l'ère numérique nous a fait déménager dans une prison panoptique où les entreprises technologiques et les gouvernements surveillent et recodent constamment notre comportement.
Pour pousser plus loin cette métaphore, lorsque de nombreux chercheurs en sciences sociales pensent à l'ère numérique, ils s'imaginent à l'intérieur de la tour de guet, observent le comportement et créent une base de données maîtrisée qui pourrait servir à toutes sortes de recherches passionnantes. Mais maintenant, plutôt que de vous imaginer dans la tour de guet, imaginez-vous dans l'une des cellules. Cette base de données master commence à ressembler à ce que Paul Ohm (2010) a appelé une base de données de ruine , qui pourrait être utilisée de manière contraire à l'éthique.
Certains lecteurs de ce livre ont la chance de vivre dans des pays où ils font confiance à leurs voyants invisibles pour utiliser leurs données de manière responsable et pour le protéger des adversaires. Les autres lecteurs n'ont pas cette chance, et je suis sûr que les problèmes soulevés par la surveillance de masse leur sont très clairs. Mais je crois que même pour les lecteurs chanceux, il existe encore une préoccupation importante soulevée par la surveillance de masse: utilisation secondaire imprévue . Autrement dit, une base de données créée dans un but précis, par exemple le ciblage d'annonces, pourrait un jour être utilisée à des fins très différentes. Un exemple horrible d'utilisation secondaire imprévue s'est produit pendant la Seconde Guerre mondiale, lorsque les données du recensement gouvernemental ont été utilisées pour faciliter le génocide qui se déroulait contre les Juifs, les Roms et d'autres (Seltzer and Anderson 2008) . Les statisticiens qui ont collecté les données pendant les périodes de paix ont presque certainement eu de bonnes intentions, et de nombreux citoyens leur ont fait confiance pour utiliser les données de manière responsable. Mais, quand le monde a changé - quand les nazis sont arrivés au pouvoir - ces données ont permis une utilisation secondaire qui n'a jamais été anticipée. Tout simplement, une fois qu'une base de données maîtresse existe, il est difficile d'anticiper qui peut y avoir accès et comment il sera utilisé. En fait, William Seltzer et Margo Anderson (2008) ont documenté 18 cas dans lesquels des systèmes de données démographiques ont été impliqués ou potentiellement impliqués dans des violations des droits de l'homme (tableau 6.1). De plus, comme le soulignent Seltzer et Anderson, cette liste est presque certainement sous-estimée parce que la plupart des abus se produisent en secret.
Endroit | Temps | Individus ou groupes ciblés | Système de données | Violation des droits de l'homme ou intention présumée de l'État |
---|---|---|---|---|
Australie | 19ème et début 20ème siècle | Aborigènes | Enregistrement de la population | Migration forcée, éléments du génocide |
Chine | 1966-1976 | Origine de mauvaise classe pendant la révolution culturelle | Enregistrement de la population | Migration forcée, incitation à la violence collective |
France | 1940-44 | les Juifs | Enregistrement de la population, recensements spéciaux | Migration forcée, génocide |
Allemagne | 1933-45 | Juifs, Roms et autres | Nombreux | Migration forcée, génocide |
Hongrie | 1945-46 | Les ressortissants allemands et ceux qui déclarent la langue maternelle allemande | Recensement de la population de 1941 | Migration forcée |
Pays-Bas | 1940-44 | Juifs et Roms | Systèmes d'enregistrement de la population | Migration forcée, génocide |
Norvège | 1845-1930 | Samis et Kvens | Les recensements de la population | Nettoyage ethnique |
Norvège | 1942-44 | les Juifs | Recensement spécial et registre de population proposé | Génocide |
Pologne | 1939-43 | les Juifs | Principalement des recensements spéciaux | Génocide |
Roumanie | 1941-43 | Juifs et Roms | Recensement de la population de 1941 | Migration forcée, génocide |
Rwanda | 1994 | Tutsi | Enregistrement de la population | Génocide |
Afrique du Sud | 1950-93 | Populations africaines et "colorées" | 1951 Recensement de la population et inscription de la population | Apartheid, privation des droits de vote |
États Unis | 19ème siècle | Amérindiens | Recensements spéciaux, registres de la population | Migration forcée |
États Unis | 1917 | Les présumés contrevenants à la loi | Recensement de 1910 | Enquête et poursuite de ceux qui évitent l'enregistrement |
États Unis | 1941-45 | Américains japonais | Recensement de 1940 | Migration forcée et internement |
États Unis | 2001-08 | Terroristes présumés | Enquêtes NCES et données administratives | Enquêtes et poursuites contre des terroristes nationaux et internationaux |
États Unis | 2003 | Arabes-Américains | Recensement de 2000 | Inconnu |
URSS | 1919-39 | Populations minoritaires | Divers recensements de la population | Migration forcée, punition d'autres crimes graves |
Les chercheurs en sciences sociales ordinaires sont très, très loin de toute participation à des violations des droits de la personne par l'utilisation secondaire. J'ai choisi d'en discuter, cependant, parce que je pense que cela vous aidera à comprendre comment certaines personnes pourraient réagir à votre travail. Revenons au projet Tastes, Ties et Time, à titre d'exemple. En fusionnant des données complètes et granulaires de Facebook avec des données complètes et granulaires de Harvard, les chercheurs ont créé une vision étonnamment riche de la vie sociale et culturelle des étudiants (Lewis et al. 2008) . Pour de nombreux chercheurs en sciences sociales, cela ressemble à la base de données principale, qui pourrait être utilisée pour de bon. Mais pour d'autres, cela ressemble au début de la base de données de ruine, qui pourrait être utilisée de manière contraire à l'éthique. En fait, c'est probablement un peu des deux.
En plus de la surveillance de masse, les chercheurs - de nouveau en collaboration avec les entreprises et les gouvernements - peuvent de plus en plus intervenir dans la vie des gens afin de créer des expériences contrôlées randomisées. Par exemple, dans Emotional Contagion, les chercheurs ont inscrit 700 000 personnes à une expérience sans leur consentement ou leur sensibilisation. Comme je l'ai décrit au chapitre 4, ce type de conscription secrète de participants à des expériences n'est pas rare et ne nécessite pas la coopération de grandes entreprises. En fait, au chapitre 4, je vous ai appris à le faire.
Face à ce pouvoir accru, les chercheurs sont soumis à des règles, des lois et des normes incohérentes et qui se chevauchent . Une source de cette incohérence est que les capacités de l'ère numérique changent plus rapidement que les règles, les lois et les normes. Par exemple, la règle commune (la réglementation régissant la plupart des recherches financées par le gouvernement aux États-Unis) n'a pas beaucoup changé depuis 1981. Une deuxième source d'incohérence est que les normes autour de concepts abstraits tels que la vie privée sont encore activement débattues par les chercheurs. , les décideurs et les activistes. Si les spécialistes dans ces domaines ne parviennent pas à un consensus uniforme, nous ne devrions pas nous attendre à ce que les chercheurs empiriques ou les participants le fassent. Une troisième et dernière source d'incohérence est que la recherche sur l'âge numérique est de plus en plus mélangée à d'autres contextes, ce qui entraîne des chevauchements de normes et de règles. Par exemple, Emotional Contagion était une collaboration entre un chercheur de données à Facebook et un professeur et un étudiant diplômé à Cornell. A cette époque, il était courant sur Facebook de réaliser de grandes expériences sans supervision par des tiers, à condition que les expériences respectent les conditions de service de Facebook. À Cornell, les normes et les règles sont très différentes; pratiquement toutes les expériences doivent être examinées par l'IRB Cornell. Alors, quel ensemble de règles devrait régir Emotional Contagion-Facebook ou Cornell? Lorsqu'il y a des règles, des lois et des normes incompatibles et qui se chevauchent, même des chercheurs bien intentionnés peuvent avoir du mal à faire ce qu'il faut faire. En fait, à cause de l'incohérence, il n'y a peut-être même pas une seule bonne chose.
Dans l'ensemble, ces deux caractéristiques - pouvoir croissant et manque d'accord sur la façon dont ce pouvoir devrait être utilisé - signifient que les chercheurs qui travaillent à l'ère numérique devront faire face à des défis éthiques dans un avenir prévisible. Heureusement, face à ces défis, il n'est pas nécessaire de recommencer à zéro. Au lieu de cela, les chercheurs peuvent tirer la sagesse des principes et des cadres éthiques précédemment développés, les sujets des deux prochaines sections.