A ética em pesquisa tem tradicionalmente incluído tópicos como fraude científica e alocação de crédito. Estes são discutidos em maiores detalhes em Sobre Ser Cientista pelo Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Este capítulo é fortemente influenciado pela situação nos Estados Unidos. Para mais informações sobre os procedimentos de revisão ética em outros países, consulte os capítulos 6-9 de Desposato (2016b) . Para um argumento de que os princípios éticos biomédicos que influenciaram este capítulo são excessivamente americanos, ver Holm (1995) . Para mais uma revisão histórica dos Institutional Review Boards nos Estados Unidos, ver Stark (2012) . A revista PS: Political Science and Politics realizou um simpósio profissional sobre a relação entre cientistas políticos e IRBs; veja Martinez-Ebers (2016) para um resumo.
O Relatório Belmont e os regulamentos subsequentes nos Estados Unidos tendem a fazer uma distinção entre pesquisa e prática. Eu não fiz essa distinção neste capítulo porque acho que os princípios éticos e as estruturas se aplicam a ambos os cenários. Para mais sobre essa distinção e os problemas que ela apresenta, ver Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) e Metcalf and Crawford (2016) .
Para mais informações sobre supervisão de pesquisa no Facebook, veja Jackman and Kanerva (2016) . Para ideias sobre supervisão de pesquisa em empresas e ONGs, ver Calo (2013) , Polonetsky, Tene, and Jerome (2015) , e Tene and Polonetsky (2016) .
Em relação ao uso de dados de telefonia móvel para ajudar a abordar o surto de Ebola em 2014 na África Ocidental (Wesolowski et al. 2014; McDonald 2016) , para mais informações sobre os riscos de privacidade de dados de telefonia móvel, consulte Mayer, Mutchler, and Mitchell (2016) . Para exemplos de pesquisas anteriores relacionadas a crises usando dados de telefones celulares, ver Bengtsson et al. (2011) e Lu, Bengtsson, and Holme (2012) , e para mais sobre a ética da pesquisa relacionada à crise, ver ( ??? ) .
Muitas pessoas escreveram sobre o Contágio Emocional. A revista Research Ethics dedicou toda a sua edição em janeiro de 2016 para discutir o experimento; veja Hunter and Evans (2016) para uma visão geral. O Proceedings of the National Academics of Science publicou duas peças sobre o experimento: Kahn, Vayena, and Mastroianni (2014) e Fiske and Hauser (2014) . Outras peças sobre o experimento incluem: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) e ( ??? ) .
Em termos de vigilância em massa, uma ampla visão geral é fornecida em Mayer-Schönberger (2009) e Marx (2016) . Para um exemplo concreto das mudanças nos custos da vigilância, Bankston and Soltani (2013) estimam que rastrear um suspeito criminal usando telefones celulares é cerca de 50 vezes mais barato do que usar a vigilância física. Veja também Ajunwa, Crawford, and Schultz (2016) para uma discussão sobre a vigilância no trabalho. Bell and Gemmell (2009) fornecem uma perspectiva mais otimista sobre a auto-vigilância.
Além de poder rastrear comportamentos observáveis públicos ou parcialmente públicos (por exemplo, gostos, gravatas e tempo), os pesquisadores podem cada vez mais inferir coisas que muitos participantes consideram privados. Por exemplo, Michal Kosinski e colaboradores (2013) mostraram que podiam inferir informações sensíveis sobre pessoas, como orientação sexual e uso de substâncias viciantes, a partir de dados de rastreamento digitais aparentemente comuns (curtidas no Facebook). Isso pode parecer mágico, mas a abordagem que Kosinski e seus colegas usaram - que combinou traços digitais, pesquisas e aprendizado supervisionado - é, na verdade, algo de que já falei. Lembre-se que no capítulo 3 (fazendo perguntas). Eu lhe contei como Joshua Blumenstock e colegas (2015) combinaram dados de pesquisas com dados de telefones celulares para estimar a pobreza em Ruanda. Essa mesma abordagem, que pode ser usada para medir eficientemente a pobreza em um país em desenvolvimento, também pode ser usada para inferências potencialmente violadoras da privacidade.
Para mais informações sobre possíveis usos secundários não intencionais de dados de saúde, veja O'Doherty et al. (2016) . Além do potencial para usos secundários não intencionais, a criação de até mesmo um banco de dados mestre incompleto poderia ter um efeito inibidor na vida social e política se as pessoas se tornassem relutantes em ler certos materiais ou discutir certos tópicos; veja Schauer (1978) e Penney (2016) .
Em situações com regras sobrepostas, o pesquisador às vezes se (Grimmelmann 2015; Nickerson and Hyde 2016) em “compras regulatórias” (Grimmelmann 2015; Nickerson and Hyde 2016) . Em particular, alguns pesquisadores que desejam evitar a supervisão do IRB podem formar parcerias com pesquisadores que não são cobertos por IRBs (por exemplo, pessoas em empresas ou ONGs), e que esses colegas coletem e desidentifiquem dados. Em seguida, o pesquisador coberto pelo IRB pode analisar esses dados não identificados sem a supervisão do IRB, porque a pesquisa não é mais considerada “pesquisa com seres humanos”, pelo menos de acordo com algumas interpretações das regras atuais. Esse tipo de evasão do IRB provavelmente não é consistente com uma abordagem baseada em princípios para a ética em pesquisa.
Em 2011, um esforço começou a atualizar a Regra Comum, e este processo foi finalmente concluído em 2017 ( ??? ) . Para obter mais informações sobre esses esforços para atualizar o Common Rule, consulte Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) e Metcalf (2016) .
A abordagem clássica baseada em princípios para a ética biomédica é a de Beauchamp and Childress (2012) . Eles propõem que quatro princípios principais devem guiar a ética biomédica: Respeito pela Autonomia, Não-maleficência, Beneficência e Justiça. O princípio da não-maleficência exige que se abstenha de causar dano a outras pessoas. Este conceito está profundamente ligado à idéia hipocrática de “não prejudique”. Na ética da pesquisa, este princípio é frequentemente combinado com o princípio da Beneficência, mas veja o capítulo 5 do @beauchamp_principles_2012 para mais informações sobre a distinção entre os dois. Para uma crítica de que esses princípios são excessivamente americanos, ver Holm (1995) . Para mais informações sobre equilíbrio quando os princípios entram em conflito, veja Gillon (2015) .
Os quatro princípios deste capítulo também foram propostos para orientar a supervisão ética da pesquisa realizada em empresas e ONGs (Polonetsky, Tene, and Jerome 2015) por meio de órgãos denominados “Consumer Subject Review Boards” (CSRBs) (Calo 2013) .
Além de respeitar a autonomia, o Relatório Belmont também reconhece que nem todo ser humano é capaz de verdadeira autodeterminação. Por exemplo, crianças, pessoas que sofrem de doenças ou pessoas que vivem em situações de liberdade severamente restrita podem não ser capazes de agir como indivíduos totalmente autônomos, e essas pessoas estão, portanto, sujeitas a proteção extra.
Aplicar o princípio do Respeito pelas Pessoas na era digital pode ser um desafio. Por exemplo, na pesquisa sobre a era digital, pode ser difícil fornecer proteções extras para pessoas com capacidade reduzida de autodeterminação, porque os pesquisadores geralmente sabem muito pouco sobre seus participantes. Além disso, o consentimento informado na pesquisa social da era digital é um enorme desafio. Em alguns casos, o consentimento verdadeiramente informado pode sofrer com o paradoxo da transparência (Nissenbaum 2011) , onde a informação e a compreensão estão em conflito. Grosso modo, se os pesquisadores fornecerem informações completas sobre a natureza da coleta de dados, análise de dados e práticas de segurança de dados, será difícil para muitos participantes compreenderem. Mas, se os pesquisadores fornecerem informações compreensíveis, poderão faltar detalhes técnicos importantes. Na pesquisa médica na era analógica - o cenário dominante considerado pelo Relatório Belmont -, pode-se imaginar um médico falando individualmente com cada participante para ajudar a resolver o paradoxo da transparência. Em estudos on-line envolvendo milhares ou milhões de pessoas, essa abordagem cara a cara é impossível. Um segundo problema com o consentimento na era digital é que, em alguns estudos, como análises de repositórios de dados massivos, seria impraticável obter o consentimento informado de todos os participantes. Eu discuto estas e outras questões sobre o consentimento informado em mais detalhes na seção 6.6.1. Apesar dessas dificuldades, porém, devemos lembrar que o consentimento informado não é necessário nem suficiente para o Respeito pelas Pessoas.
Para mais informações sobre pesquisa médica antes do consentimento informado, veja Miller (2014) . Para um tratamento do consentimento livre e esclarecido pelo livro, ver Manson and O'Neill (2007) . Veja também as leituras sugeridas sobre o consentimento informado abaixo.
Danos ao contexto são os danos que a pesquisa pode causar não a pessoas específicas, mas a contextos sociais. Esse conceito é um pouco abstrato, mas ilustrarei com um exemplo clássico: o Estudo do Júri de Wichita (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) - também chamado de Chicago Jury Project (Cornwell 2010) . Neste estudo, pesquisadores da Universidade de Chicago, como parte de um estudo maior dos aspectos sociais do sistema legal, registraram secretamente seis deliberações do júri em Wichita, Kansas. Os juízes e advogados dos casos aprovaram as gravações e houve uma supervisão rigorosa do processo. No entanto, os jurados não sabiam que as gravações estavam ocorrendo. Uma vez que o estudo foi descoberto, houve indignação pública. O Departamento de Justiça iniciou uma investigação do estudo e os pesquisadores foram chamados para testemunhar diante do Congresso. Por fim, o Congresso aprovou uma nova lei que torna ilegal registrar secretamente a deliberação do júri.
A preocupação dos críticos do Estudo do Júri de Wichita não foi o risco de danos aos participantes; antes, era o risco de danos ao contexto da deliberação do júri. Ou seja, as pessoas pensavam que, se os membros do júri não acreditassem que estavam tendo discussões em um espaço seguro e protegido, seria mais difícil que as deliberações do júri prosseguissem no futuro. Além da deliberação do júri, existem outros contextos sociais específicos que a sociedade oferece proteção extra, como relacionamentos entre advogado e cliente e atendimento psicológico (MacCarthy 2015) .
O risco de danos ao contexto e a ruptura dos sistemas sociais também surgem em alguns experimentos de campo na ciência política (Desposato 2016b) . Para um exemplo de um cálculo de custo-benefício mais sensível ao contexto para um experimento de campo em ciência política, ver Zimmerman (2016) .
A remuneração dos participantes foi discutida em vários contextos relacionados à pesquisa sobre a era digital. Lanier (2014) propõe o pagamento de participantes por traços digitais gerados por eles. Bederson and Quinn (2011) discutem pagamentos em mercados de trabalho online. Por fim, Desposato (2016a) propõe o pagamento de participantes em experimentos de campo. Ele ressalta que, mesmo que os participantes não possam ser pagos diretamente, uma doação pode ser feita para um grupo que trabalha em seu nome. Por exemplo, no Encore, os pesquisadores poderiam ter feito uma doação para um grupo que trabalha para apoiar o acesso à Internet.
Os acordos de termos de serviço devem ter menos peso que os contratos negociados entre partes iguais e que as leis criadas por governos legítimos. Situações em que os pesquisadores violaram acordos de termos de serviço no passado geralmente envolviam o uso de consultas automáticas para auditar o comportamento das empresas (assim como os experimentos de campo para medir a discriminação). Para discussões adicionais, ver Vaccaro et al. (2015) , Bruckman (2016a) e Bruckman (2016b) . Para um exemplo de pesquisa empírica que discute termos de serviço, veja Soeller et al. (2016) . Para mais sobre os possíveis problemas legais que os pesquisadores enfrentam se violarem os termos de serviço, consulte Sandvig and Karahalios (2016) .
Obviamente, uma quantidade enorme foi escrita sobre consequencialismo e deontologia. Para um exemplo de como essas estruturas éticas, e outras, podem ser usadas para raciocinar sobre a pesquisa da era digital, veja Zevenbergen et al. (2015) . Para um exemplo de como eles podem ser aplicados a experimentos de campo em economia do desenvolvimento, veja Baele (2013) .
Para mais informações sobre estudos de discriminação, ver Pager (2007) e Riach and Rich (2004) . Esses estudos não só não têm consentimento informado, mas também envolvem engano sem debriefing.
Tanto Desposato (2016a) quanto Humphreys (2015) oferecem conselhos sobre experimentos de campo sem consentimento.
Sommers and Miller (2013) revisam muitos argumentos em favor de não interrogar os participantes após o engano, e argumentam que os pesquisadores devem renunciar ao debriefing
“Sob um conjunto muito restrito de circunstâncias, a saber, em pesquisa de campo em que o debriefing apresenta consideráveis barreiras práticas, mas os pesquisadores não teriam dúvidas quanto ao debriefing se pudessem. Não se deve permitir que os pesquisadores renunciem ao interrogatório a fim de preservar um grupo ingênuo de participantes, proteger-se da raiva dos participantes ou proteger os participantes de danos. ”
Outros argumentam que, em algumas situações, se o debriefing causa mais mal do que bem, deve ser evitado (Finn and Jakobsson 2007) . Discussão é um caso em que alguns pesquisadores priorizam Respeito por Pessoas sobre Beneficência, enquanto alguns pesquisadores fazem o oposto. Uma possível solução seria encontrar maneiras de tornar o interrogatório uma experiência de aprendizado para os participantes. Isto é, ao invés de pensar em debriefing como algo que pode causar danos, talvez o interrogatório também possa ser algo que beneficia os participantes. Para um exemplo desse tipo de debriefing educacional, ver Jagatic et al. (2007) . Os psicólogos desenvolveram técnicas para o debriefing (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , e algumas delas podem ser aplicadas de maneira útil à pesquisa sobre a era digital. Humphreys (2015) oferece pensamentos interessantes sobre o consentimento diferido , que está intimamente relacionado à estratégia de debriefing que descrevi.
A ideia de pedir uma amostra de participantes para seu consentimento está relacionada ao que Humphreys (2015) chama de consentimento inferido .
Outra ideia relacionada ao consentimento informado que foi proposto é criar um painel de pessoas que concordem em participar de experimentos on-line (Crawford 2014) . Alguns argumentaram que esse painel seria uma amostra não aleatória de pessoas. Mas o capítulo 3 (Fazendo perguntas) mostra que esses problemas são potencialmente endereçáveis usando pós-estratificação. Além disso, o consentimento para participar do painel pode abranger uma variedade de experimentos. Em outras palavras, os participantes podem não precisar consentir individualmente em cada experimento, um conceito chamado consentimento amplo (Sheehan 2011) . Para mais informações sobre as diferenças entre o consentimento único e o consentimento para cada estudo, bem como um possível híbrido, consulte Hutton and Henderson (2015) .
Longe de ser único, o Prêmio Netflix ilustra uma importante propriedade técnica de conjuntos de dados que contêm informações detalhadas sobre pessoas e, portanto, oferece lições importantes sobre a possibilidade de “anonimização” de conjuntos de dados sociais modernos. Arquivos com muitas informações sobre cada pessoa provavelmente são escassos , no sentido definido formalmente em Narayanan and Shmatikov (2008) . Ou seja, para cada registro, não há registros que sejam os mesmos e, de fato, não há registros que sejam muito semelhantes: cada pessoa está longe de seu vizinho mais próximo no conjunto de dados. Pode-se imaginar que os dados do Netflix podem ser escassos porque com cerca de 20.000 filmes em uma escala de cinco estrelas, existem cerca de \(6^{20,000}\) valores possíveis que cada pessoa poderia ter (6 porque, além de 1 para 5 estrelas, alguém pode não ter avaliado o filme em tudo). Este número é tão grande que é difícil de compreender.
A esparsidade tem duas implicações principais. Primeiro, isso significa que a tentativa de “anonimizar” o conjunto de dados com base na perturbação aleatória provavelmente falhará. Ou seja, mesmo que o Netflix ajustasse aleatoriamente algumas das classificações (o que elas fizeram), isso não seria suficiente porque o registro perturbado ainda é o registro mais próximo possível das informações que o invasor tem. Em segundo lugar, a dispersão significa que a reidentificação é possível mesmo que o invasor tenha conhecimento imperfeito ou imparcial. Por exemplo, nos dados do Netflix, vamos imaginar que o invasor saiba suas avaliações de dois filmes e as datas em que você fez essas avaliações \(\pm\) três dias; apenas essa informação é suficiente para identificar exclusivamente 68% das pessoas nos dados da Netflix. Se o invasor souber oito filmes que você classificou como \(\pm\) 14 dias, mesmo que duas dessas classificações conhecidas estejam completamente erradas, 99% dos registros poderão ser identificados exclusivamente no conjunto de dados. Em outras palavras, a escassez é um problema fundamental para os esforços de "anonimizar" os dados, o que é uma pena, porque a maioria dos conjuntos de dados sociais modernos é esparsa. Para mais informações sobre “anonimização” de dados esparsos, veja Narayanan and Shmatikov (2008) .
Metadados telefônicos também podem parecer “anônimos” e não sensíveis, mas não é esse o caso. Metadados telefônicos são identificáveis e sensíveis (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
Na figura 6.6, eu esbocei um trade-off entre risco para os participantes e benefícios para a sociedade da liberação de dados. Para uma comparação entre abordagens de acesso restrito (por exemplo, um jardim murado) e abordagens de dados restritas (por exemplo, alguma forma de “anonimização”), ver Reiter and Kinney (2011) . Para um sistema de categorização proposto de níveis de risco de dados, consulte Sweeney, Crosas, and Bar-Sinai (2015) . Para uma discussão mais geral sobre compartilhamento de dados, ver Yakowitz (2011) .
Para uma análise mais detalhada deste trade-off entre o risco e a utilidade dos dados, ver Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) e Goroff (2015) . Para ver esse trade-off aplicado a dados reais de cursos on-line massivamente abertos (MOOCs), ver Daries et al. (2014) e Angiuli, Blitzstein, and Waldo (2015) .
A privacidade diferencial também oferece uma abordagem alternativa que pode combinar baixo risco aos participantes e alto benefício para a sociedade; veja Dwork and Roth (2014) e Narayanan, Huey, and Felten (2016) .
Para mais informações sobre o conceito de identificação pessoal de informações (PII), que é central para muitas das regras sobre ética em pesquisa, ver Narayanan and Shmatikov (2010) e Schwartz and Solove (2011) . Para mais informações sobre todos os dados potencialmente sensíveis, veja Ohm (2015) .
Nesta seção, retratei a ligação de diferentes conjuntos de dados como algo que pode levar ao risco informacional. No entanto, também pode criar novas oportunidades de pesquisa, como argumentado em Currie (2013) .
Para mais informações sobre os cinco cofres, consulte Desai, Ritchie, and Welpton (2016) . Para um exemplo de como os resultados podem ser identificados, ver Brownstein, Cassa, and Mandl (2006) , que mostra como os mapas de prevalência de doenças podem ser identificados. Dwork et al. (2017) também consideram ataques contra dados agregados, como estatísticas sobre quantos indivíduos têm uma determinada doença.
Perguntas sobre o uso de dados e a liberação de dados também levantam questões sobre a propriedade de dados. Para mais, sobre propriedade de dados, veja Evans (2011) e Pentland (2012) .
Warren and Brandeis (1890) é um artigo legal sobre privacidade e está mais associado à ideia de que a privacidade é um direito a ser deixado em paz. Tratamentos de privacidade que eu recomendaria incluem Solove (2010) e Nissenbaum (2010) .
Para uma revisão da pesquisa empírica sobre como as pessoas pensam sobre privacidade, veja Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) propõem uma teoria de sistema dual - que as pessoas às vezes se concentram em preocupações intuitivas e às vezes se concentram em preocupações consideradas - para explicar como as pessoas podem fazer declarações aparentemente contraditórias sobre privacidade. Para mais informações sobre a privacidade em ambientes on-line, como o Twitter, consulte Neuhaus and Webmoor (2012) .
A revista Science publicou uma seção especial intitulada “O fim da privacidade”, que aborda as questões de privacidade e risco informacional sob uma variedade de perspectivas diferentes; para um resumo, ver Enserink and Chin (2015) . Calo (2011) oferece uma estrutura para pensar sobre os danos decorrentes de violações de privacidade. Um dos primeiros exemplos de preocupações com a privacidade nos primórdios da era digital é Packard (1964) .
Um desafio ao tentar aplicar o padrão de risco mínimo é que não está claro qual o seu dia a dia a ser utilizado para o benchmarking (National Research Council 2014) . Por exemplo, pessoas sem-teto têm níveis mais altos de desconforto em suas vidas diárias. Mas isso não implica que seja eticamente permissível expor pessoas desabrigadas a pesquisas de alto risco. Por essa razão, parece haver um consenso crescente de que o risco mínimo deve ser comparado com um padrão de população geral , não com um padrão de população específica . Embora eu geralmente concorde com a ideia de um padrão de população geral, acho que para grandes plataformas on-line como o Facebook, um padrão de população específica é razoável. Assim, ao considerar o Contágio Emocional, acho razoável comparar os riscos diários no Facebook. Um padrão populacional específico, neste caso, é muito mais fácil de avaliar e é improvável que entre em conflito com o princípio da Justiça, que procura evitar que os ônus da pesquisa não sejam injustos em grupos desfavorecidos (por exemplo, prisioneiros e órfãos).
Outros estudiosos também pediram mais artigos para incluir apêndices éticos (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) também oferece dicas práticas. Zook e colegas (2017) oferecem “dez regras simples para pesquisa responsável de big data”.