Esta secção destina-se a ser usado como uma referência, em vez de ser lido como uma narrativa.
ética em pesquisa tem tradicionalmente também incluiu temas como fraude científica e alocação de crédito. Estes tópicos são discutidos em maior detalhe em Engineering (2009) .
Este capítulo é fortemente moldada pela situação nos Estados Unidos. Para mais informações sobre os procedimentos de exame ético de outros países, consulte os Capítulos 6, 7, 8 e 9 de Desposato (2016b) . Para um argumento que os princípios éticos biomédicas que influenciaram neste capítulo são excessivamente americano, ver Holm (1995) . Para mais revisão histórica de Conselhos de Revisão Institucional em os EUA, consulte Stark (2012) .
O Relatório Belmont e regulamentação posterior em os EUA fizeram uma distinção entre pesquisa e prática. Esta distinção tem sido criticado posteriormente (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . Eu não fazer essa distinção neste capítulo porque eu acho que os princípios éticos e os quadros aplicam-se a ambas as configurações. Para saber mais sobre a supervisão de pesquisa no Facebook, veja Jackman and Kanerva (2016) . Para uma proposta de supervisão de pesquisa em empresas e ONGs, consulte Polonetsky, Tene, and Jerome (2015) e Tene and Polonetsky (2016) .
Para saber mais sobre o caso do surto de Ebola em 2014, ver McDonald (2016) , e para mais informações sobre os riscos de privacidade de dados de telefonia móvel, consulte Mayer, Mutchler, and Mitchell (2016) . Para um exemplo de investigação relacionada com a crise usando dados de telefonia móvel, consulte Bengtsson et al. (2011) e Lu, Bengtsson, and Holme (2012) .
Muitas pessoas têm escrito sobre Contagion emocional. A revista de Ética em Pesquisa dedicou toda a sua emissão em janeiro 2016 discutindo a experiência; ver Hunter and Evans (2016) para uma visão geral. Os trabalhos do Academics Nacionais de Ciência publicou duas peças sobre o experimento: Kahn, Vayena, and Mastroianni (2014) e Fiske and Hauser (2014) . Outras peças sobre o experimento incluem: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .
Para mais informações sobre Encore, ver Jones and Feamster (2015) .
Em termos de vigilância em massa, visões gerais gerais são fornecidos em Mayer-Schönberger (2009) e Marx (2016) . Para um exemplo concreto dos custos de mudança da vigilância, Bankston and Soltani (2013) estima que o acompanhamento de um suspeito de crime usando telefones celulares é cerca de 50 vezes mais barato do que usar vigilância física. Bell and Gemmell (2009) fornece uma perspectiva mais otimista sobre a auto- vigilância. Além de ser capaz de rastrear o comportamento observável que é público ou parcialmente pública (por exemplo, Taste, Ties, and Time), os pesquisadores podem inferir cada vez mais coisas que muitos participantes consideram ser privado. Por exemplo, Michal Kosinski e seus colegas mostraram que poderiam inferir informações sensíveis sobre as pessoas, tais como orientação sexual e uso de substâncias que causam dependência de dados de rastreamento digitais aparentemente comuns (Facebook Likes) (Kosinski, Stillwell, and Graepel 2013) . Isto pode parecer mágica, mas a abordagem Kosinski e seus colegas usaram-que combina traços digitais, pesquisas, e supervisionado de ensino-é realmente algo que eu já lhe falei. Lembre-se que no capítulo 3 (Fazer perguntas) Eu disse-lhe como Josh Blumenstock e seus colegas (2015) dados de pesquisa combinados com dados de telefones celulares para estimar a pobreza no Ruanda. Esta mesma abordagem exata, que pode ser usado para medir a eficiência da pobreza em um país em desenvolvimento, também pode ser usado para inferências potencialmente privacidade violar.
Leis e normas inconsistentes pode levar a pesquisa que não respeitar os desejos dos participantes, e isso pode levar a "shopping regulamentar" por pesquisadores (Grimmelmann 2015; Nickerson and Hyde 2016) . Em particular, alguns pesquisadores que desejam evitar a supervisão IRB ter parceiros que não são abrangidos pelo IRB (por exemplo, as pessoas em empresas ou ONGs) recolher e de-identificar dados. Em seguida, os pesquisadores podem analisar esses dados identificou-de sem supervisão IRB, pelo menos, de acordo com algumas interpretações de normas vigentes. Este tipo de evasão IRB parece ser incompatível com uma abordagem baseada em princípios.
Para saber mais sobre as idéias inconsistentes e heterogêneas que as pessoas têm sobre dados de saúde, consulte Fiore-Gartland and Neff (2015) . Para mais informações sobre o problema que a heterogeneidade cria de Ética em Pesquisa decisões ver Meyer (2013) .
Uma diferença entre a idade analógico e pesquisa era digital é que, na era digital interação de pesquisa com os participantes é mais distante. Essas interações ocorrem frequentemente através de um intermediário, como uma empresa, e não há normalmente uma grande físico e sócio-distância entre pesquisadores e participantes. Essa interação distante faz algumas coisas que são fáceis na pesquisa era analógica difícil na pesquisa era digital, tais como triagem de participantes que necessitam de protecção extra, detecção de eventos adversos e remediar danos caso ocorra. Por exemplo, vamos contrastar contágio emocional com um experimento de laboratório hipotético sobre o mesmo tema. No experimento de laboratório, os pesquisadores poderiam filtrar qualquer um que chega ao laboratório mostrando sinais óbvios de aflição emocional. Além disso, se o experimento de laboratório criado um evento adverso, os pesquisadores iria vê-lo, prestar serviços para remediar os danos e, em seguida, fazer ajustes ao protocolo experimental para evitar danos futuros. A natureza distante de interação no experimento Contagion emocional real faz com que cada um desses passos simples e sensatas extremamente difícil. Além disso, eu suspeito que a distância entre pesquisadores e participantes faz investigadores menos sensível às preocupações dos seus participantes.
Outras fontes de normas e leis inconsistentes. Parte dessa inconsistência vem do fato de que esta investigação está acontecendo em todo o mundo. Por exemplo, Encore envolveu pessoas de todo o mundo, e, portanto, pode ser sujeito à proteção de dados e leis de privacidade de muitos países diferentes. E se as normas que regem os pedidos da Web de terceiros (o Encore estava fazendo) são diferentes na Alemanha, Estados Unidos, Quênia e China? E se as normas não são ainda consistentes dentro de um único país? Uma segunda fonte de inconsistência vem de colaborações entre pesquisadores de universidades e empresas; por exemplo, Emotional Contagion foi uma colaboração entre um cientista de dados no Facebook e um estudante professor e pós-graduação na Cornell. No Facebook correndo grandes experimentos é de rotina e, na época, não requer qualquer de terceiros revisão ética. Em Cornell as normas e regras são bastante diferentes; praticamente todos os experimentos devem ser revistos pela Cornell IRB. Então, qual conjunto de regras deve governar Emotional Contagion-do Facebook ou Cornell?
Para saber mais sobre esforços para rever a regra comum, ver Evans (2013) , Council (2014) , Metcalf (2016) , e Hudson and Collins (2015) .
A abordagem baseada em princípios clássicos de ética biomédica é Beauchamp and Childress (2012) . Eles propõem que quatro princípios devem orientar ética biomédica: respeito à autonomia, não maleficência, beneficência e justiça. O princípio da não-maleficência impele a se abster de causar danos a outras pessoas. Este conceito está profundamente ligado à ideia de Hipócrates de "não prejudicar". Em ética em pesquisa, este princípio é muitas vezes combinado com o princípio da beneficência, mas ver Beauchamp and Childress (2012) (Capítulo 5) para mais informações sobre a distinção entre os dois . Para uma crítica que estes princípios são excessivamente americano, ver Holm (1995) . Para mais informações sobre balanceamento quando o conflito princípios, consulte Gillon (2015) .
Os quatro princípios deste capítulo também têm sido propostos para orientar a supervisão ética para a investigação acontecendo em empresas e ONGs (Polonetsky, Tene, and Jerome 2015) através de organismos chamados "Consumer Assunto do comentário boards" (CSRBs) (Calo 2013) .
Além de respeitar a autonomia, o Relatório Belmont, também reconhece que nem todo humano é capaz de verdadeira auto-determinação. Por exemplo, crianças, pessoas que sofrem de doença, ou as pessoas que vivem em situação de liberdade severamente restringido pode não ser capaz de agir como indivíduos totalmente autónomas, e essas pessoas estão, portanto, sujeitas a uma protecção extra.
Aplicando o princípio do respeito pelas pessoas na era digital pode ser um desafio. Por exemplo, na pesquisa era digital, pode ser difícil para fornecer proteção extra para as pessoas com capacidade reduzida de autodeterminação porque os pesquisadores muitas vezes sabem muito pouco sobre os seus participantes. Além disso, o consentimento informado na pesquisa social era digital é um desafio enorme. Em alguns casos, o consentimento verdadeiramente informado pode sofrer o paradoxo a transparência (Nissenbaum 2011) , onde a informação e compreensão estão em conflito. Grosso modo, se os pesquisadores fornecer informações completas sobre a natureza da coleta de dados, análise de dados e práticas de segurança de dados, será difícil para muitos participantes de compreender. Mas, se os pesquisadores fornecer informações compreensíveis, que pode faltar informação técnica importante. Na pesquisa médica na era-a definição dominar analógico considerado pelo Relatório Belmont-se poderia imaginar um médico falando individualmente com cada participante para ajudar a resolver o paradoxo transparência. Em estudos on-line que envolvem milhares ou milhões de pessoas, uma tal abordagem face-a-face é impossível. Um segundo problema com o consentimento na era digital é que, em alguns estudos, como a análise de repositórios de dados em massa, seria impraticável para obter o consentimento informado de todos os participantes. I discutir estas e outras perguntas sobre o consentimento informado com mais detalhes na Seção 6.6.1. Apesar destas dificuldades, no entanto, devemos lembrar que o consentimento informado não é necessária nem suficiente para Respeito pelas Pessoas.
Para saber mais sobre a pesquisa médica antes de consentimento informado, ver Miller (2014) . Para um tratamento de livro de comprimento de consentimento informado, consulte Manson and O'Neill (2007) . Veja também as leituras sugeridas sobre o consentimento informado abaixo.
Harms para o contexto é o dano que a pesquisa pode causar não a pessoas específicas, mas para ambientes sociais. Este conceito é um pouco abstrato, mas vou ilustrar com dois exemplos: um analógico e um digital.
Um exemplo clássico de danos ao contexto vem do estudo Wichita Júri [ Vaughan (1967) ; Katz, Capron, and Glass (1972) ; Ch 2] -. Às vezes também chamado de Projeto Júri Chicago (Cornwell 2010) . Neste estudo pesquisadores da Universidade de Chicago, como parte de um estudo maior sobre os aspectos sociais do sistema legal, secretamente gravadas seis deliberações do júri em Wichita, Kansas. Os juízes e advogados nos casos tinha aprovado as gravações, e não havia estrita supervisão do processo. No entanto, os jurados não estavam cientes que as gravações estavam ocorrendo. Uma vez que o estudo foi descoberto, houve indignação pública. O Departamento de Justiça iniciou uma investigação do estudo, e os pesquisadores foram chamados a depor na frente do Congresso. Em última análise, o Congresso aprovou uma nova lei que torna ilegal para gravar secretamente júri deliberação.
A preocupação dos críticos do Estudo Wichita Júri não foi prejudicar aos participantes; em vez disso, foi danos para o contexto de deliberação do júri. Ou seja, as pessoas acreditavam que, se os membros do júri não acreditou que eles estavam tendo discussões em um espaço seguro e protegido, seria mais difícil para deliberações do júri para prosseguir no futuro. Além de deliberação do júri, existem outros contextos sociais específicos que a sociedade fornece com proteção extra, como relações advogado-cliente e atendimento psicológico (MacCarthy 2015) .
O risco de danos ao contexto e à ruptura dos sistemas sociais também surge em alguns experimentos de campo em Ciência Política (Desposato 2016b) . Para um exemplo de um cálculo de custo-benefício mais sensível ao contexto para um experimento de campo em Ciência Política, consulte Zimmerman (2016) .
Compensação para os participantes tem sido discutido em uma série de definições relacionadas com a investigação era digital. Lanier (2014) propôs pagar participantes de vestígios digitais que geram. Bederson and Quinn (2011) discute os pagamentos nos mercados de trabalho on-line. Finalmente, Desposato (2016a) propõe pagar participantes em experimentos de campo. Ele ressalta que, mesmo se os participantes não poderão ser pagos diretamente, uma doação pode ser feita para um grupo de trabalho em seu nome. Por exemplo, no Encore os pesquisadores poderia ter feito uma doação a um grupo de trabalho para apoiar o acesso à Internet.
Termos de serviço acordos deve ter menos peso do que os contratos negociados entre as partes e as leis criadas por governos legítimos iguais. Situações em que os investigadores tenham violado acordos de termos de serviço no passado, geralmente envolvem o uso de consultas automáticas para auditar o comportamento das empresas (bem como experimentos de campo para medir a discriminação). Para discussão adicional ver Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . Para um exemplo de pesquisa empírica que discute as condições de serviço, consulte Soeller et al. (2016) . Para mais informações sobre os possíveis problemas legais pesquisadores enfrentam, se violar as condições de serviço ver Sandvig and Karahalios (2016) .
Obviamente, enormes quantidades foram escritos sobre o consequencialismo e deontologia. Para um exemplo de como esses quadros éticos e outros, pode ser usada para raciocinar sobre a pesquisa era digital, consulte Zevenbergen et al. (2015) . Para um exemplo de como esses quadros éticos podem ser aplicados a experimentos de campo em desenvolver a economia, ver Baele (2013) .
Para mais informações sobre estudos de auditoria de discriminação, consulte Pager (2007) e Riach and Rich (2004) . Não só estes estudos não têm o consentimento informado, eles também envolvem o engano sem esclarecimento.
Ambos Desposato (2016a) e Humphreys (2015) oferecer conselhos sobre os experimentos de campo sem consentimento.
Sommers and Miller (2013) Comentários muitos argumentos a favor de não debriefing participantes após o engano, e argumenta que os investigadores devem renunciar "debriefing sob um conjunto muito restrito de circunstâncias, ou seja, na pesquisa de campo em que debriefing coloca obstáculos práticos consideráveis, mas pesquisadores teriam escrúpulos em debriefing se pudessem. Os pesquisadores não devem ser autorizados a renunciar debriefing a fim de preservar uma piscina participante ingênua,-se proteger de raiva participante, ou proteger os participantes do dano. "Outros argumentam que, se debriefing causa mais mal do que bem ele deve ser evitado. Debriefing é um caso em que alguns pesquisadores priorizar Respeito pelas Pessoas mais de Beneficência, e alguns pesquisadores fazem o oposto. Uma solução possível seria encontrar maneiras de fazer o debriefing uma experiência de aprendizagem para os participantes. Ou seja, ao invés de pensar de debriefing como algo que pode causar danos, talvez debriefing também pode ser algo que beneficia os participantes. Para um exemplo deste tipo de debriefing educação, ver Jagatic et al. (2007) no debriefing alunos após um experimento de phishing social. Os psicólogos desenvolveram técnicas para esclarecimento (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) e algumas delas podem ser utilmente aplicada à pesquisa era digital. Humphreys (2015) oferece pensamentos interessantes sobre o consentimento diferido, que está intimamente relacionado com a estratégia de debriefing que eu descrevi.
A ideia de pedir uma amostra de participantes para o seu consentimento está relacionado ao que Humphreys (2015) chama de consentimento inferido.
Uma outra ideia que tem sido proposta relacionada ao consentimento informado é construir um painel de pessoas que concordam ser em experiências on-line (Crawford 2014) . Alguns argumentaram que este painel seria uma amostra não-aleatória de pessoas. Mas, capítulo 3 (Fazer perguntas) mostra que estes problemas são potencialmente endereçáveis usando pós-estratificação e correspondência amostra. Além disso, o consentimento para estar no painel pode cobrir uma variedade de experiências. Em outras palavras, os participantes podem não precisa concordar com cada experiência individualmente, um conceito chamado consentimento amplo (Sheehan 2011) .
Longe de ser único, o Prêmio Netflix ilustra uma propriedade técnica importante de conjuntos de dados que contêm informações detalhadas sobre as pessoas, e, portanto, oferece importantes lições sobre a possibilidade de "anonimização" dos conjuntos de dados sociais modernas. Os ficheiros com muitas peças de informação sobre cada pessoa são susceptíveis de ser escasso, no sentido definido formalmente em Narayanan and Shmatikov (2008) . Ou seja, para cada registro não há registros que são os mesmos, e na verdade não há registros que são muito semelhantes: cada pessoa é longe do seu vizinho mais próximo no conjunto de dados. Pode-se imaginar que os dados da Netflix pode ser escassa, porque com cerca de 20.000 filmes em uma escala de 5 estrelas, há cerca de \ (6 ^ {20000} \) possíveis valores que cada pessoa pode ter (6 porque, além de um a 5 estrelas , alguém pode não ter classificado o filme em tudo). Este número é tão grande, é difícil até mesmo compreender.
Sparsity tem duas implicações principais. Em primeiro lugar, isso significa que a tentativa de "anonymize" o conjunto de dados com base na perturbação aleatória provavelmente irá falhar. Ou seja, mesmo se Netflix foram para ajustar aleatoriamente alguns dos ratings (que fez), isso não seria suficiente porque o registro perturbada ainda é o registro mais próximo possível da informação que o atacante tem. Em segundo lugar, a dispersão significa que de-anonimização é possível mesmo se o atacante tem conhecimento imperfeito ou imparcial. Por exemplo, nos dados da Netflix, vamos imaginar o atacante sabe que suas classificações por dois filmes e as datas que você fez essas classificações de +/- 3 dias; apenas que a informação por si só é suficiente para identificar 68% das pessoas nos dados da Netflix. Se os atacantes sabe 8 filmes que você tem avaliado +/- 14 dias, então, mesmo que duas destas classificações conhecidos são completamente errado, 99% dos registros pode ser identificada exclusivamente no conjunto de dados. Em outras palavras, dispersão é um problema fundamental para os esforços de "tornar anônimos" os dados, o que é lamentável, porque mais moderno conjunto de dados sociais são escassos.
metadados de telefone também pode parecer ser "anonymous" e não sensível, mas que não é o caso. Metadados telefone é identificável e sensível (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
Na Figura 6.6, esbocei um trade-off entre o risco para os participantes e benefícios a pesquisa da liberação de dados. Para uma comparação entre as abordagens de acesso restrito (por exemplo, um jardim murado) e as abordagens de dados restrito (por exemplo, alguma forma de anonimização) ver Reiter and Kinney (2011) . Para um sistema de categorização proposta dos níveis de risco de dados, consulte Sweeney, Crosas, and Bar-Sinai (2015) . Finalmente, para uma mais uma discussão geral sobre o compartilhamento de dados, consulte Yakowitz (2011) .
Para uma análise mais detalhada deste trade-off entre o risco ea utilidade dos dados, consulte Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , e Goroff (2015) . Para ver este trade-off aplicado a dados reais de cursos on-line maciçamente abertos (MOOCs), consulte Daries et al. (2014) e Angiuli, Blitzstein, and Waldo (2015) .
Privacidade diferencial também oferece uma abordagem alternativa que pode combinar tanto de alta benefício para a sociedade e de baixo risco para os participantes, consulte Dwork and Roth (2014) e Narayanan, Huey, and Felten (2016) .
Para saber mais sobre o conceito de informação de identificação pessoal (PII), que é central para muitas das regras sobre ética em pesquisa, ver Narayanan and Shmatikov (2010) e Schwartz and Solove (2011) . Para saber mais sobre todos os dados sendo potencialmente sensíveis, consulte Ohm (2015) .
Nesta seção, Eu retratei a articulação de diferentes conjuntos de dados como algo que pode levar ao risco informacional. No entanto, também pode criar novas oportunidades para a pesquisa, como argumentou em Currie (2013) .
Para saber mais sobre os cinco cofres, consulte Desai, Ritchie, and Welpton (2016) . Para um exemplo de como saídas podem ser identificação, consulte Brownstein, Cassa, and Mandl (2006) , que mostra como mapas de prevalência da doença pode ser de identificação. Dwork et al. (2017) também considera os ataques contra dados agregados, tais como estatísticas sobre quantas pessoas têm uma determinada doença.
Warren and Brandeis (1890) é um artigo legal marco sobre a privacidade, e que o artigo é mais associada com a ideia de que a privacidade é um direito de ser deixado sozinho. Mais recentemente, tratamentos de comprimento livro de privacidade que eu recomendaria incluem Solove (2010) e Nissenbaum (2010) .
Para uma revisão de pesquisas empíricas sobre como as pessoas pensam sobre privacidade, consulte Acquisti, Brandimarte, and Loewenstein (2015) . A revista Science publicou uma edição especial intitulada "O fim da privacidade", que aborda as questões de privacidade e riscos da informação a partir de uma variedade de diferentes perspectivas; para um resumo ver Enserink and Chin (2015) . Calo (2011) oferece uma estrutura para pensar sobre os danos que vêm de violações de privacidade. Um dos primeiros exemplos de preocupações sobre privacidade nos primórdios da era digital é Packard (1964) .
Um desafio ao tentar aplicar o padrão mínimo de risco é que ele não é clara cuja vida diária é para ser utilizado, por exemplo (Council 2014) . Por exemplo, pessoas sem-teto têm níveis mais elevados de desconforto em suas vidas diárias. Mas, isso não implica que é eticamente admissível a expor as pessoas sem-teto para maior investigação sobre os riscos. Por esta razão, parece haver um consenso crescente de que o mínimo de risco devem ter por referência um padrão população em geral, não é um padrão da população específica. Enquanto eu geralmente concordam com a ideia de um padrão população em geral, penso que para grandes plataformas online como o Facebook, um padrão de população específica é razoável. Isto é, quando se considera contágio emocional, penso que é razoável referência contra riscos todos os dias no Facebook. Um padrão de população específica, neste caso, é muito mais fácil de avaliar e é pouco provável que entrem em conflito com o princípio da Justiça, que visa evitar os encargos da investigação não injustamente nos grupos desfavorecidos (por exemplo, prisioneiros e órfãos).
Outros estudiosos também pediram mais documentos para incluir anexos éticos (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) também oferece dicas práticas.