Tradicionalmente, a ética da investigación tamén incluíu temas como fraude científico e asignación de crédito. Estes son discutidos con máis detalle en On Being a Scientist polo Institute of Medicine and National Academy of Sciences and National Academy of Engineering (2009) .
Este capítulo está fuertemente influenciado pola situación nos Estados Unidos. Para máis información sobre os procedementos de revisión ética noutros países, consulte os capítulos 6-9 de Desposato (2016b) . Por un argumento de que os principios éticos biomédicos que influíron neste capítulo son excesivamente estadounidenses, véxase Holm (1995) . Para unha revisión histórica adicional das xuntas de revisión institucionais nos Estados Unidos, vexa Stark (2012) . A revista PS: Political Science and Politics celebrou un simposio profesional sobre a relación entre os científicos políticos e os IRB; Consulte Martinez-Ebers (2016) para obter un resumo.
O informe Belmont e as regulacións posteriores nos Estados Unidos tenden a facer unha distinción entre a investigación ea práctica. Non fixen esa distinción neste capítulo porque creo que os principios e os marcos éticos se aplican a ambas as configuracións. Para máis información sobre esta distinción e os problemas que presenta, vexa a Beauchamp and Saghai (2012) , MN Meyer (2015) , boyd (2016) e Metcalf and Crawford (2016) .
Para máis información sobre a supervisión da investigación en Facebook, vexa Jackman and Kanerva (2016) . Para ideas sobre a supervisión da investigación en empresas e ONG, vexa Calo (2013) , Polonetsky, Tene, and Jerome (2015) e Tene and Polonetsky (2016) .
En relación co uso de datos de teléfonos móbiles para axudar a abordar o brote de Ébola en África Occidental (Wesolowski et al. 2014; McDonald 2016) , para obter máis información sobre os riscos de privacidade dos datos do teléfono móbil, vexa Mayer, Mutchler, and Mitchell (2016) . Para exemplos de investigacións anteriores relacionadas coa crise utilizando datos do teléfono móbil, consulte Bengtsson et al. (2011) e Lu, Bengtsson, and Holme (2012) , e para máis información sobre a ética da investigación relacionada coa crise, vexa ( ??? ) .
Moitas persoas escribiron sobre o contagio emocional. A revista Ethical Research dedicou todo o seu tema en xaneiro de 2016 para discutir o experimento; vexa Hunter and Evans (2016) para obter unha visión xeral. As Actas do Académico Nacional da Ciencia publicaron dúas pezas sobre o experimento: Kahn, Vayena, and Mastroianni (2014) e Fiske and Hauser (2014) . Outras pezas sobre o experimento inclúen: Puschmann and Bozdag (2014) , Meyer (2014) , Grimmelmann (2015) , MN Meyer (2015) , ( ??? ) , Kleinsman and Buckley (2015) , Shaw (2015) e ( ??? ) .
En termos de vixilancia masiva, en Mayer-Schönberger (2009) e Marx (2016) hai amplas informacións xerais. Para un exemplo concreto dos custos cambiantes de vixilancia, Bankston and Soltani (2013) estiman que o seguimento dun sospeitoso criminal utilizando teléfonos móbiles é case 50 veces máis barato que o de usar a vixilancia física. Vexa tamén Ajunwa, Crawford, and Schultz (2016) para unha discusión sobre a vixilancia no traballo. Bell and Gemmell (2009) proporcionan unha perspectiva máis optimista sobre autovixilancia.
Ademais de poder seguir un comportamento observable público ou parcialmente público (por exemplo, os gustos, os lazos eo tempo), os investigadores poden deducir cada vez máis cousas que moitos participantes consideran privados. Por exemplo, Michal Kosinski e colegas (2013) demostraron que poderían infiltrar información sensible sobre as persoas, como a orientación sexual eo uso de sustancias adictivas, a partir de datos de seguimento dixital aparentemente comúns (Likes en Facebook). Isto pode parecer máxico, pero o enfoque que usou Kosinski e colegas -que combinaba rastros dixitais, enquisas e aprendizaxe supervisado- é realmente algo que xa vos dixen. Lembre que no capítulo 3 (Preguntas). Xa lles conta que Joshua Blumenstock e os seus colegas (2015) combinaban datos de enquisas con datos do teléfono móbil para estimar a pobreza en Ruanda. Este mesmo achegamento exacto, que se pode empregar para medir a pobreza de forma eficiente nun país en desenvolvemento, tamén se pode empregar para infraccións potencialmente infrinxidas pola privacidade.
Para máis información sobre os posibles usos secundarios non desexados dos datos de saúde, consulte O'Doherty et al. (2016) . Ademais do potencial de usos secundarios non desexados, a creación dunha base de datos mestra incompleta podería ter un efecto escandaloso sobre a vida social e política se as persoas non querían ler certos materiais ou discutir certos temas; ver Schauer (1978) e Penney (2016) .
En situacións con regras solapadas, o investigador ás veces se involucra en "compras reguladoras" (Grimmelmann 2015; Nickerson and Hyde 2016) . En particular, algúns investigadores que desexan evitar a supervisión do IRB poden formar alianzas con investigadores que non están cubertos por IRBs (por exemplo, persoas en empresas ou ONG) e que os seus colegas recolecten e desidentifiquen datos. A continuación, o investigador cuberto por IRB pode analizar estes datos desidentificados sen supervisión do IRB porque a investigación xa non se considera "investigación de temas humanos", polo menos segundo algunhas interpretacións das regras actuais. Este tipo de evasión IRB probablemente non sexa consistente cunha visión baseada nos principios da ética da investigación.
En 2011, un esforzo comezou a actualizar a Common Rule, e este proceso foi finalmente concluído en 2017 ( ??? ) . Para máis información sobre estes esforzos para actualizar a Regra común, vexa Evans (2013) , National Research Council (2014) , Hudson and Collins (2015) e Metcalf (2016) .
O enfoque clásico baseado nos principios da ética biomédica é o de Beauchamp and Childress (2012) . Eles propoñen que catro principios principais deben orientar a ética biomédica: o respecto pola autonomía, a non-igualdade, a beneficencia ea xustiza. O principio de non-manexo exhorta a absterse de causar danos a outras persoas. Este concepto está profundamente relacionado coa idea hipocrática de "Non danar". Na ética da investigación, este principio adoita combinarse co principio de Beneficencia, pero vexa o capítulo 5 de @ beauchamp_principles_2012 para obter máis información sobre a distinción entre os dous. Para unha crítica de que estes principios son excesivamente americanos, véxase Holm (1995) . Para máis información sobre o equilibrio cando os principios conflúen, vexa Gillon (2015) .
Tamén se propuxeron os catro principios deste capítulo para orientar a supervisión ética das investigacións realizadas en empresas e ONG (Polonetsky, Tene, and Jerome 2015) través de organismos chamados "Consello de Revisión de Asuntos dos Consumidores" (CSRB) (Calo 2013) .
Ademais de respectar a autonomía, o Informe Belmont tamén recoñece que non todos os humanos son capaces de autodeterminación. Por exemplo, os nenos, as persoas que sofren de enfermidade ou as persoas que viven en situacións de liberdade severamente restrinxida poden non ser capaces de actuar como individuos completamente autónomos e, polo tanto, estas persoas están suxeitas a unha protección adicional.
Aplicar o principio de respecto ás persoas na era dixital pode ser un reto. Por exemplo, na investigación en idade dixital, pode ser difícil proporcionar proteccións adicionais para as persoas con capacidade de autodeterminación diminuída porque os investigadores a miúdo saben moi pouco sobre os seus participantes. Ademais, o consentimento informado na investigación social na era digital é un desafío enorme. Nalgúns casos, o consentimento verdadeiramente informado pode sufrir a paradoxa de transparencia (Nissenbaum 2011) , onde a información e a comprensión están en conflito. Aproximadamente, se os investigadores proporcionan información completa sobre a natureza da recopilación de datos, a análise de datos e as prácticas de seguridade dos datos, será difícil que moitos participantes comprendan. Pero se os investigadores proporcionan información comprensible, pode non ter detalles técnicos importantes. Na investigación médica da idade analóxica -a definición dominante considerada polo Informe Belmont- poderiamos imaxinar que un médico fale individualmente con cada participante para axudar a resolver a paradoxa de transparencia. Nos estudos en liña que inclúen miles ou millóns de persoas, esta visión cara a cara non é posible. Un segundo problema con consentimento na era dixital é que nalgúns estudos, como análises de repositorios de datos masivos, non sería práctico obter o consentimento informado de todos os participantes. Discutir estas e outras cuestións sobre o consentimento informado con máis detalle na sección 6.6.1. Malia estas dificultades, non obstante, debemos recordar que o consentimento informado non é necesario nin suficiente para o respecto das persoas.
Para obter máis información sobre a investigación médica antes do consentimento informado, consulte Miller (2014) . Para un tratamento de lonxitude de libro de consentimento informado, consulte Manson and O'Neill (2007) . Vexa tamén as lecturas suxeridas sobre o consentimento informado a continuación.
Os danos ao contexto son os danos que a investigación pode causar non ás persoas específicas senón ás configuracións sociais. Este concepto é un pouco abstracto, pero vou a ilustrar cun exemplo clásico: o Estudo do xurado de Wichita (Vaughan 1967; Katz, Capron, and Glass 1972, chap. 2) tamén chamado Chicago Jury Project (Cornwell 2010) . Neste estudo, investigadores da Universidade de Chicago, como parte dun estudo máis amplo de aspectos sociais do sistema legal, rexistraron secretamente seis deliberacións do xurado en Wichita, Kansas. Os xuíces e avogados dos casos aprobaron as gravacións, e houbo unha supervisión rigorosa do proceso. Con todo, os xurados non sabían que se producían gravacións. Unha vez descuberto o estudo, houbo indignación pública. O Departamento de Xustiza iniciou unha investigación do estudo, e os investigadores foron chamados a testificar ante o Congreso. En definitiva, o Congreso aprobou unha nova lei que fai ilegal gravar secretamente a deliberación do xurado.
A preocupación dos críticos do Wichita Jury Study non era o risco de danos aos participantes; máis ben, era o risco de prexudicar o contexto da deliberación do xurado. É dicir, a xente pensou que se os membros do xurado non crían que tivesen discusións nun espazo seguro e protexido, sería máis difícil que as deliberacións do xurado continúen no futuro. Ademais da deliberación do xurado, hai outros contextos sociais específicos que a sociedade ofrece con protección adicional, como as relacións avogado-cliente e coidado psicolóxico (MacCarthy 2015) .
O risco de prexudicar o contexto e a interrupción dos sistemas sociais xorden tamén nalgúns experimentos de campo na ciencia política (Desposato 2016b) . Para un exemplo dun cálculo de custo-beneficio máis sensible ao contexto para un experimento de campo en ciencias políticas, vexa Zimmerman (2016) .
A compensación para os participantes foi discutida nunha serie de configuracións relacionadas coa investigación en idade dixital. Lanier (2014) propón aos participantes que paguen os rastros dixitais que xeran. Bederson and Quinn (2011) discuten os pagos nos mercados de traballo en liña. Finalmente, Desposato (2016a) propón a participación dos participantes en experimentos de campo. Afirma que, mesmo se os participantes non poden ser pagados directamente, pódese facer unha doazón a un grupo que traballa no seu nome. Por exemplo, en Encore, os investigadores poderían facer unha doazón a un grupo que traballa para apoiar o acceso a Internet.
Os acordos de termos de servizo deberían ter menos peso que os contratos negociados entre as partes iguais e as leis creadas por gobernos lexítimos. As situacións onde os investigadores violaron os acordos de termos de servizo no pasado xeralmente implicaron a utilización de consultas automatizadas para auditar o comportamento das empresas (así como experimentos de campo para medir a discriminación). Para discusións adicionais, consulte Vaccaro et al. (2015) , Bruckman (2016a) e Bruckman (2016b) . Para un exemplo de investigación empírica que discute os termos de servizo, consulte Soeller et al. (2016) . Para máis información sobre os posibles problemas legais os investigadores enfróntanse se violan os termos de servizo, vexa Sandvig and Karahalios (2016) .
Obviamente, escribiuse unha enorme cantidade de consecuencialismo e deontoloxía. Para un exemplo de como se poden usar estes cadros éticos e outros para Zevenbergen et al. (2015) investigación sobre idade dixital, consulte Zevenbergen et al. (2015) . Para un exemplo de como se poden aplicar aos experimentos de campo na economía do desenvolvemento, vexa Baele (2013) .
Para máis información sobre os estudos de auditoría de discriminación, consulte Pager (2007) e Riach and Rich (2004) . Non só estes estudos non teñen o consentimento informado, eles tamén implican decepción sen debriefing.
Tanto Desposato (2016a) como Humphreys (2015) ofrecen consellos sobre experimentos de campo sen o consentimento.
Sommers and Miller (2013) revisan moitos argumentos a favor de non informar aos participantes despois do engaño e argumentan que os investigadores deberán renunciar
"Baixo un conxunto de circunstancias moi reducido, é dicir, en investigacións de campo nas que o debriefing suscita considerables barreiras prácticas pero os investigadores non terían reparos sobre o debriefing se puidesen. Non se lles permitirá aos investigadores renunciar ao debate para preservar un grupo inxenuo de participantes, protexerse da ira do participante ou protexer aos participantes dos danos ".
Outros argumentan que, nalgunhas situacións, se o debriefing causa máis mal que ben, debe evitarse (Finn and Jakobsson 2007) . O debate é un caso en que algúns investigadores priorizan o respecto por persoas sobre a beneficencia, mentres que algúns investigadores fan o contrario. Unha solución posible sería a de atopar formas de informar sobre unha experiencia de aprendizaxe para os participantes. É dicir, en vez de pensar en información como algo que pode causar danos, quizais o debriefing tamén pode ser algo que beneficia aos participantes. Para un exemplo deste tipo de información educativa, vexa Jagatic et al. (2007) . Os psicólogos desenvolveron técnicas de información (DS Holmes 1976a, 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , e algunhas delas poden ser aplicadas de forma útil á investigación en idade dixital. Humphreys (2015) ofrece pensamentos interesantes sobre o consentimento diferido , que está intimamente relacionado coa estratexia informativa que describín.
A idea de pedir unha mostra de participantes para o seu consentimento está relacionada co que Humphreys (2015) chama o consentimento inferido .
Outra idea relacionada co consentimento informado que se propuxo é a construción dun panel de persoas que acepten estar en experimentos en liña (Crawford 2014) . Algúns argumentaron que este panel sería unha mostra non aleatoria de persoas. Pero o capítulo 3 (Preguntas) mostra que estes problemas son potencialmente direccionables usando a postestratificación. Ademais, o consentimento para estar no panel podería abarcar unha variedade de experimentos. Noutras palabras, os participantes poden non ter que consentir a cada experimento individualmente, un concepto chamado de amplo consentimento (Sheehan 2011) . Para máis información sobre as diferenzas entre o consentimento dun só tempo e o consentimento para cada estudo, así como un posible híbrido, vexa Hutton and Henderson (2015) .
Lonxe de ser exclusivo, o Premio Netflix ilustra unha propiedade técnica importante de conxuntos de datos que conteñen información detallada sobre as persoas e, polo tanto, ofrece importantes leccións sobre a posibilidade de "anonimizar" os datasets sociais modernos. Os arquivos con moitas pezas de información sobre cada persoa son susceptibles de ser escasos , no sentido definido formalmente en Narayanan and Shmatikov (2008) . É dicir, para cada rexistro, non hai rexistros que sexan iguais, e de feito non hai rexistros moi similares: cada persoa está lonxe do seu veciño máis próximo do conxunto de datos. Pódese imaxinar que os datos de Netflix poden ser escasos porque con preto de 20.000 películas nunha escala de cinco estrelas, hai uns valores posibles \(6^{20,000}\) que cada persoa podería ter (6 porque, ademais de 1 a 5 estrelas, alguén podería non avaliar a película). Este número é tan grande, é difícil de comprender.
Sparsity ten dúas implicacións principais. Primeiro, isto significa que intentar "anonimizar" o conxunto de datos baseado na perturbación aleatoria probablemente non funcionará. É dicir, aínda que Netflix axustase aleatoriamente algunhas das clasificacións (que fixeron), isto non sería suficiente porque o rexistro perturbado aínda é o rexistro máis próximo posible para a información que o atacante ten. En segundo lugar, a escaseza significa que a identificación é posible aínda que o atacante teña coñecemento imparcial ou imparcial. Por exemplo, nos datos de Netflix, imaxinámonos que o atacante coñece as súas clasificacións de dúas películas e as datas nas que fixo esas valoracións \(\pm\) 3 días; só esa información por si só é suficiente para identificar de forma exclusiva o 68% das persoas nos datos de Netflix. Se o atacante coñece oito películas que puntuou \(\pm\) 14 días, entón aínda que dúas destas clasificacións coñecidas estean completamente erradas, o 99% dos rexistros poden identificarse de forma exclusiva no conxunto de datos. Noutras palabras, a escaseza é un problema fundamental para os esforzos por "anonimizar" os datos, o que é lamentable porque a maioría dos conxuntos de datos sociais modernos son escasas. Para máis información sobre "anonimización" de datos escasos, vexa Narayanan and Shmatikov (2008) .
Os meta-datos telefónicos tamén poden parecer "anónimos" e non sensibles, pero ese non é o caso. Os meta-datos telefónicos son identificables e sensibles (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
Na figura 6.6, esbozou un intercambio entre o risco para os participantes e os beneficios para a sociedade a partir da liberación de datos. Para unha comparación entre enfoques de acceso restrinxido (por exemplo, un xardín amurallado) e enfoques de datos restrinxidos (por exemplo, algún tipo de "anonimización") ver Reiter and Kinney (2011) . Para un sistema de categorización proposto dos niveis de risco de datos, vexa Sweeney, Crosas, and Bar-Sinai (2015) . Para máis unha discusión xeral sobre compartir datos, vexa Yakowitz (2011) .
Para unha análise máis detallado deste intercambio entre o risco e a utilidade dos datos, vexa Brickell and Shmatikov (2008) , Ohm (2010) , Reiter (2012) , Wu (2013) e Goroff (2015) . Para ver esta compensación aplicada a datos reais de cursos en liña abertos en masa (MOOC), consulte Daries et al. (2014) e Angiuli, Blitzstein, and Waldo (2015) .
A privacidade diferencial tamén ofrece un enfoque alternativo que pode combinar tanto o baixo risco para os participantes como o alto beneficio para a sociedade; vexa Dwork and Roth (2014) e Narayanan, Huey, and Felten (2016) .
Para máis información sobre o concepto de información de identificación persoal (PII), que é fundamental para moitas das regras sobre ética da investigación, vexa Narayanan and Shmatikov (2010) e Schwartz and Solove (2011) . Para máis información sobre todos os que sexan potencialmente sensibles, vexa Ohm (2015) .
Nesta sección, retratou a vinculación de diferentes conxuntos de datos como algo que pode provocar risco informativo. Non obstante, tamén pode crear novas oportunidades de investigación, como argumentou Currie (2013) .
Para máis información sobre as cinco caixas de seguridade, vexa Desai, Ritchie, and Welpton (2016) . Para un exemplo de como se poden identificar os resultados, consulte Brownstein, Cassa, and Mandl (2006) , que mostra como se poden identificar os mapas da prevalencia de enfermidades. Dwork et al. (2017) tamén consideran os ataques contra os datos agregados, como as estatísticas sobre cantas persoas teñen unha determinada enfermidade.
As preguntas sobre o uso de datos e a liberación de datos tamén suscitan dúbidas sobre a propiedade dos datos. Para máis información sobre propiedade de datos, vexa Evans (2011) e Pentland (2012) .
Warren and Brandeis (1890) é un artigo xurídico histórico sobre a privacidade e está máis asociado coa idea de que a privacidade é un dereito a deixar só. Os tratamentos de privacidade que recomendarían incluír Solove (2010) e Nissenbaum (2010) .
Para unha revisión da investigación empírica sobre como a xente pensa na privacidade, vexa Acquisti, Brandimarte, and Loewenstein (2015) . Phelan, Lampe, and Resnick (2016) propoñen unha teoría do sistema dual (que ás veces as persoas enfocan en inquietudes intuitivas e ás veces se enfocan en preocupacións consideradas) para explicar como as persoas poden facer afirmacións aparentemente contraditorias sobre a privacidade. Para máis información sobre a idea de privacidade en configuracións en liña como Twitter, consulte Neuhaus and Webmoor (2012) .
A revista Science publicou unha sección especial titulada "The End of Privacy", que aborda os problemas de privacidade e risco informativo dunha variedade de perspectivas diferentes; para un resumo, vexa Enserink and Chin (2015) . Calo (2011) ofrece un marco para pensar sobre os danos derivados das violacións á privacidade. Un exemplo precoz de preocupacións sobre privacidade nos comezos da era dixital é Packard (1964) .
Un desafío ao intentar aplicar o estándar de risco mínimo é que non está claro cuxa vida cotiá se utilizará para a comparativa (National Research Council 2014) . Por exemplo, as persoas sen fogar teñen maiores niveis de incomodidade nas súas vidas cotiás. Pero iso non implica que é éicamente permisible a exposición das persoas sen fogar á investigación de maior risco. Por este motivo, parece haber un consenso crecente de que o mínimo risco debe ser comparado con un estándar de poboación xeral , non un estándar de poboación específica . Aínda que generalmente estou de acordo coa idea dun estándar de poboación xeral, creo que para grandes plataformas en liña como Facebook, un estándar de poboación específico é razoable. Deste xeito, ao considerar o Contagio Emocional, creo que é razoable facer referencia ao risco cotián en Facebook. Unha norma de poboación específica neste caso é moito máis fácil de avaliar e é improbable que se opoña ao principio de Xustiza, o que busca evitar que as cargas da investigación falten injustamente a grupos desfavorecidos (por exemplo, prisioneiros e orfos).
Outros estudiosos tamén pediron máis papeis para incluír apéndices éticos (Schultze and Mason 2012; Kosinski et al. 2015; Partridge and Allman 2016) . King and Sands (2015) tamén ofrece consellos prácticos. Zook e colegas (2017) ofrecen "dez regras simples para a investigación responsable de grandes datos".