Esta sección está diseñada para ser utilizada como una referencia, en lugar de ser leído como un relato.
Ética de la investigación ha incluido tradicionalmente también temas como el fraude científico y asignación del crédito. Estos temas se discuten en mayor detalle en Engineering (2009) .
Este capítulo está fuertemente determinada por la situación en los Estados Unidos. Para más información sobre los procedimientos de revisión ética en otros países, véanse los capítulos 6, 7, 8, y 9 de la Desposato (2016b) . Para un argumento que los principios éticos biomédicos que han influido en este capítulo son excesivamente estadounidense, véase Holm (1995) . Para obtener más revisión histórica de Juntas de Revisión Institucional en los EE.UU., véase Stark (2012) .
El Informe Belmont y su normativa de desarrollo en los EE.UU. han hecho una distinción entre la investigación y la práctica. Esta distinción ha sido criticado posteriormente (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . No hago esta distinción en este capítulo porque creo que los principios éticos y los marcos se aplican tanto a los ajustes. Para más información sobre la supervisión de investigación en Facebook, ver Jackman and Kanerva (2016) . Para una propuesta de supervisión de la investigación en las empresas y organizaciones no gubernamentales, ver Polonetsky, Tene, and Jerome (2015) y Tene and Polonetsky (2016) .
Para más información sobre el caso del brote de Ébola en 2014, véase McDonald (2016) , y para más información sobre los riesgos de privacidad de los datos del teléfono móvil, consulte Mayer, Mutchler, and Mitchell (2016) . Para un ejemplo de la investigación relacionada con la crisis a partir de datos de telefonía móvil, ver Bengtsson et al. (2011) y Lu, Bengtsson, and Holme (2012) .
Muchas personas han escrito sobre el contagio emocional. La revista de Ética de Investigación dedicó toda su problema enero de 2016 para discutir el experimento; ver Hunter and Evans (2016) para una visión general. Las Actas de los Académicos Nacionales de Ciencias publicaron dos piezas sobre el experimento: Kahn, Vayena, and Mastroianni (2014) y Fiske and Hauser (2014) . Otras piezas sobre el experimento son: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .
Para más información sobre Encore, véase Jones and Feamster (2015) .
En cuanto a la vigilancia de masas, amplias descripciones se proporcionan en Mayer-Schönberger (2009) y Marx (2016) . Para un ejemplo concreto de los costos cambiantes de vigilancia, Bankston and Soltani (2013) estima que el seguimiento de un presunto delincuente uso de teléfonos celulares es aproximadamente 50 veces más barato que el uso de la vigilancia física. Bell and Gemmell (2009) ofrece una perspectiva más optimista sobre el auto vigilancia. Además de ser capaz de rastrear el comportamiento observable que es público o parcialmente pública (por ejemplo, el sabor, los lazos, y la hora), los investigadores pueden inferir cada vez más cosas que muchos de los participantes consideran que es privado. Por ejemplo, Michal Kosinski y sus colegas demostraron que podían inferir información sensible acerca de las personas, como la orientación sexual y el consumo de sustancias adictivas de datos aparentemente ordinarias de trazas digitales (me gusta de Facebook) (Kosinski, Stillwell, and Graepel 2013) . Esto puede sonar mágico, pero el enfoque Kosinski y sus colegas utilizaron -que combina huellas digitales, encuestas y aprendizaje supervisado, es en realidad algo que ya te he hablado. Recordemos que en el capítulo 3 (Hacer preguntas) Te he dicho lo Josh Blumenstock y sus colegas (2015) de datos de la encuesta combinados con datos del teléfono móvil para estimar la pobreza en Ruanda. Este mismo enfoque exacto, que puede ser utilizado para medir de manera eficiente la pobreza en países en desarrollo, también se puede utilizar para las inferencias potencialmente privacidad viola.
Leyes y normas incompatibles pueden dar lugar a la investigación que no respeta los deseos de los participantes, y se puede llevar a "ir de compras reguladora" por los investigadores (Grimmelmann 2015; Nickerson and Hyde 2016) . En particular, algunos investigadores que desean evitar la supervisión IRB socios que no están cubiertos por las IRB tienen (por ejemplo, las personas en las empresas u organizaciones no gubernamentales) recoger y de-identificar datos. Luego, los investigadores pueden analizar estos datos sin identificación y sin la supervisión del IRB, por lo menos según algunas interpretaciones de las normas actuales. Este tipo de evasión IRB parece ser incompatible con un enfoque basado en principios.
Para más información sobre las ideas inconsistentes y heterogéneos que tienen las personas acerca de los datos de salud, consulte Fiore-Gartland and Neff (2015) . Para más información sobre el problema de que la heterogeneidad crea para la ética de investigación decisiones ver Meyer (2013) .
Una diferencia entre la edad analógica y la investigación era digital es que en la era digital interacción con los participantes la investigación es más distante. Estas interacciones ocurren a menudo a través de un intermediario, como una empresa, y hay normalmente una gran distancia social-física-y entre los investigadores y los participantes. Esta interacción a distancia hace que algunas cosas que son fáciles en la investigación era analógica difícil en la investigación era digital, como descartar a los participantes que requieran una protección adicional, la detección de eventos adversos, y remediar el daño si se produce. Por ejemplo, vamos a contrastar contagio emocional con un experimento de laboratorio hipotético sobre el mismo tema. En el experimento de laboratorio, los investigadores pudieron detectar a cualquier persona que llega al laboratorio que muestran signos evidentes de angustia emocional. Además, si el experimento de laboratorio creado un evento adverso, los investigadores lo verían, proporcionar servicios para remediar el daño, y luego realizar ajustes en el protocolo experimental para prevenir daños futuros. La naturaleza de la interacción distante en el experimento real contagio emocional hace que cada uno de estos pasos simples y sensibles extremadamente difícil. Además, sospecho que la distancia entre los investigadores y los participantes hace que los investigadores menos sensible a las preocupaciones de sus participantes.
Otras fuentes de normas y leyes inconsistentes. Algunas de esta inconsistencia proviene del hecho de que esta investigación está sucediendo en todo el mundo. Por ejemplo, Encore involucrada gente de todo el mundo, y por lo tanto puede estar sujeto a la protección de datos y las leyes de privacidad de muchos países diferentes. ¿Qué pasa si las normas que rigen las peticiones web de terceros (lo que estaba haciendo Encore) son diferentes en Alemania, los Estados Unidos, Kenia y China? ¿Qué pasa si las normas no son ni siquiera coherente dentro de un solo país? Una segunda fuente de inconsistencia proviene de la colaboración entre los investigadores de las universidades y las empresas; por ejemplo, emocional contagio fue una colaboración entre un científico de datos en Facebook y un estudiante graduado y profesor de la Universidad de Cornell. En Facebook corriendo grandes experimentos es de rutina y, en ese momento, no se requiere ninguna revisión ética de terceros. En Cornell las normas y reglas son muy diferentes; prácticamente todos los experimentos deben ser revisadas por el IRB de Cornell. Por lo tanto, qué conjunto de normas deben regular emocional contagio de Facebook o de Cornell?
Para más información sobre los esfuerzos para revisar la Regla Común, véase Evans (2013) , Council (2014) , Metcalf (2016) , y Hudson and Collins (2015) .
El enfoque basado en los principios clásicos de ética biomédica es Beauchamp and Childress (2012) . Proponen que cuatro grandes principios deben guiar la ética biomédica: respeto a la autonomía, no maleficencia, beneficencia y justicia. El principio de no maleficencia insta a uno a abstenerse de causar daño a otras personas. Este concepto está íntimamente ligado a la idea de Hipócrates de "no hacer daño". En la ética de investigación, este principio se combina a menudo con el principio de Beneficencia, pero ver Beauchamp and Childress (2012) (capítulo 5) para más información sobre la distinción entre los dos . Para una crítica de que estos principios son excesivamente estadounidense, véase Holm (1995) . Para más información sobre el equilibrio cuando el conflicto principios, ver Gillon (2015) .
También se han propuesto los cuatro principios de este capítulo para guiar la supervisión ética para la investigación sucediendo en las empresas y organizaciones no gubernamentales (Polonetsky, Tene, and Jerome 2015) a través de organismos llamados "Juntas de Revisión del Consumidor sujeto" (CSRBs) (Calo 2013) .
Además de respetar la autonomía, el Informe Belmont también reconoce que no todos los seres humanos es capaz de una verdadera autodeterminación. Por ejemplo, los niños, las personas que sufren de una enfermedad, o las personas que viven en situación de libertad severamente restringidas pueden no ser capaces de actuar como individuos totalmente autónomas, y estas personas son, por lo tanto, sujetos a protección adicional.
Aplicando el principio de Respeto por las personas en la era digital puede ser un reto. Por ejemplo, en la investigación era digital, que puede ser difícil para proporcionar protección adicional para las personas con disminución de la capacidad de autodeterminación porque los investigadores a menudo saben muy poco acerca de sus participantes. Además, el consentimiento informado en la investigación social era digital es un desafío enorme. En algunos casos, el consentimiento informado realmente puede sufrir de la paradoja de la transparencia (Nissenbaum 2011) , donde la información y la comprensión están en conflicto. Más o menos, si los investigadores proporcionan información completa acerca de la naturaleza de la recopilación de datos, análisis de datos y las prácticas de seguridad de datos, será difícil para muchos de los participantes de comprender. Pero, si los investigadores proporcionan información comprensible, puede carecer de información técnica importante. En la investigación médica en el análogo de edad dominan el escenario considerado por el Informe Belmont-uno podría imaginar un médico hablando individualmente con cada participante para ayudar a resolver la paradoja de la transparencia. En estudios en línea con miles o millones de personas, un enfoque de este tipo cara a cara es imposible. Un segundo problema con el consentimiento en la era digital es que en algunos estudios, como el análisis de los repositorios de datos masivos, no sería práctico para obtener el consentimiento informado de todos los participantes. Discuto estas y otras preguntas sobre el consentimiento informado con más detalle en la Sección 6.6.1. A pesar de estas dificultades, sin embargo, debemos recordar que el consentimiento informado no es ni necesaria ni suficiente para Respeto por las personas.
Para más información sobre la investigación médica antes de consentimiento informado, véase Miller (2014) . Para un tratamiento de longitud del libro de consentimiento informado, ver Manson and O'Neill (2007) . Ver también las lecturas sugeridas sobre el consentimiento informado a continuación.
Harms a contexto es el daño que puede causar la investigación no a personas específicas, sino a los entornos sociales. Este concepto es un poco abstracto, pero voy a ilustrar con dos ejemplos: uno analógico y uno digital.
Un ejemplo clásico de los daños al contexto proviene del Jurado Wichita Estudio [ Vaughan (1967) ; Katz, Capron, and Glass (1972) ; Ch 2] -. También a veces llamado el Proyecto Jurado Chicago (Cornwell 2010) . En este estudio los investigadores de la Universidad de Chicago, como parte de un estudio más amplio sobre los aspectos sociales del sistema legal, grabadas en secreto seis deliberaciones del jurado en Wichita, Kansas. Los jueces y abogados en los casos habían aprobado las grabaciones, y no había una estricta supervisión del proceso. Sin embargo, los miembros del jurado tenían conocimiento de que se estaban produciendo grabaciones. Una vez que se descubrió el estudio, no hubo ultraje público. El Departamento de Justicia inició una investigación sobre el estudio, y los investigadores han llamado a declarar ante el Congreso. En última instancia, el Congreso aprobó una nueva ley que hace ilegal para grabar en secreto deliberación del jurado.
La preocupación de los críticos del Estudio Wichita jurado no se le daño a los participantes; más bien, era daños para el contexto de la deliberación del jurado. Es decir, la gente creía que si los miembros del jurado no creyeron que estaban teniendo discusiones en un espacio seguro y protegido, sería más difícil para las deliberaciones del jurado para proceder en el futuro. Además de deliberación del jurado, hay otros contextos sociales específicos que la sociedad proporciona una protección adicional, como las relaciones entre abogado y cliente y la atención psicológica (MacCarthy 2015) .
El riesgo de daños para el contexto y la interrupción de los sistemas sociales también aparece en algunos experimentos de campo en Ciencias Políticas (Desposato 2016b) . Para ver un ejemplo de un cálculo de costo-beneficio más sensible al contexto para un experimento de campo en Ciencias Políticas, ver Zimmerman (2016) .
Compensación para los participantes ha sido discutido en una serie de ajustes relacionados con la investigación era digital. Lanier (2014) propuso el pago de los participantes en busca de rastros digitales que generan. Bederson and Quinn (2011) analiza los pagos en los mercados de trabajo en línea. Por último, Desposato (2016a) propone el pago de los participantes en experimentos de campo. Se señala que incluso si los participantes no pueden ser pagados directamente, una donación podría ser hecha a un grupo de trabajo en su nombre. Por ejemplo, en Encore los investigadores podrían haber hecho una donación a un grupo de trabajo para apoyar el acceso a Internet.
Términos de servicio acuerdos deben tener menos peso que los contratos negociados entre las partes y las leyes creadas por los gobiernos legítimos iguales. Situaciones en las que los investigadores han violado los acuerdos de la relación de servicio en el pasado generalmente implican el uso de consultas automatizadas para auditar el comportamiento de las empresas (al igual que los experimentos de campo para medir la discriminación). Para una discusión adicional vea Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . Para un ejemplo de investigación empírica que analiza los términos de servicio, consulte Soeller et al. (2016) . Para más información sobre los posibles problemas legales que enfrentan los investigadores si violan los términos de servicio ver Sandvig and Karahalios (2016) .
Obviamente, enormes cantidades se han escrito sobre el consecuencialismo y la deontología. Para ver un ejemplo de cómo estos marcos éticos, y otros, pueden ser utilizados para razonar acerca de la investigación era digital, ver Zevenbergen et al. (2015) . Para un ejemplo de cómo estos marcos éticos pueden aplicarse a los experimentos de campo en el desarrollo de la economía, véase Baele (2013) .
Para más información sobre estudios de auditoría de discriminación, véase Pager (2007) y Riach and Rich (2004) . No sólo estos estudios no tienen el consentimiento informado, que también implican el engaño sin interrogatorio.
Tanto Desposato (2016a) y Humphreys (2015) ofrecen consejos sobre los experimentos de campo sin consentimiento.
Sommers and Miller (2013) opiniones de los muchos argumentos a favor de no debriefing los participantes después de la decepción, y argumenta que los investigadores deben renunciar "debriefing bajo un conjunto muy limitado de circunstancias, a saber, en la investigación de campo en el que interrogatorio plantea considerables obstáculos prácticos, pero los investigadores tendrían reparos en debriefing si pudieran. Los investigadores no se debe permitir que renunciar a interrogatorio a fin de preservar una piscina participante ingenuo, protegerse de la ira participante, o proteger a los participantes de cualquier daño. "Otros argumentan que si interrogatorio causa más daño que bien se debe evitar. Para reflexionar es un caso en el que algunos investigadores dan prioridad Respeto por las personas más de Beneficencia, y algunos investigadores hacen lo contrario. Una posible solución sería la de encontrar maneras de hacer debriefing una experiencia de aprendizaje para los participantes. Es decir, en lugar de pensar de interrogatorio como algo que puede causar daño, tal vez debriefing también puede ser algo que beneficia a los participantes. Para ver un ejemplo de este tipo de interrogatorio educación, véase Jagatic et al. (2007) en debriefing estudiantes después de un experimento de suplantación de identidad social. Los psicólogos han desarrollado técnicas para informar a los (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) y algunos de ellos puede ser útil aplicar a la investigación era digital. Humphreys (2015) ofrece ideas interesantes sobre el consentimiento diferido, que está estrechamente relacionado con la estrategia informativa que he descrito.
La idea de pedir una muestra de participantes su consentimiento está relacionada con lo Humphreys (2015) llama consentimiento inferido.
Otra idea que se ha propuesto en relación con el consentimiento informado es la construcción de un grupo de personas que están de acuerdo para estar en experimentos en línea (Crawford 2014) . Algunos han argumentado que este panel sería una muestra no aleatoria de personas. Sin embargo, el capítulo 3 (Hacer preguntas) muestra que estos problemas son potencialmente direccionable usando posterior a la estratificación y la coincidencia de la muestra. Además, el consentimiento sea en el panel podría cubrir una variedad de experimentos. En otras palabras, los participantes pueden no necesitar de dar su consentimiento para cada experimento individual, un concepto llamado consentimiento amplio (Sheehan 2011) .
Lejos de ser único, el Premio Netflix ilustra una propiedad importante técnica de los conjuntos de datos que contienen información detallada acerca de las personas, y por lo tanto ofrece lecciones importantes sobre la posibilidad de "anonimización" de conjuntos de datos sociales modernas. Los archivos con muchas piezas de información acerca de cada persona es probable que sean escasas, en el sentido definido formalmente en Narayanan and Shmatikov (2008) . Es decir, para cada registro que no hay registros que son los mismos, y de hecho no hay registros que son muy similares: cada persona está muy lejos de su vecino más cercano en el conjunto de datos. Uno puede imaginar que los datos de Netflix podrían ser escasa, ya que con cerca de 20.000 películas en una escala de 5 estrellas, hay cerca de \ (6 ^ {20.000} \) valores posibles que cada persona pueda tener (6, ya que, además de uno a 5 estrellas , alguien podría no haber evaluado la película en absoluto). Este número es tan grande, es difícil incluso comprender.
Escasez tiene dos consecuencias principales. En primer lugar, significa que el intento de "anonimizar" el conjunto de datos sobre la base de perturbación aleatoria probablemente fallará. Es decir, incluso si eran Netflix para ajustar al azar algunas de las calificaciones (lo que hicieron), esto no sería suficiente, ya que el registro sigue siendo perturbado el registro más cercano posible a la información que el atacante tiene. En segundo lugar, la escasez significa que de-forma anónima es posible incluso si el atacante tiene conocimiento imperfecto o imparcial. Por ejemplo, en los datos de Netflix, imaginemos que el atacante conoce sus calificaciones para dos películas y la fecha que hizo para que las clasificaciones de +/- 3 días; sólo que la información por sí sola es suficiente para identificar de forma exclusiva el 68% de las personas en los datos de Netflix. Si los atacantes sabe 8 películas que haya nominales +/- 14 días, a continuación, incluso si dos de estas clasificaciones conocidas son completamente equivocado, el 99% de los registros puede ser identificada en el conjunto de datos. En otras palabras, escasez es un problema fundamental para los esfuerzos para "anonimizar" de datos, lo cual es lamentable porque el conjunto de datos sociales más modernos son escasos.
metadatos de teléfono también podría parecer "anónimo" y no es sensible, pero eso no es el caso. Metadatos de teléfono es identificable y sensible (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .
En la Figura 6.6, esbocé un equilibrio entre el riesgo para los participantes y los beneficios a la investigación de la liberación de datos. Para una comparación entre los enfoques restringidos de acceso (por ejemplo, un jardín amurallado) y enfoques de datos restringida (por ejemplo, algún tipo de forma anónima) ver Reiter and Kinney (2011) . Para un sistema de categorización propuesta de los niveles de riesgo de los datos, ver Sweeney, Crosas, and Bar-Sinai (2015) . Por último, para una discusión más general de intercambio de datos, ver Yakowitz (2011) .
Para un análisis más detallado de este compromiso entre el riesgo y la utilidad de los datos, consulte Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , y Goroff (2015) . Para ver esta disyuntiva aplicada a los datos reales de los cursos abiertos de forma masiva en línea (MOOCs), ver Daries et al. (2014) y Angiuli, Blitzstein, and Waldo (2015) .
Privacidad diferencial también ofrece un enfoque alternativo que se puede combinar tanto de alto beneficio para la sociedad y de bajo riesgo para los participantes, ver Dwork and Roth (2014) y Narayanan, Huey, and Felten (2016) .
Para más información sobre el concepto de información de identificación personal (PII), que es fundamental para muchas de las normas sobre ética de la investigación, véase Narayanan and Shmatikov (2010) y Schwartz and Solove (2011) . Para más información sobre todos los datos potencialmente sensibles, ver Ohm (2015) .
En esta sección, he retratado la vinculación de diferentes conjuntos de datos como algo que puede dar lugar a riesgos informativo. Sin embargo, también puede crear nuevas oportunidades para la investigación, como se argumenta en Currie (2013) .
Para más información sobre las cinco cajas fuertes, ver Desai, Ritchie, and Welpton (2016) . Para un ejemplo de cómo los productos se pueden identificar, ver Brownstein, Cassa, and Mandl (2006) , que muestra cómo los mapas de prevalencia de la enfermedad pueden ser la identificación. Dwork et al. (2017) también considera los ataques contra los datos agregados, tales como estadísticas sobre cuántas personas tienen una cierta enfermedad.
Warren and Brandeis (1890) es un artículo legal señal acerca de la privacidad, y el artículo es el más asociado con la idea de que la privacidad es un derecho a ser dejado solo. Más recientemente, los tratamientos de longitud libro de privacidad que recomiendo incluyen Solove (2010) y Nissenbaum (2010) .
Para una revisión de la investigación empírica sobre cómo la gente piensa acerca de la privacidad, consulte Acquisti, Brandimarte, and Loewenstein (2015) . La revista Science publicó un número especial titulado "El fin de la privacidad", que aborda las cuestiones de privacidad y riesgos de la información de una variedad de diferentes perspectivas; para un resumen ver Enserink and Chin (2015) . Calo (2011) ofrece un marco para pensar acerca de los daños que vienen de violaciónes de privacidad. Un ejemplo temprano de las preocupaciones sobre la privacidad en los inicios de la era digital es Packard (1964) .
Uno de los retos al tratar de aplicar el estándar mínimo riesgo es que no está claro cuya vida diaria se va a utilizar para la evaluación comparativa (Council 2014) . Por ejemplo, las personas sin hogar tienen mayores niveles de malestar en su vida diaria. Sin embargo, eso no implica que es éticamente permisible para exponer a las personas sin hogar para la investigación de alto riesgo. Por esta razón, parece que hay un consenso creciente de que un riesgo mínimo debería valorarse a partir de un estándar de la población en general, no es un estándar de la población específica. Si bien por lo general de acuerdo con la idea de un estándar de la población en general, creo que para las grandes plataformas en línea como Facebook, un estándar específico de la población es razonable. Es decir, cuando se considera el contagio emocional, creo que es razonable punto de referencia contra los riesgos cotidianos en Facebook. Un estándar de la población específica en este caso es mucho más fácil de evaluar y es poco probable que entren en conflicto con el principio de Justicia, que busca prevenir las cargas de la investigación en su defecto injustamente en los grupos desfavorecidos (por ejemplo, los presos y los huérfanos).
Otros investigadores también han pedido más documentos para incluir apéndices éticos (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) también ofrece consejos prácticos.