Cualquier discusión sobre la ética de la investigación tiene que reconocer que, en el pasado, los investigadores han hecho cosas terribles en nombre de la ciencia. Uno de los más horrible fue el estudio de la sífilis de Tuskegee. En 1932, los investigadores del Servicio de Salud Pública (PHS) inscribieron cerca de 400 hombres negros infectados con sífilis en un estudio de seguimiento de los efectos de la enfermedad. Estos hombres fueron reclutados de la zona alrededor de Tuskegee, Alabama. Desde el comienzo del estudio fue no terapéutico; que fue diseñado para simplemente documentar la historia de la enfermedad en los hombres negros. Los participantes fueron engañados acerca de la naturaleza del estudio, se les dijo que se trataba de un estudio de la "mala sangre", y se les ofreció un tratamiento falso e ineficaz, a pesar de que la sífilis es una enfermedad mortal. A medida que avanzaba el estudio, se han desarrollado tratamientos seguros y eficaces para la sífilis, pero los investigadores intervinieron activamente para evitar que los participantes reciban el tratamiento en otro lugar. Por ejemplo, durante la Segunda Guerra Mundial, el equipo de investigación asegurado proyectos de aplazamiento de pago para todos los hombres en el estudio con el fin de evitar que el tratamiento de los hombres habrían recibido si hubieran entrado las Fuerzas Armadas. Los investigadores continuaron para engañar a los participantes y les niega atención médica durante 40 años. El estudio fue un reloj de la muerte de 40 años.
El estudio de la sífilis de Tuskegee tuvo lugar en un contexto de racismo y la desigualdad extrema que era común en la parte sur de los EE.UU. en el momento. Pero, a lo largo de sus 40 años de historia, el estudio incluyó a decenas de investigadores, tanto en blanco y negro. Y, además de los investigadores involucrados directamente, muchos más deben haber leído uno de los 15 informes del estudio publicado en la literatura médica (Heller 1972) . A mediados de la década de 1960, unos 30 años después de que comenzara el estudio, un empleado llamado Robert PHS Buxtun comenzó a empujar dentro del PHS para terminar el estudio, que consideraba moralmente indignante. En respuesta a Buxtun, en 1969 el PHS convocó a un panel para hacer una revisión ética completa del estudio. Sorprendentemente, el grupo de revisión ética decidió que los investigadores deben continuar reteniendo el tratamiento de los hombres infectados. Durante las deliberaciones, uno de los miembros del panel, incluso comentó: "Usted nunca tendrá otro estudio como éste; tomar ventaja de ella " (Brandt 1978) . El panel de todo blanco, que se compone sobre todo de los médicos, hizo decidir que alguna forma de consentimiento informado debe ser adquirido. Sin embargo, el panel juzgó a los hombres que son incapaces de proporcionar el consentimiento informado a causa de su edad y el bajo nivel de educación. El panel recomienda, por tanto, que los investigadores reciben "consentimiento informado sustituto" de las autoridades médicas locales. Por lo tanto, incluso después de un un estudio ético completo, la retención de la atención continuó. Con el tiempo, Robert Buxtun llevó la historia a un periodista, y en 1972 Jean Heller escribió una serie de artículos periodísticos que expusieron el estudio para el mundo. Fue sólo después de la indignación pública generalizada de que el estudio fue finalmente terminó y la atención se ofreció a los hombres que habían sobrevivido.
Fecha | Evento |
---|---|
1932 | aproximadamente 400 hombres con sífilis se inscribieron en el estudio; no se les informa de la naturaleza de la investigación |
1937-1938 | PHS envía unidades móviles de tratamiento a la zona, pero el tratamiento se interrumpe durante los hombres en el estudio |
1942-1943 | PHS interviene para impedir que los hombres ser reclutado para la Segunda Guerra Mundial con el fin de evitar que reciben tratamiento |
1950 | La penicilina se convierte en un tratamiento ampliamente disponible y eficaz para la sífilis; los hombres todavía no se tratan (Brandt 1978) |
1969 | PHS convoca una revisión ética del estudio; panel recomienda que el estudio continúe |
1972 | Peter Buxtun, un ex empleado de PHS, le dice a un reportero sobre el estudio; y pulse rompe la historia |
1972 | Senado de Estados Unidos lleva a cabo audiencias sobre la experimentación con seres humanos, incluyendo el estudio de Tuskegee |
1973 | Gobierno termina oficialmente el estudio y autoriza el tratamiento de los supervivientes |
1997 | El presidente de Estados Unidos Bill Clinton se disculpa pública y oficialmente para el Estudio Tuskegee |
Las víctimas de este estudio incluyen no sólo los 399 hombres, sino también a sus familias: al menos 22 mujeres, 17 niños y 2 nietos con sífilis pueden haber contraído la enfermedad como consecuencia de la retención del tratamiento (Yoon 1997) . Además, el daño causado por el estudio continuó mucho después de que terminara. El estudio-justificadamente-disminuyó la confianza de que los afroamericanos tenían en la comunidad médica, una erosión en la confianza de que puede haber llevado a los afroamericanos para evitar la atención médica a la determent de su salud (Alsan and Wanamaker 2016) . Además, la falta de confianza obstaculizado los esfuerzos para tratar el VIH / SIDA en la década de 1980 y 90 (Jones 1993, Ch. 14) .
Aunque es difícil imaginar la investigación tan horrible sucediendo hoy en día, creo que hay tres lecciones importantes desde el estudio de la sífilis de Tuskegee para las personas que llevan a cabo la investigación social en la era digital. En primer lugar, nos recuerda que hay algunos estudios que simplemente no debería suceder. En segundo lugar, nos muestra que la investigación puede dañar no sólo a los participantes, sino también a sus familias y comunidades enteras mucho después de la investigación se ha completado. Por último, muestra que los investigadores puedan tomar decisiones éticas terribles. De hecho, creo que debería inducir a algunos investigadores en el miedo hoy que tantas personas involucradas en este estudio toman tales decisiones terribles durante un largo período de tiempo. Y, por desgracia, Tuskegee es de ninguna manera única; había varios otros ejemplos de la investigación social y médica problemática durante esta época (Katz, Capron, and Glass 1972; Emanuel et al. 2008) .
En 1974, en respuesta al estudio de la sífilis de Tuskegee y estas otras fallas éticas de los investigadores, el Congreso de Estados Unidos creó la Comisión Nacional para la Protección de Sujetos Humanos de Investigación Biomédica y de Comportamiento y encargó al comité para desarrollar directrices éticas para la investigación en seres humanos. Después de cuatro años de reunión en el Belmont Conference Center, el grupo produjo el Informe Belmont, un documento delgado pero de gran alcance que ha tenido un enorme impacto en ambos debates abstractos en la bioética y la práctica cotidiana de la investigación.
El Informe Belmont tiene tres secciones. En la primera sección-límites entre la práctica y la investigación-Informe Belmont establece su ámbito de competencia. En particular, se argumenta a favor de una distinción entre la investigación que busca el conocimiento generalizable, y en la práctica, que incluye el tratamiento y las actividades de todos los días. Además, se argumenta que los principios éticos del Informe Belmont se aplican sólo a la investigación. Se ha argumentado que esta distinción entre la investigación y la práctica es una manera de que el Informe Belmont es inadaptado para la investigación social en la era digital (Metcalf and Crawford 2016; boyd 2016) .
Las partes segunda y tercera del Informe Belmont trazan tres principios-Respeto por las personas éticas; Beneficencia; y Justicia y describir cómo estos principios pueden ser aplicados en la práctica de la investigación. Estos son los principios que se describe con más detalle en el capítulo.
El Informe Belmont fija metas amplias, pero no es un documento que puede ser fácilmente utilizado para supervisar las actividades del día a día. Por lo tanto, el Gobierno de Estados Unidos creó un conjunto de normas que se denominan coloquialmente la Regla Común (su nombre oficial es el Título 45 del Código de Regulaciones Federales, Parte 46, Subparte A - D) (Porter and Koski 2008) . Este reglamento describe el proceso de revisar, aprobar y supervisar la investigación, y son las regulaciones que Juntas de Revisión Institucional (IRB) tienen la tarea de hacer cumplir. Para entender la diferencia entre el Informe Belmont y la Regla Común, tenga en cuenta cómo cada discute el consentimiento informado: el Informe Belmont describe las razones filosóficas para el consentimiento informado y las características generales que representarían el consentimiento informado verdadera mientras que la Regla Común enumera los ocho requerido y seis opcional elementos de un documento de consentimiento informado. Por ley, la Regla Común gobierna casi toda la investigación que recibe fondos del gobierno de Estados Unidos. Además, muchas instituciones que reciben fondos del gobierno de Estados Unidos suelen aplicar la Regla Común a todas las investigaciones sucediendo en esa institución, independientemente de la fuente de financiación. Sin embargo, la Regla Común no se aplica automáticamente a las empresas que no reciben fondos de investigación del gobierno de Estados Unidos.
Creo que casi todos los investigadores respetan los objetivos generales de la investigación ética tal como se expresa en el Informe Belmont, pero hay molestia generalizada con la Regla Común y el proceso de trabajar con la IRB (Schrag 2010; Schrag 2011; Hoonaard 2011; Klitzman 2015; King and Sands 2015; Schneider 2015) . Para que quede claro, los críticos de los IRB no están en contra de la ética. Por el contrario, creen que el sistema actual no establece un equilibrio adecuado o podría alcanzar mejor sus objetivos a través de otros métodos. Este capítulo, sin embargo, se llevará a estos IRB como algo dado. Si usted está obligado a seguir las reglas de un IRB, entonces usted debe seguirlos. Sin embargo, me animo a tomar también un enfoque basado en principios al considerar la ética de su investigación.
Este fondo se resumen muy brevemente cómo llegamos al sistema basado en normas de revisión del CEI en los Estados Unidos. Al considerar el Informe Belmont y la regla común hoy en día, hay que recordar que fueron creados en una era diferente y se-con bastante sensatez, respondiendo a los problemas de la época, en determinadas formas de violación de la ética médica durante y después de la Segunda Guerra Mundial (Beauchamp 2011) .
Además de los esfuerzos de ética de los científicos médicos y de comportamiento para crear códigos éticos, hay también más pequeño y menos bien eran conocidos por los esfuerzos científicos de la computación. De hecho, los primeros investigadores que se ejecutan en los desafíos éticos creados por la investigación era digital no eran científicos sociales; que eran los informáticos, en concreto los investigadores en seguridad informática. Durante los años 1990 y 2000 los investigadores de seguridad informática llevaron a cabo una serie de estudios éticamente cuestionable que involucraban cosas como hacerse cargo de las redes de bots y la piratería en miles de ordenadores con contraseñas débiles (Bailey, Dittrich, and Kenneally 2013; Dittrich, Carpenter, and Karir 2015) . En respuesta a estos estudios, los EE.UU. Gobierno, específicamente el Departamento de Seguridad Nacional a crear una comisión de ciudadanos para escribir un marco ético rector de realizar investigaciones sobre tecnologías de la información y la comunicación (TIC). Los resultados de este esfuerzo fue el informe Menlo (Dittrich, Kenneally, and others 2011) . A pesar de las preocupaciones de los investigadores de seguridad informática no son exactamente los mismos que los investigadores sociales, el Informe Menlo ofrece tres lecciones importantes para los investigadores sociales.
En primer lugar, el Informe Menlo reafirma los tres principios Belmont-Respeto por las personas, beneficencia y justicia, y añade un cuarto principio: el respeto del derecho y el interés público. He descrito este cuarto principio y cómo se debe aplicar a la investigación social en el capítulo principal (Sección 6.4.4).
En segundo lugar, el Informe Menlo pide a los investigadores a ir más allá de una definición estrecha de "investigación en seres humanos" en el Informe Belmont a una noción más general de "la investigación con potencial para dañar humano." Las limitaciones del alcance del Informe Belmont se bien ilustrado por Encore. Las IRB en Princeton y Georgia Tech dictaminó que Encore no era "la investigación en seres humanos," y por lo tanto no está sujeta a revisión en virtud de la Regla Común. Sin embargo, Encore claramente tiene potencial para dañar humana; en su forma más extrema, Encore podría resultar potencialmente en personas inocentes encarcelados por los gobiernos represivos. A los enfoques basados en principios significan que los investigadores no deben ocultarse detrás de una definición estrecha, jurídico de los "sujetos humanos de investigación que implica", incluso si lo permiten las IRB. Más bien, deben adoptar una noción más general de y deben someter todas sus propias instituciones de investigación con humanos dañar potencial de consideración ética "de investigación con potencial para dañar humana".
En tercer lugar, el Informe Menlo pide a los investigadores a ampliar los grupos de interés que se consideran en la aplicación de los principios de Belmont. A medida que la investigación se ha movido de una esfera separada de la vida a algo que está más integrado en las actividades del día a día, las consideraciones éticas deben ampliarse más allá de los participantes en investigaciones específicas para incluir a los no participantes y el entorno en el que se realiza la investigación. En otras palabras, el Informe Menlo llama a los investigadores a ampliar su campo de vista ético más allá de sus participantes.
Este apéndice histórico ofrece una breve revisión de ética de la investigación en la ciencia médica y social, así como la informática. Para un tratamiento longitud libro de ética de la investigación en las ciencias médicas, consulte Emanuel et al. (2008) o Beauchamp and Childress (2012) .