Este apéndice histórico proporciona una breve reseña de la ética de la investigación en los Estados Unidos.
Cualquier discusión sobre ética de la investigación necesita reconocer que, en el pasado, los investigadores han hecho cosas terribles en nombre de la ciencia. Uno de los peores de estos fue el Estudio de sífilis de Tuskegee (tabla 6.4). En 1932, investigadores del Servicio de Salud Pública de EE. UU. (PHS) inscribieron a unos 400 hombres negros infectados con sífilis en un estudio para controlar los efectos de la enfermedad. Estos hombres fueron reclutados en el área alrededor de Tuskegee, Alabama. Desde el principio, el estudio no fue terapéutico; fue diseñado simplemente para documentar la historia de la enfermedad en hombres negros. Los participantes fueron engañados sobre la naturaleza del estudio -se les dijo que era un estudio de "mala sangre" - y se les ofreció un tratamiento falso e ineficaz, a pesar de que la sífilis es una enfermedad mortal. A medida que avanzó el estudio, se desarrollaron tratamientos seguros y eficaces para la sífilis, pero los investigadores intervinieron activamente para evitar que los participantes reciban tratamiento en otro lugar. Por ejemplo, durante la Segunda Guerra Mundial, el equipo de investigación aseguró los aplazamientos del proyecto para todos los hombres en el estudio con el fin de evitar el tratamiento que los hombres hubieran recibido si hubieran ingresado a las Fuerzas Armadas. Los investigadores continuaron engañando a los participantes y les negaron atención durante 40 años.
El estudio de la sífilis de Tuskegee tuvo lugar en un contexto de racismo y desigualdad extrema que era común en el sur de los Estados Unidos en ese momento. Pero, a lo largo de sus 40 años de historia, el estudio involucró a docenas de investigadores, tanto en blanco como en negro. Y, además de los investigadores directamente involucrados, muchos más deben haber leído uno de los 15 informes del estudio publicado en la literatura médica (Heller 1972) . A mediados de la década de 1960, unos 30 años después de que comenzara el estudio, un empleado de PHS llamado Robert Buxtun comenzó a presionar dentro del PHS para finalizar el estudio, que consideraba moralmente escandaloso. En respuesta a Buxtun, en 1969, el PHS convocó a un panel para hacer una revisión ética completa del estudio. Sorprendentemente, el panel de revisión ética decidió que los investigadores deberían continuar reteniendo el tratamiento de los hombres infectados. Durante las deliberaciones, un miembro del panel incluso comentó: "Nunca tendrá otro estudio como este; aprovéchalo " (Brandt 1978) . El panel de blancos, que estaba compuesto principalmente por médicos, sí decidió que se debía obtener alguna forma de consentimiento informado. Pero el panel juzgó a los hombres mismos incapaces de proporcionar un consentimiento informado debido a su edad y bajo nivel de educación. El panel recomendó, por lo tanto, que los investigadores reciban el "consentimiento informado sustitutivo" de los funcionarios médicos locales. Entonces, incluso después de una revisión ética completa, la retención de la atención continuó. Eventualmente, Buxtun llevó la historia a un periodista y, en 1972, Jean Heller escribió una serie de artículos de periódicos que expusieron el estudio al mundo. Solo después de la indignación pública generalizada, finalmente se finalizó el estudio y se brindó atención a los hombres que sobrevivieron.
Fecha | Evento |
---|---|
1932 | Aproximadamente 400 hombres con sífilis están inscritos en el estudio; ellos no están informados de la naturaleza de la investigación |
1937-38 | El PHS envía unidades móviles de tratamiento al área, pero el tratamiento se retiene para los hombres en el estudio |
1942-43 | Con el fin de evitar que los hombres en el estudio reciban tratamiento, PHS interviene para evitar que sean reclutados para la Segunda Guerra Mundial. |
1950 | La penicilina se convierte en un tratamiento ampliamente disponible y efectivo para la sífilis; los hombres en el estudio todavía no reciben tratamiento (Brandt 1978) |
1969 | El PHS convoca una revisión ética del estudio; el panel recomienda que el estudio continúe |
1972 | Peter Buxtun, un ex empleado de PHS, le cuenta a un periodista sobre el estudio, y la prensa rompe la historia |
1972 | El Senado de los EE. UU. Realiza audiencias sobre experimentación humana, incluido Tuskegee Study |
1973 | El gobierno finaliza oficialmente el estudio y autoriza el tratamiento para sobrevivientes |
1997 | El presidente de los Estados Unidos, Bill Clinton, se disculpa pública y oficialmente por el estudio de Tuskegee |
Las víctimas de este estudio incluyeron no solo a los 399 hombres, sino también a sus familias: al menos 22 esposas, 17 niños y 2 nietos con sífilis pueden haber contraído la enfermedad como resultado de la suspensión del tratamiento (Yoon 1997) . Además, el daño causado por el estudio continuó mucho después de que terminó. El estudio-justificadamente-disminuyó la confianza que los afroamericanos tenían en la comunidad médica, una erosión en la confianza que pudo haber llevado a los afroamericanos a evitar la atención médica en detrimento de su salud (Alsan and Wanamaker 2016) . Además, la falta de confianza obstaculizó los esfuerzos para tratar el VIH / SIDA en los años ochenta y noventa (Jones 1993, chap. 14) .
Aunque es difícil imaginar la investigación tan horrible sucediendo hoy en día, creo que hay tres lecciones importantes desde el estudio de la sífilis de Tuskegee para las personas que llevan a cabo la investigación social en la era digital. En primer lugar, nos recuerda que hay algunos estudios que simplemente no debería suceder. En segundo lugar, nos muestra que la investigación puede dañar no sólo a los participantes, sino también a sus familias y comunidades enteras mucho después de la investigación se ha completado. Por último, muestra que los investigadores puedan tomar decisiones éticas terribles. De hecho, creo que debería inducir a algunos investigadores en el miedo hoy que tantas personas involucradas en este estudio toman tales decisiones terribles durante un largo período de tiempo. Y, por desgracia, Tuskegee es de ninguna manera única; había varios otros ejemplos de la investigación social y médica problemática durante esta época (Katz, Capron, and Glass 1972; Emanuel et al. 2008) .
En 1974, en respuesta al Estudio de Sífilis Tuskegee y estas otras fallas éticas de los investigadores, el Congreso de los Estados Unidos creó la Comisión Nacional para la Protección de Sujetos Humanos de la Investigación Biomédica y del Comportamiento y le encargó desarrollar directrices éticas para la investigación con seres humanos. Después de cuatro años de reunión en el Centro de conferencias de Belmont, el grupo produjo el Informe Belmont , un informe que ha tenido un tremendo impacto tanto en los debates abstractos en bioética como en la práctica diaria de la investigación.
El Informe Belmont tiene tres secciones. En el primero, "Límites entre la práctica y la investigación", el informe establece su alcance. En particular, defiende una distinción entre la investigación , que busca conocimiento generalizable, y la práctica , que incluye el tratamiento y las actividades cotidianas. Además, argumenta que los principios éticos del Informe Belmont se aplican solo a la investigación. Se ha argumentado que esta distinción entre investigación y práctica es una de las formas en que el Informe Belmont no es adecuado para la investigación social en la era digital (Metcalf and Crawford 2016; boyd 2016) .
La segunda y tercera partes del Informe Belmont establecen tres principios éticos: respeto por las personas; Beneficencia; y Justicia, y describe cómo se pueden aplicar estos principios en la práctica de la investigación. Estos son los principios que describí con más detalle en el texto principal de este capítulo.
El Informe Belmont establece objetivos generales, pero no es un documento que pueda usarse fácilmente para supervisar las actividades cotidianas. Por lo tanto, el gobierno de EE. UU. Creó un conjunto de regulaciones que se denominan coloquialmente Regla común (su nombre oficial es el Título 45 del Código de Regulaciones Federales, Parte 46, Subparte AD) (Porter and Koski 2008) . Estas regulaciones describen el proceso para revisar, aprobar y supervisar la investigación, y son las regulaciones que las juntas de revisión institucional (IRB) tienen la tarea de aplicar. Para entender la diferencia entre el Informe Belmont y la Regla común, considere cómo cada uno analiza el consentimiento informado: el Informe Belmont describe las razones filosóficas para el consentimiento informado y amplias características que representarían el consentimiento informado verdadero, mientras que la Regla común enumera los ocho requeridos y seis elementos opcionales de un documento de consentimiento informado. Por ley, la Regla común rige casi todas las investigaciones que reciben fondos del gobierno de los Estados Unidos. Además, muchas instituciones que reciben fondos del gobierno de los Estados Unidos generalmente aplican la regla común a todas las investigaciones que suceden en esa institución, independientemente de la fuente de financiación. Pero la regla común no se aplica automáticamente a las empresas que no reciben fondos de investigación del gobierno de EE. UU.
Creo que casi todos los investigadores respetan los objetivos generales de la investigación ética tal como se expresa en el Informe Belmont, pero existe una gran molestia con la Regla común y el proceso de trabajo con los CEI (Schrag 2010, 2011; Hoonaard 2011; Klitzman 2015; King and Sands 2015; Schneider 2015) . Para ser claros, los críticos con los IRB no están en contra de la ética. Por el contrario, creen que el sistema actual no logra un equilibrio adecuado o que podría lograr mejor sus objetivos a través de otros métodos. Yo, sin embargo, tomaré estos IRB como dados. Si se le exige que siga las reglas de un IRB, entonces debe hacerlo. Sin embargo, lo aliento a que también tome un enfoque basado en principios al considerar la ética de su investigación.
Estos antecedentes resumen brevemente cómo llegamos al sistema de revisión IRB basado en reglas en los Estados Unidos. Al considerar el Informe Belmont y la Regla común de hoy, debemos recordar que fueron creados en una época diferente y respondieron con sensatez a los problemas de esa época, en particular a las infracciones de la ética médica durante y después de la Segunda Guerra Mundial (Beauchamp 2011) .
Además de los esfuerzos de científicos médicos y de comportamiento para crear códigos éticos, también hubo esfuerzos más pequeños y menos conocidos por parte de los científicos en computación. De hecho, los primeros investigadores que se toparon con los desafíos éticos creados por la investigación de la era digital no fueron científicos sociales: eran científicos informáticos, específicamente investigadores en seguridad informática. Durante la década de 1990 y 2000, los investigadores de seguridad informática realizaron una serie de estudios éticamente cuestionables que involucraron cosas como hacerse cargo de botnets y piratear miles de computadoras con contraseñas débiles (Bailey, Dittrich, and Kenneally 2013; Dittrich, Carpenter, and Karir 2015) . En respuesta a estos estudios, el gobierno de los EE. UU. -específicamente el Departamento de Seguridad Nacional- creó una comisión básica para redactar un marco ético orientador para la investigación que involucra las tecnologías de la información y la comunicación (TIC). El resultado de este esfuerzo fue el Informe Menlo (Dittrich, Kenneally, and others 2011) . Aunque las preocupaciones de los investigadores de seguridad informática no son exactamente las mismas que las de los investigadores sociales, el Informe Menlo proporciona tres lecciones importantes para los investigadores sociales.
Primero, el Informe Menlo reafirma los tres principios de Belmont-Respeto por las personas, la beneficencia y la justicia-y agrega un cuarto: Respeto por la ley y el interés público . Describí este cuarto principio y cómo debería aplicarse a la investigación social en el texto principal de este capítulo (sección 6.4.4).
Segundo, el Informe Menlo llama a los investigadores a ir más allá de la definición estricta de "investigación que involucra sujetos humanos" del Informe Belmont a una noción más general de "investigación con potencial dañino para los seres humanos". Las limitaciones del alcance del Informe Belmont son bien ilustrado por Encore. Los IRB en Princeton y Georgia Tech dictaminaron que Encore no era una "investigación que involucraba sujetos humanos" y, por lo tanto, no estaba sujeta a revisión bajo la Regla común. Sin embargo, Encore claramente tiene potencial para dañar a los humanos; en su forma más extrema, Encore podría potencialmente resultar en personas inocentes encarceladas por gobiernos represivos. Un enfoque basado en principios significa que los investigadores no deben esconderse detrás de una definición legal estrecha de "investigación que involucra sujetos humanos", incluso si los IRB lo permiten. Por el contrario, deberían adoptar una noción más general de "investigación con potencial perjudicial para los seres humanos" y deberían someter todas sus propias investigaciones a un potencial de daño humano a una consideración ética.
En tercer lugar, el Informe Menlo hace un llamamiento a los investigadores para que amplíen las partes interesadas que se tienen en cuenta al aplicar los principios de Belmont. A medida que la investigación se ha trasladado de una esfera de vida separada a algo que está más incrustado en las actividades cotidianas, las consideraciones éticas deben ampliarse más allá de los participantes de investigación específicos para incluir a los no participantes y el entorno en el que tiene lugar la investigación. En otras palabras, el Informe Menlo exige que los investigadores amplíen su campo de visión ética más allá de solo sus participantes.
Este apéndice histórico ha proporcionado una revisión muy breve de la ética de la investigación en las ciencias sociales y médicas y en ciencias de la computación. Para un tratamiento de un libro sobre la ética de la investigación en la ciencia médica, ver Emanuel et al. (2008) o Beauchamp and Childress (2012) .