La investigación social en la era digital tiene características diferentes y, por tanto, plantea diferentes cuestiones éticas.
En la era analógica, la mayoría de las investigaciones sociales tenían una escala relativamente limitada y operaban dentro de un conjunto de reglas razonablemente claras. La investigación social en la era digital es diferente. Los investigadores, a menudo en colaboración con empresas y gobiernos, tienen más poder sobre los participantes que en el pasado, y aún no están claras las reglas sobre cómo se debe usar ese poder. Por poder, me refiero simplemente a la capacidad de hacer cosas a las personas sin su consentimiento o incluso conocimiento. El tipo de cosas que los investigadores pueden hacer a las personas incluyen observar su comportamiento e inscribirlos en experimentos. A medida que aumenta el poder de los investigadores para observar y perturbar, no ha habido un aumento equivalente en la claridad sobre cómo se debe usar ese poder. De hecho, los investigadores deben decidir cómo ejercer su poder basándose en reglas, leyes y normas inconsistentes y superpuestas. Esta combinación de capacidades poderosas y pautas vagas crea situaciones difíciles.
Un conjunto de poderes que los investigadores ahora tienen es la capacidad de observar el comportamiento de las personas sin su consentimiento o conciencia. Los investigadores podrían, por supuesto, hacer esto en el pasado, pero en la era digital, la escala es completamente diferente, un hecho que ha sido proclamado repetidamente por muchos fanáticos de las fuentes de big data. En particular, si pasamos de la escala de un estudiante o profesor individual y, en cambio, consideramos la escala de una empresa o gobierno -instituciones con las que los investigadores colaboran cada vez más- los posibles problemas éticos se vuelven complejos. Una metáfora que creo que ayuda a las personas a visualizar la idea de la vigilancia masiva es el panóptico . Originalmente propuesto por Jeremy Bentham como una arquitectura para prisiones, el panóptico es un edificio circular con celdas construidas alrededor de una atalaya central (figura 6.3). Quien ocupa esta atalaya puede observar el comportamiento de todas las personas en las habitaciones sin que ella misma lo vea. La persona en la atalaya es, por lo tanto, un vidente invisible (Foucault 1995) . Para algunos defensores de la privacidad, la era digital nos ha movido a una prisión panóptica donde las compañías tecnológicas y los gobiernos están constantemente observando y recodificando nuestro comportamiento.
Para llevar esta metáfora un poco más allá, cuando muchos investigadores sociales piensan acerca de la era digital, se imaginan dentro de la atalaya, observando el comportamiento y creando una base de datos maestra que podría usarse para realizar todo tipo de investigaciones emocionantes e importantes. Pero ahora, en lugar de imaginarse en la atalaya, imagínese en una de las celdas. Esa base de datos maestra comienza a parecerse a lo que Paul Ohm (2010) ha llamado una base de datos de ruina , que podría usarse de manera no ética.
Algunos lectores de este libro tienen la suerte de vivir en países en los que confían en sus videntes invisibles para usar sus datos de manera responsable y protegerlos de los adversarios. Otros lectores no tienen tanta suerte, y estoy seguro de que las cuestiones planteadas por la vigilancia masiva son muy claras para ellos. Pero creo que incluso para los afortunados lectores todavía hay una preocupación importante planteada por la vigilancia masiva: el uso secundario no anticipado . Es decir, una base de datos creada para un propósito, como anuncios de segmentación, podría usarse algún día para un fin muy diferente. Un horrendo ejemplo de uso secundario imprevisto ocurrió durante la Segunda Guerra Mundial, cuando los datos del censo del gobierno se utilizaron para facilitar el genocidio que estaba teniendo lugar contra judíos, romaníes y otros (Seltzer and Anderson 2008) . Los estadísticos que recopilaron los datos durante tiempos de paz casi con certeza tenían buenas intenciones, y muchos ciudadanos confiaban en que usarían los datos de manera responsable. Pero, cuando el mundo cambió, cuando los nazis llegaron al poder, estos datos permitieron un uso secundario que nunca se anticipó. En pocas palabras, una vez que existe una base de datos maestra, es difícil anticipar quién puede acceder a ella y cómo se usará. De hecho, William Seltzer y Margo Anderson (2008) han documentado 18 casos en los cuales los sistemas de datos poblacionales han estado involucrados o potencialmente involucrados en abusos contra los derechos humanos (tabla 6.1). Además, como señalan Seltzer y Anderson, esta lista es casi seguro una subestimación porque la mayoría de los abusos ocurren en secreto.
Lugar | Hora | Individuos o grupos específicos | Sistema de datos | Violación de los derechos humanos o presunta intención de estado |
---|---|---|---|---|
Australia | XIX y principios del siglo XX | Aborígenes | Registro de población | Migración forzada, elementos de genocidio |
China | 1966-76 | Origen de clase mala durante la revolución cultural | Registro de población | La migración forzada, la violencia instigada mafia |
Francia | 1940-44 | Judíos | Registro de población, censos especiales | Migración forzada, genocidio |
Alemania | 1933-45 | Judíos, romaníes y otros | Numeroso | Migración forzada, genocidio |
Hungría | 1945-46 | Los ciudadanos alemanes y los que informan la lengua materna alemana | Censo de población de 1941 | Migración forzada |
Países Bajos | 1940-44 | Judíos y Roma | Sistemas de registro de población | Migración forzada, genocidio |
Noruega | 1845-1930 | Samis y Kvens | Censos de población | Limpieza étnica |
Noruega | 1942-44 | Judíos | Censo especial y registro de población propuesto | Genocidio |
Polonia | 1939-43 | Judíos | Censos principalmente especiales | Genocidio |
Rumania | 1941-43 | Judíos y Roma | Censo de población de 1941 | Migración forzada, genocidio |
Ruanda | 1994 | Tutsi | Registro de población | Genocidio |
Sudáfrica | 1950-93 | Poblaciones africanas y "de color" | Censo de población de 1951 y registro de población | Apartheid, exclusión de votantes |
Estados Unidos | Siglo 19 | Nativos americanos | Censos especiales, registros de población | Migración forzada |
Estados Unidos | 1917 | Sospechosos violadores de la ley de proyecto | Censo de 1910 | Investigación y enjuiciamiento de aquellos que evitan el registro |
Estados Unidos | 1941-45 | Japoneses americanos | Censo de 1940 | Migración forzada e internamiento |
Estados Unidos | 2001-08 | Sospechosos terroristas | Encuestas NCES y datos administrativos | Investigación y enjuiciamiento de terroristas nacionales e internacionales |
Estados Unidos | 2003 | Árabe-Americanos | Censo 2000 | Desconocido |
URSS | 1919-39 | Poblaciones minoritarias | Varios censos de población | Migración forzada, castigo de otros delitos graves |
Los investigadores sociales ordinarios están muy lejos de cualquier cosa como participar en abusos contra los derechos humanos a través del uso secundario. Sin embargo, he decidido analizarlo porque creo que lo ayudará a comprender cómo algunas personas pueden reaccionar a su trabajo. Volvamos al proyecto Tastes, Ties y Time, como un ejemplo. Al fusionar datos completos y granulares de Facebook con datos completos y granulares de Harvard, los investigadores crearon una visión increíblemente rica de la vida social y cultural de los estudiantes (Lewis et al. 2008) . Para muchos investigadores sociales, esto parece ser la base de datos maestra, que podría usarse para siempre. Pero para algunos otros, parece el comienzo de la base de datos de ruina, que podría usarse sin ética. De hecho, es probable que sea un poco de ambos.
Además de la vigilancia masiva, los investigadores -una vez más en colaboración con empresas y gobiernos- pueden intervenir cada vez más en la vida de las personas para crear experimentos controlados aleatorios. Por ejemplo, en Emotional Contagion, los investigadores inscribieron a 700,000 personas en un experimento sin su consentimiento o conocimiento. Como describí en el capítulo 4, este tipo de reclutamiento secreto de participantes en experimentos no es infrecuente, y no requiere la cooperación de grandes compañías. De hecho, en el capítulo 4, te enseñé cómo hacerlo.
En vista de este aumento de poder, los investigadores están sujetos a reglas, leyes y normas inconsistentes y superpuestas . Una fuente de esta incoherencia es que las capacidades de la era digital están cambiando más rápidamente que las reglas, las leyes y las normas. Por ejemplo, la Regla común (el conjunto de regulaciones que gobierna la mayoría de las investigaciones financiadas por el gobierno en los Estados Unidos) no ha cambiado mucho desde 1981. Una segunda fuente de inconsistencia es que las normas sobre conceptos abstractos como la privacidad todavía están siendo debatidas activamente por los investigadores , legisladores y activistas. Si los especialistas en estas áreas no pueden alcanzar un consenso uniforme, no deberíamos esperar que investigadores empíricos o participantes lo hagan. Una tercera y última fuente de inconsistencia es que la investigación de la era digital se mezcla cada vez más con otros contextos, lo que conduce a normas y reglas potencialmente superpuestas. Por ejemplo, Emotional Contagion fue una colaboración entre un científico de datos en Facebook y un profesor y estudiante de posgrado en Cornell. En ese momento, era común en Facebook realizar grandes experimentos sin supervisión de terceros, siempre y cuando los experimentos cumplieran con los términos de servicio de Facebook. En Cornell, las normas y reglas son bastante diferentes; virtualmente todos los experimentos deben ser revisados por el IRB de Cornell. Entonces, ¿qué conjunto de reglas debería regir el Contagio Emocional-Facebook o Cornell? Cuando existen reglas, leyes y normas inconsistentes y superpuestas, incluso los investigadores bien intencionados pueden tener problemas para hacer lo correcto. De hecho, debido a la inconsistencia, puede que ni siquiera haya una sola cosa correcta.
En general, estas dos características -aumento de poder y falta de acuerdo sobre cómo debería usarse ese poder- significan que los investigadores que trabajan en la era digital enfrentarán desafíos éticos en el futuro previsible. Afortunadamente, al enfrentar estos desafíos, no es necesario comenzar de cero. En cambio, los investigadores pueden extraer sabiduría de los principios y marcos éticos desarrollados previamente, los temas de las próximas dos secciones.