Investigación social na era dixital ten características diferentes e, polo tanto, levanta varias cuestións éticas.
Na idade análoga, a maioría das investigacións sociais tiñan unha escala relativamente limitada e operaban dentro dun conxunto de regras claramente claras. A investigación social na era dixital é diferente. Os investigadores, moitas veces en colaboración con empresas e gobernos, teñen máis poder sobre os participantes que no pasado e as regras sobre o uso deste poder aínda non están claras. Polo poder, quero dicir simplemente a capacidade de facer cousas ás persoas sen o seu consentimento nin sequera a conciencia. O tipo de cousas que os investigadores poden facer ás persoas inclúen observar o seu comportamento e inscribirlas en experimentos. Como aumenta o poder dos investigadores para observar e perturbar, non houbo un aumento equivalente de claridade sobre o xeito no que se debe empregar ese poder. De feito, os investigadores deben decidir como exercer o seu poder baseándose en regras, leis e normas incompatibles e superpostas. Esta combinación de poderosas capacidades e pautas vagas crea situacións difíciles.
Un conxunto de competencias que teñen agora os investigadores é a capacidade de observar o comportamento das persoas sen o seu consentimento ou conciencia. Os investigadores poden, por suposto, facer isto no pasado, pero na era digital, a escala é completamente diferente, un feito que foi proclamado repetidamente por moitos fanáticos das grandes fontes de datos. En particular, se avanzamos da escala dun estudante ou profesor individual e consideramos a escala dunha empresa ou institucións gobernamentais coas que os investigadores colaboran cada vez máis, os posibles problemas éticos fanse complexos. Unha metáfora que creo que axuda ás persoas a visualizar a idea de vixilancia masiva é o panopticon . Orixinalmente proposto por Jeremy Bentham como unha arquitectura para as prisións, o panóptico é un edificio circular con células construídas ao redor dunha torre de vixilancia central (figura 6.3). Quen ocupe esta atalaya pode observar o comportamento de todas as persoas nas salas sen verse. A persoa na torre de vixía é así un vidente invisible (Foucault 1995) . Para algúns defensores da privacidade, a era dixital nos mudou a unha prisión panóptica onde as empresas e os gobernos tecnolóxicos están constantemente vendo e recodando o noso comportamento.
Para levar esta metáfora un pouco máis lonxe, cando moitos investigadores sociais pensan na era dixital, se imaxinan dentro da atalaya, observan o comportamento e crean unha base de datos mestra que se podería empregar para facer todo tipo de investigación excitante e importante. Pero agora, en vez de imaxinarse na torre de vixilia, imagínese nunha das células. Esa base de datos mestre comeza a parecerse a que Paul Ohm (2010) chamou unha base de datos de ruína , que podería usarse de forma non ética.
Algúns lectores deste libro teñen a sorte de vivir en países onde confían que os seus videntes non vistos usen os seus datos de forma responsable e protexéndoos dos adversarios. Outros lectores non teñen moita sorte, e estou seguro de que as cuestións que suscita a vixilancia masiva son moi claras para eles. Pero eu creo que mesmo para os lectores de sorte aínda hai unha preocupación importante levada a cabo pola vixilancia masiva: uso secundario imprevisto . É dicir, unha base de datos creada para un propósito, por exemplo, anuncios de orientación, podería usarse algún día para un propósito moi diferente. Un horrible exemplo de uso secundario imprevisto ocorreu durante a Segunda Guerra Mundial, cando os datos do censo do goberno foron utilizados para facilitar o xenocidio que se producía contra xudeus, xitanos e outros (Seltzer and Anderson 2008) . Os estadísticos que recolleron os datos durante tempos pacíficos seguramente tiveron boas intencións e moitos cidadáns confiaron en que usasen os datos de forma responsable. Pero, cando o mundo cambiou, cando os nazis chegaron ao poder, estes datos permitiron un uso secundario que nunca se esperaba. Simplemente, unha vez que existe unha base de datos mestre, é difícil anticipar quen pode acceder a el e como se vai usar. De feito, William Seltzer e Margo Anderson (2008) documentaron 18 casos nos que os sistemas de datos da poboación estiveron implicados ou potencialmente implicados en abusos dos dereitos humanos (táboa 6.1). Ademais, como sinalan Seltzer e Anderson, esta lista é case certamente unha subestimación porque a maioría dos abusos ocorren en segredo.
Lugar | Tempo | Individuos ou grupos dirixidos | Sistema de datos | Violación dos dereitos humanos ou presunta intención estatal |
---|---|---|---|---|
Australia | Século XIX e principios do XX | Aborixes | Rexistro de poboación | Migración forzada, elementos de xenocidio |
China | 1966-76 | Orixe da clase malvada durante a revolución cultural | Rexistro de poboación | Migración forzada, violencia instigada pola mafia |
Francia | 1940-44 | Xudeus | Rexistro de poboación, censos especiais | Migración forzada, xenocidio |
Alemaña | 1933-45 | Xudeus, xitanos e outros | Numerosos | Migración forzada, xenocidio |
Hungría | 1945-46 | Os cidadáns alemáns e os que informan a lingua materna alemá | Censo de poboación de 1941 | Migración forzada |
Países Baixos | 1940-44 | Xudeus e xitanos | Sistemas de rexistro de poboación | Migración forzada, xenocidio |
Noruega | 1845-1930 | Samis e Kvens | Censos de poboación | Limpeza étnica |
Noruega | 1942-44 | Xudeus | Censo especial e rexistro de poboación proposto | Genocidio |
Polonia | 1939-43 | Xudeus | Primariamente censos especiais | Genocidio |
Rumania | 1941-43 | Xudeus e xitanos | Censo de poboación de 1941 | Migración forzada, xenocidio |
Rwanda | 1994 | Tutsi | Rexistro de poboación | Genocidio |
África do Sur | 1950-93 | Poboacións africanas e "coloreadas" | Censo de poboación de 1951 e rexistro de poboación | Apartheid, disenfranchisement do votante |
Estados Unidos | Século XIX | Nativos americanos | Censos especiais, rexistros de poboación | Migración forzada |
Estados Unidos | 1917 | Protesta de infractores de lei | Censo de 1910 | Investigación e acusación dos que evitan o rexistro |
Estados Unidos | 1941-45 | Xaponeses estadounidenses | Censo de 1940 | Migración forzada e internamento |
Estados Unidos | 2001-08 | Terroristas sospeitosos | Incluindo enquisas e datos administrativos | Investigación e procesamento de terroristas domésticos e internacionais |
Estados Unidos | 2003 | Árabes-americanos | Censo de 2000 | Descoñecido |
URSS | 1919-39 | Poboacións minoritarias | Varios censos de poboación | Migración forzada, castigo doutros delitos graves |
Os investigadores sociais comúns están moi, moi lonxe de calquera cousa como participar en abusos dos dereitos humanos a través do uso secundario. Non obstante, decidín discutir isto porque creo que o axudará a comprender como algunhas persoas poden reaccionar ao seu traballo. Volvamos ao proxecto Tastes, Ties e Time como exemplo. Ao fusionar datos completos e granulares de Facebook con información completa e granular de Harvard, os investigadores crearon unha visión incriblemente rica da vida social e cultural dos estudantes (Lewis et al. 2008) . Para moitos investigadores sociais, isto parece ser a base de datos maxistral, que podería usarse para sempre. Pero para outros, semella o inicio da base de datos de ruína, que podería usarse de xeito non ético. De feito, probablemente sexa un pouco de ambos.
Ademais da vixilancia masiva, os investigadores, unha vez máis en colaboración con empresas e gobernos, poden intervir cada vez máis na vida das persoas para crear experimentos controlados aleatorizados. Por exemplo, no Contagio Emocional, os investigadores matricularon a 700.000 persoas nun experimento sen o seu consentimento ou conciencia. Como describín no capítulo 4, este tipo de conscripción secreta de participantes en experimentos non é raro e non require a cooperación de grandes empresas. De feito, no capítulo 4 teño ensinado como facelo.
Fronte a este poder crecente, os investigadores están suxeitos a regras, leis e normas non uniformes e superponibles . Unha fonte desta inconsistencia é que as capacidades da era dixital están cambiando máis rápido que as regras, as leis e as normas. Por exemplo, a Norma Común (o conxunto de regulamentos que rexen a maioría das investigacións financiadas polo goberno nos Estados Unidos) non cambiou moito dende 1981. Unha segunda fonte de inconsistencia é que as investigacións investigan sobre as normas sobre conceptos abstractos como a privacidade políticos e activistas. Se os especialistas destas áreas non poden alcanzar un consenso uniforme, non debemos esperar que os investigadores ou os participantes empíricos fagan isto. Unha terceira e última fonte de inconsistencia é que a investigación en idade dixital cada vez mestúrase noutros contextos, o que conduce a normas e regras potencialmente superpuestas. Por exemplo, Emotional Contagion foi unha colaboración entre un científico de datos en Facebook e un profesor e estudante de posgrao en Cornell. Naquel momento, era habitual que Facebook executase grandes experimentos sen supervisión de terceiros, sempre que os experimentos cumprisen os termos de servizo de Facebook. En Cornell, as normas e regras son bastante diferentes; prácticamente todos os experimentos deben ser revisados polo IRN de Cornell. Entón, cal conxunto de regras deben rexer Emotional Contagion-Facebook ou Cornell's? Cando hai normas incompatibles e superpuestas, leis e normas, mesmo os investigadores ben intencionados poden ter problemas para facer o correcto. En realidade, debido á inconsistencia, pode que nin sequera teña unha cousa correcta.
En xeral, estas dúas características: o poder crecente e a falta de acordo sobre como se debe empregar ese poder, significan que os investigadores que traballen na era dixital enfrontaranse a desafíos éticos para o futuro previsible. Afortunadamente, ao afrontar estes retos, non é necesario partir de cero. No seu canto, os investigadores poden sacar sabedoría dos principios e marcos éticos previamente desenvolvidos, os temas das dúas seccións seguintes.