La ricerca sociale nell'era digitale ha caratteristiche diverse e pone dunque diverse questioni etiche.
Nell'era analogica, la maggior parte della ricerca sociale aveva una scala relativamente limitata e operava all'interno di un insieme di regole ragionevolmente chiare. La ricerca sociale nell'era digitale è diversa. I ricercatori, spesso in collaborazione con aziende e governi, hanno più potere sui partecipanti rispetto al passato e le regole su come utilizzare tale potere non sono ancora chiare. Con il potere intendo semplicemente la capacità di fare cose alle persone senza il loro consenso o consapevolezza. Il tipo di cose che i ricercatori possono fare alle persone includono l'osservazione del loro comportamento e l'iscrizione a esperimenti. Poiché il potere dei ricercatori di osservare e turbare è in aumento, non c'è stato un aumento equivalente della chiarezza su come dovrebbe essere usata questa energia. In realtà, i ricercatori devono decidere come esercitare il loro potere sulla base di regole, leggi e norme incoerenti e sovrapposte. Questa combinazione di potenti capacità e linee guida vaghe crea situazioni difficili.
Una serie di poteri che i ricercatori hanno ora è la capacità di osservare il comportamento delle persone senza il loro consenso o consapevolezza. I ricercatori potrebbero, ovviamente, farlo in passato, ma nell'era digitale, la scala è completamente diversa, un fatto che è stato proclamato ripetutamente da molti fan delle grandi fonti di dati. In particolare, se ci spostiamo dalla scala di un singolo studente o professore e consideriamo invece la scala di una società o di istituzioni governative con cui i ricercatori collaborano sempre di più, le potenziali questioni etiche diventano complesse. Una metafora che penso aiuti le persone a visualizzare l'idea della sorveglianza di massa è il panopticon . Originariamente proposto da Jeremy Bentham come un'architettura per le prigioni, il panopticon è un edificio circolare con celle costruite intorno a una torre di avvistamento centrale (figura 6.3). Chiunque occupa questa torre di avvistamento può osservare il comportamento di tutte le persone nelle stanze senza essere visto. La persona nella torre di avvistamento è quindi una veggente invisibile (Foucault 1995) . Per alcuni difensori della privacy, l'era digitale ci ha trasformato in una prigione panottica in cui aziende e governi tecnologici stanno costantemente osservando e ricodificando il nostro comportamento.
Per portare questa metafora un po 'oltre, quando molti ricercatori sociali pensano all'era digitale, si immaginano all'interno della torre di avvistamento, osservando il comportamento e creando un database principale che potrebbe essere utilizzato per fare ogni tipo di ricerca eccitante e importante. Ma ora, piuttosto che immaginarti nella torre di guardia, immagina te stesso in una delle celle. Quel master database inizia ad assomigliare a quello che Paul Ohm (2010) ha definito un database di rovine , che potrebbe essere usato in modi non etici.
Alcuni lettori di questo libro hanno la fortuna di vivere in paesi dove si fidano dei loro veggenti invisibili per usare i loro dati in modo responsabile e per proteggerli dagli avversari. Gli altri lettori non sono così fortunati e sono sicuro che le questioni sollevate dalla sorveglianza di massa sono molto chiare per loro. Ma credo che anche per i fortunati lettori ci sia ancora una preoccupazione importante sollevata dalla sorveglianza di massa: uso secondario non previsto . Cioè, un database creato per uno scopo, ad esempio il targeting degli annunci, potrebbe un giorno essere utilizzato per uno scopo molto diverso. Un orribile esempio di uso secondario imprevisto si è verificato durante la seconda guerra mondiale, quando i dati del censimento del governo sono stati utilizzati per facilitare il genocidio che si stava verificando contro ebrei, rom e altri (Seltzer and Anderson 2008) . Gli statistici che raccoglievano i dati durante i periodi di pace quasi certamente avevano buone intenzioni e molti cittadini si fidavano di loro per usare i dati in modo responsabile. Ma quando il mondo cambiò - quando i nazisti salirono al potere - questi dati permisero un uso secondario che non era mai stato previsto. Molto semplicemente, una volta che esiste un database master, è difficile prevedere chi potrebbe accedervi e come verrà utilizzato. In effetti, William Seltzer e Margo Anderson (2008) hanno documentato 18 casi in cui i sistemi di dati sulla popolazione sono stati coinvolti o potenzialmente coinvolti in violazioni dei diritti umani (tabella 6.1). Inoltre, come sottolineano Seltzer e Anderson, questa lista è quasi certamente una sottostima perché la maggior parte degli abusi avviene in segreto.
Posto | Tempo | Individui o gruppi mirati | Sistema di dati | Violazione dei diritti umani o presunta intenzione dello stato |
---|---|---|---|---|
Australia | XIX e inizio XX secolo | Aborigeni | Registrazione della popolazione | Migrazione forzata, elementi di genocidio |
Cina | 1966-1976 | Origine di classe cattiva durante la rivoluzione culturale | Registrazione della popolazione | Migrazione forzata, istigata violenza di massa |
Francia | 1940-1944 | ebrei | Registrazione della popolazione, censimenti speciali | Migrazione forzata, genocidio |
Germania | 1933-1945 | Ebrei, rom e altri | Numerose | Migrazione forzata, genocidio |
Ungheria | 1945-1946 | Cittadini tedeschi e quelli che riportano la lingua madre tedesca | 1941 censimento della popolazione | Migrazione forzata |
Olanda | 1940-1944 | Ebrei e rom | Sistemi di registrazione della popolazione | Migrazione forzata, genocidio |
Norvegia | 1845-1930 | Samis e Kvens | Censimenti della popolazione | Pulizia etnica |
Norvegia | 1942-1944 | ebrei | Censimento speciale e registro della popolazione proposto | Genocidio |
Polonia | 1939-1943 | ebrei | Principali censimenti speciali | Genocidio |
Romania | 1941-1943 | Ebrei e rom | 1941 censimento della popolazione | Migrazione forzata, genocidio |
Ruanda | 1994 | Tutsi | Registrazione della popolazione | Genocidio |
Sud Africa | 1950-1993 | Popolazioni africane e "colorate" | 1951 censimento della popolazione e registrazione della popolazione | Apartheid, privazione del voto degli elettori |
stati Uniti | 19esimo secolo | Nativi americani | Censimenti speciali, registri demografici | Migrazione forzata |
stati Uniti | 1917 | Presunti sospetti di violazione della legge | Censimento del 1910 | Indagini e azioni penali di coloro che evitano la registrazione |
stati Uniti | 1941-1945 | Americani giapponesi | Censimento del 1940 | Migrazione forzata e internamento |
stati Uniti | 2001-08 | Sospetti terroristi | Indagini NCES e dati amministrativi | Indagini e azioni penali contro terroristi domestici e internazionali |
stati Uniti | 2003 | Arabo-americani | Censimento del 2000 | Sconosciuto |
URSS | 1919-1939 | Popolazioni minoritarie | Vari censimenti della popolazione | Migrazione forzata, punizione di altri reati gravi |
I ricercatori sociali ordinari sono molto, molto lontani da qualcosa come partecipare agli abusi dei diritti umani attraverso l'uso secondario. Ho scelto di discuterne, comunque, perché penso che ti aiuterà a capire come alcune persone potrebbero reagire al tuo lavoro. Torniamo al progetto Tastes, Ties e Time, ad esempio. Unendo insieme dati completi e granulari di Facebook con dati completi e granulari di Harvard, i ricercatori hanno creato una visione incredibilmente ricca della vita sociale e culturale degli studenti (Lewis et al. 2008) . Per molti ricercatori sociali, questo sembra il database principale, che potrebbe essere utilizzato per sempre. Ma per alcuni altri, sembra l'inizio del database di rovina, che potrebbe essere utilizzato in modo non etico. In effetti, probabilmente è un po 'di entrambi.
Oltre alla sorveglianza di massa, i ricercatori, sempre in collaborazione con aziende e governi, possono intervenire sempre più nella vita delle persone per creare esperimenti controllati randomizzati. Ad esempio, in Emotional Contagion, i ricercatori hanno arruolato 700.000 persone in un esperimento senza il loro consenso o consapevolezza. Come ho descritto nel capitolo 4, questo tipo di coscrizione segreta dei partecipanti agli esperimenti non è raro, e non richiede la collaborazione di grandi aziende. Infatti, nel capitolo 4, ti ho insegnato come farlo.
Di fronte a questo aumento di potere, i ricercatori sono soggetti a regole, leggi e norme incoerenti e sovrapposte . Una fonte di questa incoerenza è che le capacità dell'era digitale stanno cambiando più rapidamente rispetto a regole, leggi e norme. Ad esempio, la Regola comune (l'insieme di regolamenti che governano la maggior parte della ricerca finanziata dal governo negli Stati Uniti) non è cambiata molto dal 1981. Una seconda fonte di incoerenza è che le norme relative a concetti astratti come la privacy sono ancora attivamente dibattute dai ricercatori , responsabili politici e attivisti. Se gli specialisti in queste aree non riescono a raggiungere un consenso uniforme, non dovremmo aspettarci che ricercatori o partecipanti empirici lo facciano. Una terza e ultima fonte di incoerenza è che la ricerca sull'età digitale è sempre più confusa con altri contesti, il che porta a norme e regole potenzialmente sovrapposte. Ad esempio, Emotional Contagion era una collaborazione tra uno scienziato di dati su Facebook e un professore e uno studente laureato alla Cornell. A quel tempo, era normale su Facebook eseguire grandi esperimenti senza supervisione da parte di terzi, a patto che gli esperimenti rispettassero i termini di servizio di Facebook. A Cornell, le norme e le regole sono molto diverse; praticamente tutti gli esperimenti devono essere esaminati dall'IRB Cornell. Quindi, quale serie di regole dovrebbe governare il contagio emotivo: Facebook o Cornell? Quando vi sono regole, leggi e norme incoerenti e sovrapposte, anche i ricercatori ben intenzionati potrebbero avere difficoltà a fare la cosa giusta. Infatti, a causa dell'incongruenza, potrebbe non esserci nemmeno una cosa giusta.
Nel complesso, queste due caratteristiche - potere crescente e mancanza di accordo su come dovrebbe essere usata questa energia - significano che i ricercatori che lavorano nell'era digitale stanno affrontando sfide etiche per il prossimo futuro. Fortunatamente, quando si affrontano queste sfide, non è necessario partire da zero. Invece, i ricercatori possono trarre la saggezza da principi e schemi etici precedentemente sviluppati, gli argomenti delle prossime due sezioni.