Social forskning i den digitala eran har olika egenskaper och därför väcker olika etiska frågor.
I den analoga åldern hade den flesta sociala forskningen en relativt begränsad skala och fungerade inom en uppsättning rimligt tydliga regler. Social forskning i den digitala tiden är annorlunda. Forskare - ofta i samarbete med företag och regeringar - har större makt över deltagare än tidigare, och reglerna om hur den makt ska användas är ännu inte klar. Med makt menar jag helt enkelt möjligheten att göra saker för människor utan deras samtycke eller till och med medvetenhet. De typer av saker som forskare kan göra för människor är att observera sitt beteende och registrera dem i experiment. Eftersom forskarnas förmåga att observera och störas ökar, har det inte funnits en motsvarande ökad klarhet om hur den kraften ska användas. Faktum är att forskare måste bestämma hur man utövar sin makt baserad på inkonsekventa och överlappande regler, lagar och normer. Denna kombination av kraftfulla funktioner och vaga riktlinjer skapar svåra situationer.
En uppsättning befogenheter som forskare nu har är förmågan att observera människors beteende utan samtycke eller medvetenhet. Forskare kan självklart göra det här i det förflutna, men i digitalåldern är skalan helt annorlunda, vilket faktum har blivit proklamerat flera gånger av många fans av stora datakällor. I synnerhet om vi flyttar från en enskild student eller professors skala och i stället tar hänsyn till omfattningen av ett företag eller statliga institutioner med vilka forskare alltmer samarbetar - blir de potentiella etiska frågorna komplexa. En metafor som jag tycker hjälper människor att visualisera tanken om massövervakning är panoptikonet . Panopticon har ursprungligen föreslagits av Jeremy Bentham som en arkitektur för fängelser, en cirkulär byggnad med celler byggda kring ett centralt vakttorn (figur 6.3). Vem som ockuperar denna vakttorn kan observera alla människors beteende i rummen utan att vara sig själv. Personen i vakttornet är alltså en osynlig seare (Foucault 1995) . För vissa privata förespråkare har den digitala tiden förflyttat oss till ett panoptiskt fängelse där teknikföretag och regeringar ständigt tittar på och omkodar vårt beteende.
För att bära denna metafor lite längre, när många sociala forskare tänker på den digitala tidsåldern, föreställer de sig själva inuti vakttornet, observerar beteende och skapar en masterdatabas som kan användas för att göra all sorts spännande och viktig forskning. Men nu, istället för att föreställa sig dig i vakttornet, föreställ dig dig själv i en av cellerna. Den här masterdatabasen börjar se ut som Paul Ohm (2010) har kallat en databas av ruin , som kan användas på oetiska sätt.
Vissa läsare av denna bok har turen att leva i länder där de litar på sina osynliga seare att använda sina uppgifter på ett ansvarsfullt sätt och för att skydda dem från motståndare. Andra läsare är inte så lyckliga, och jag är säker på att problem som uppstår vid massövervakning är mycket tydliga för dem. Men jag tror att även för de lyckliga läsarna finns det fortfarande en viktig fråga som uppstår vid massövervakning: oavsett sekundär användning . Det vill säga, en databas som skapats för en målmedveten målgruppsannons, kan en dag användas för ett helt annat syfte. Ett skrämmande exempel på oförutsedd sekundär användning hände under andra världskriget, när statliga folkräkningsmaterial användes för att underlätta folkmordet som ägde rum mot judar, romer och andra (Seltzer and Anderson 2008) . Statistikerna som samlade in uppgifterna under fredliga tider hade nästan säkert goda avsikter, och många medborgare litade på att de skulle använda uppgifterna på ett ansvarsfullt sätt. Men när världen förändrades - när nazisterna kom till makten - möjliggjorde dessa data en sekundär användning som aldrig förväntades. Helt enkelt, när en masterdatabas finns, är det svårt att förutse vem som får tillgång till det och hur det ska användas. I själva verket har William Seltzer och Margo Anderson (2008) dokumenterat 18 fall där befolkningsdatasystem har varit inblandade eller potentiellt inblandade i kränkningar av de mänskliga rättigheterna (tabell 6.1). Dessutom, som Seltzer och Anderson påpekar, är denna lista nästan säkert en underskattning eftersom de flesta missbruk sker i hemlighet.
Plats | Tid | Riktade individer eller grupper | Datasystem | Mänskliga brott eller förmodad statlig avsikt |
---|---|---|---|---|
Australien | 19th och early 20th century | aboriginer | Befolkningsregistrering | Tvångsmigration, folkmordsmedel |
Kina | 1966-1976 | Dåligt klassiskt ursprung under kulturrevolutionen | Befolkningsregistrering | Tvingad migrering, instigated mob våld |
frankrike | 1940-1944 | judar | Befolkningsregistrering, speciella censuses | Tvingad migration, folkmord |
Tyskland | 1933-1945 | Judar, romer och andra | Talrik | Tvingad migration, folkmord |
Ungern | 1945-1946 | Tyska medborgare och de som rapporterar tyska modersmål | 1941 folkräkning | Tvingad migrering |
nederländerna | 1940-1944 | Judar och romer | Befolkningsregistreringssystem | Tvingad migration, folkmord |
Norge | 1845-1930 | Samis och Kvens | Befolkning censuses | Etnisk rensning |
Norge | 1942-1944 | judar | Särskild folkräkning och föreslagna befolkningsregister | Folkmord |
polen | 1939-1943 | judar | Primärt speciella censuses | Folkmord |
rumänien | 1941-1943 | Judar och romer | 1941 folkräkning | Tvingad migration, folkmord |
Rwanda | 1994 | Tutsi | Befolkningsregistrering | Folkmord |
Sydafrika | 1950-1993 | Afrikanska och "färgade" populationer | 1951 folkräkning och befolkningsregistrering | Apartheid, rösträttfrihet |
Förenta staterna | 19th century | Indianer | Särskilda censurer, befolkningsregister | Tvingad migrering |
Förenta staterna | 1917 | Misstänkta utkast till lagöverträdare | 1910 folkräkning | Undersökning och åtal för dem som undviker registrering |
Förenta staterna | 1941-1945 | Japanska amerikaner | 1940 folkräkning | Tvingad migration och internering |
Förenta staterna | 2001-08 | Misstänkta terrorister | NCE undersökningar och administrativa data | Utredning och åtal av inhemska och internationella terrorister |
Förenta staterna | 2003 | Arab-amerikaner | 2000 folkräkning | Okänd |
USSR | 1919-1939 | Minoritetspopulationer | Olika befolkning censuses | Tvingad migration, bestraffning av andra allvarliga brott |
Vanliga sociala forskare är väldigt mycket långt ifrån något som att delta i kränkningar av de mänskliga rättigheterna genom sekundär användning. Jag har valt att diskutera det, för jag tror att det hjälper dig att förstå hur vissa människor kan reagera på ditt arbete. Låt oss återvända till Smak, Slips och Tidsprojekt, som ett exempel. Genom att slå samman fullständiga och granulära data från Facebook med fullständiga och granulära data från Harvard skapade forskarna en otroligt rik syn på studenternas sociala och kulturella liv (Lewis et al. 2008) . För många sociala forskare verkar detta som masterdatabasen, som kan användas för gott. Men för vissa andra ser det ut som början på databasen av ruin, som kan användas oetiskt. I själva verket är det förmodligen lite av båda.
Förutom massövervakning kan forskare - i samarbete med företag och regeringar - alltmer ingripa i människors liv för att skapa randomiserade kontrollerade experiment. Till exempel, i Emotional Contagion, skrev forskare 700 000 personer i ett experiment utan sitt samtycke eller medvetenhet. Som jag beskrivit i kapitel 4 är denna typ av hemlig uppgift av deltagare i experiment inte ovanlig, och det kräver inte samarbete mellan stora företag. Faktum är att jag i kapitel 4 lärde dig hur man gör det.
Mot bakgrund av denna ökade kraft är forskare föremål för inkonsekventa och överlappande regler, lagar och normer . En källa till denna inkonsekvens är att möjligheterna i den digitala tiden förändras snabbare än regler, lagar och normer. Till exempel har den gemensamma regeln (reglerna för mest statsfinansierad forskning i USA) inte förändrats mycket sedan 1981. En andra inkonsekvenskälla är att normer kring abstrakta begrepp som privatliv fortfarande diskuteras av forskare , beslutsfattare och aktivister. Om specialister inom dessa områden inte kan nå en enhetlig konsensus, borde vi inte förvänta sig empiriska forskare eller deltagare att göra det. En tredje och sista inkonsekvens är att digital-åldersforskningen blandas i alltmer i andra sammanhang, vilket leder till potentiellt överlappande normer och regler. Emotional Contagion var till exempel ett samarbete mellan en datavetenskapare på Facebook och en professor och doktorand vid Cornell. Vid den tiden var det vanligt på Facebook att köra stora experiment utan att vara övervakad av tredje part, så länge som experimenten följde Facebooks användarvillkor. På Cornell är normerna och reglerna helt annorlunda. Nästan alla experiment måste ses över av Cornell IRB. Så, vilken uppsättning regler bör regleras Emotional Contagion-Facebook eller Cornell's? När det finns inkonsekventa och överlappande regler kan lagar och normer även välmenande forskare ha problem med att göra rätt sak. Faktum är att det inte ens kan vara en enda rätt sak på grund av inkonsekvensen.
Sammantaget innebär dessa två funktioner - ökad kraft och brist på överenskommelse om hur den kraften ska användas - att forskare som arbetar i digital ålder kommer att stå inför etiska utmaningar under överskådlig framtid. Lyckligtvis är det inte nödvändigt att börja från början för att hantera dessa utmaningar. Istället kan forskare dra vishet från tidigare utvecklade etiska principer och ramar, ämnena i de följande två avsnitten.