Verteenwoordiging is oor die maak van afleidings uit jou respondente om jou teikenpopulasie.
Om die soort foute wat kan gebeur wanneer die respondente na die groter bevolking aflei, verstaan ons die Literary Digest straw poll wat die uitslag van die Amerikaanse presidensiële verkiesing van 1936 voorspel het. Alhoewel dit meer as 75 jaar gelede gebeur het, het hierdie debakel steeds 'n belangrike les om navorsers vandag te onderrig.
Literêre Digest was 'n gewilde tydskrif vir algemene belangstelling, en begin in 1920 het hulle strooi polls begin hardloop om die uitslag van presidensiële verkiesings te voorspel. Om hierdie voorspellings te maak, sal hulle stembriewe aan baie mense stuur en dan net die stembriewe wat teruggestuur is, optel. Literêre Digest het trots gerapporteer dat die stembriewe wat hulle ontvang het, nie "geweeg, aangepas of geïnterpreteer" was nie. Hierdie proses het die wenners van die verkiesings in 1920, 1924, 1928 en 1932 korrek voorspel. In 1936, in die middel van die Groot Depressie, Letterkunde Digest het stembriewe uitgestuur na 10 miljoen mense, wie se name hoofsaaklik uit telefoongidse en motorregistrasierekords gekom het. Hier is hoe hulle hul metodologie beskryf het:
"Die DIGEST se gladde hardloopmasjien beweeg met die vinnige akkuraatheid van dertig jaar se ondervinding om raaiwerk aan harde feite te verminder. Hierdie week het 500 penne meer as 'n kwartmiljoen per dag uitgeskop. Elke dag, in 'n groot kamer hoog bo vierkantige vierde laan in New York, skuif 400 werkers 'n miljoen stukkies gedrukte materiaal, genoeg om veertig stadsblokke te bemeel, in die geadresseerde omhulsels [sic]. Elke uur, in die DIGEST se eie Poskantoor Substasie, het drie klompe posmateermasjiene verseël en die wit oblongs gestempel; Geskoolde poswerkers het hulle in 'n buigsame pos sak gesit; vloot DIGEST-vragmotors spoed hulle om e-treine uit te druk. . . Volgende week sal die eerste antwoorde van hierdie tien miljoen die inkomende gety van gemerkte stembriewe begin, drie keer nagegaan, geverifieer, vyf keer kruis geklassifiseer en in totaal beloop. Wanneer die laaste syfer getel en gekontroleer is, sal die land binne 'n fraksie van 1 persent die werklike gewilde stem van veertig miljoen [kiesers] weet. "(22 Augustus 1936)
Literêre Digest se fetisasie van grootte is onmiddellik herkenbaar aan enige groot data-navorser vandag. Van die 10 miljoen stembriewe wat versprei is, is 'n wonderlike 2,4 miljoen teruggekeer - dit is ongeveer 1000 keer groter as die moderne politieke stembusse. Uit hierdie 2,4 miljoen respondente was die uitspraak duidelik: Alf Landon gaan die bekleër Franklin Roosevelt verslaan. Maar inderdaad, Roosevelt het Landon in 'n grondverskuiwing verslaan. Hoe kan Literêre Digest verkeerd gaan met soveel data? Ons moderne begrip van monsterneming maak die foute van Literary Digest duidelik en help ons om in die toekoms nie soortgelyke foute te maak nie.
Om duidelik te dink oor steekproefneming vereis dat ons vier verskillende groepe mense oorweeg (figuur 3.2). Die eerste groep is die teikenbevolking ; dit is die groep wat die navorser definieer as die populasie van belangstelling. In die geval van Literêre Digest was die teikenbevolking kiesers in die presidentsverkiesing van 1936.
Na die besluit oor 'n teikenpopulasie moet 'n navorser 'n lys van mense ontwikkel wat vir steekproefneming gebruik kan word. Hierdie lys staan bekend as 'n steekproefraamwerk en die mense op dit heet die raambevolking . Ideaal gesproke is die teikenpopulasie en die raambevolking presies dieselfde, maar in die praktyk is dit dikwels nie die geval nie. Byvoorbeeld, in die geval van Literêre Digest was die raambevolking die 10 miljoen mense wie se name hoofsaaklik uit telefoongidse en motorregistrasierekords gekom het. Verskille tussen die teikenpopulasie en die raambevolking word dekkingfout genoem. Dekking foute verseker nie op sigself probleme nie. Dit kan egter tot dekking vooroordeel as mense in die raambevolking stelselmatig verskil van mense in die teikenbevolking wat nie in die raambevolking is nie. Dit is eintlik presies wat gebeur het in die Literary Digest poll. Die mense in hul raamwerk bevolking het geneig om Alf Landon meer geneig te wees, deels omdat hulle welvaart was (onthou dat beide telefone en motors relatief nuut en duur was in 1936). Dus, in die Literary Digest poll, het dekking fout gelei tot dekking vooroordeel.
Na die definisie van die raambevolking , is die volgende stap vir 'n navorser om die steekproefbevolking te kies; Dit is die mense wat die navorser probeer onderhou. As die steekproef verskillende eienskappe het as die raambevolking, kan steekproefneming foute in die steekproef stel . In die geval van die Literêre Digest- fiasko was daar egter geen steekproefneming nie - die tydskrif om almal in die raambevolking te kontak - en daarom was daar geen steekproef fout nie. Baie navorsers is geneig om te fokus op steekproeffout. Dit is tipies die enigste soort fout wat gevang word deur die foutmarge wat in opnames gerapporteer word, maar die Literêre Digest- fiasko herinner ons dat ons alle bronne van foute, beide ewekansig en sistematies, moet oorweeg.
Ten slotte, nadat 'n steekproefbevolking gekies is, poog 'n navorser om al sy lede te onderhou. Diegene wat suksesvol ondervra word, word die respondente genoem. Ideaal gesien sal die steekproefbevolking en die respondente presies dieselfde wees, maar in die praktyk is daar geen response nie. Dit beteken dat mense wat in die steekproef gekies word, soms nie deelneem nie. As die mense wat reageer verskil van diegene wat nie reageer nie, dan kan daar geen vooroordeel wees nie . Nonresponse bias was die tweede grootste probleem met die Literary Digest poll. Slegs 24% van die mense wat 'n stembrief ontvang het, het gereageer, en dit blyk dat mense wat Landon ondersteun, meer geneig was om te reageer.
Behalwe net 'n voorbeeld om die idees van verteenwoordiging voor te stel, is die Literary Digest poll 'n herhaalde gelykenis wat navorsers waarsku oor die gevare van lukraak steekproefneming. Ongelukkig dink ek dat die les wat baie mense uit hierdie storie trek, die verkeerde is. Die mees algemene morele van die storie is dat navorsers niks van nie-waarskynlikheidsmonsters kan leer nie (dws monsters sonder streng waarskynlikheidsreëls om deelnemers te kies). Maar soos ek later in hierdie hoofstuk sal wys, is dit nie heeltemal reg nie. In plaas daarvan dink ek daar is werklik twee sedes aan hierdie verhaal; sedes wat vandag so waar is soos hulle in 1936 was. Eerstens sal 'n groot hoeveelheid onverskillig versamelde data nie 'n goeie skatting waarborg nie. Oor die algemeen neem 'n groot aantal respondente die afwyking van ramings af, maar dit verlaag nie noodwendig die vooroordeel nie. Met baie data kan navorsers soms 'n presiese skatting van die verkeerde ding kry; hulle kan presies onakkuraat wees (McFarland and McFarland 2015) . Die tweede hoofles uit die Literêre Digest- fiasko is dat navorsers moet verantwoord hoe hul steekproef ingesamel is by die maak van ramings. Met ander woorde, omdat die steekproefproses in die Literary Digest- peiling stelselmatig geskei was teenoor sommige respondente, moes navorsers 'n meer komplekse skattingsproses gebruik wat sommige respondente meer as ander gewig het. Later in hierdie hoofstuk wys ek jou een sodanige gewigprosedure-post-stratifikasie-wat jou in staat stel om beter ramings uit lukraak monsters te maak.