La rappresentazione è di fare inferenze dai tuoi rispondenti alla popolazione target.
Al fine di capire il tipo di errori che possono accadere quando inferire da partecipanti alla popolazione più ampia, consideriamo il sondaggio di paglia Literary Digest che ha cercato di prevedere l'esito delle elezioni presidenziali degli Stati Uniti del 1936. Anche se è stato più di 75 anni fa, questa debacle ha ancora una lezione importante da insegnare ricercatori oggi.
Literary Digest era una rivista generale interesse popolare, e l'avvio nel 1920 si cominciò a correre sondaggi di paglia per prevedere i risultati delle elezioni presidenziali. Per fare queste previsioni che avrebbero mandato schede a un sacco di gente, e poi semplicemente coincidere le schede che sono stati restituiti; Literary Digest con orgoglio ha riferito che le schede hanno ricevuto sono stati nè "ponderato, modificare, né interpretato." Questa procedura correttamente previsto il vincitore delle elezioni nel 1920, 1924, 1928 e 1932. nel 1936, nel mezzo della Grande Depressione, Literary Digest inviato schede elettorali per 10 milioni di persone, i cui nomi prevalentemente proveniva da elenchi telefonici e record di registrazione di automobili. Ecco come hanno descritto la loro metodologia:
"Macchina si muove liscio-eseguono il Digest con la rapida precisione di trenta anni di esperienza per ridurre congetture a fatti concreti. . . .Questa Settimana 500 penne graffiati fuori più di un quarto di milione di indirizzi al giorno. Ogni giorno, in una grande sala di sopra del motore-ribboned Fourth Avenue, a New York, 400 lavoratori scivolare con destrezza un milione di pezzi di materiale stampato, abbastanza per spianare quaranta città blocchi-nelle buste indirizzate [sic]. Ogni ora, in proprio ufficio postale sottostazione LA Digest, tre chattering macchine affrancatura misurazione sigillato e timbrato i rettangoli bianchi; dipendenti postali qualificati li capovolto nella sporgenti mailsacks; camion flotta DIGEST sped loro di posta espressa treni. . . La prossima settimana, le prime risposte da questi dieci milioni inizieranno la marea di schede marcate, per essere triple-controllato, verificato, cinque volte cross-classificati e pari a. Quando l'ultima cifra è stata totted e controllato, se l'esperienza passata è un criterio, il paese saprà entro una frazione di 1 per cento del voto popolare reale di quaranta milioni di elettori []. "(22 agosto 1936)
feticizzazione del Digest di dimensioni è immediatamente riconoscibile per qualsiasi ricercatore "big data" di oggi. Dei 10 milioni di schede distribuite, un sorprendente 2,4 milioni di schede elettorali sono stati restituiti-che è circa 1.000 volte più grande di moderni sondaggi politici. Da questi 2,4 milioni di intervistati il verdetto era chiaro: Literary Digest ha previsto che lo sfidante Alf Landon stava per sconfiggere l'operatore storico Franklin Roosevelt. Ma, in realtà, è successo il contrario. Roosevelt sconfisse Landon in una frana. Come poteva Literary Digest andare male con così tanti dati? La nostra comprensione moderna di campionamento fa errori di Literary Digest chiaro e ci aiuta ad evitare commettere errori simili in futuro.
Pensando chiarezza campionamento ci impone di prendere in considerazione quattro diversi gruppi di persone (Figura 3.1). Il primo gruppo di persone è la popolazione target; questo è il gruppo che la ricerca definisce la popolazione di interesse. Nel caso di Literary Digest popolazione bersaglio era elettori in elezioni presidenziali del 1936. Dopo aver deciso una popolazione bersaglio, un ricercatore Occorre poi sviluppare un elenco di persone che possono essere utilizzati per il campionamento. Questo elenco è chiamato un campionamento e la popolazione sul campionamento è chiamato popolazione frame. Nel caso di Literary Digest popolazione telaio è stato il 10 milioni di persone i cui nomi vennero prevalentemente dagli elenchi telefonici e record di registrazione di automobili. Idealmente la popolazione target e la popolazione cornice sarebbe esattamente lo stesso, ma in pratica questo spesso non è il caso. Le differenze tra la popolazione target e la popolazione telaio sono chiamati errore di copertura. errore di copertura non, di per sé garanzia di problemi. Ma, se le persone nella popolazione telaio sono sistematicamente diversa dalla gente, non nella popolazione cornice ci saranno pregiudizi copertura. Errore di copertura è stato il primo dei grandi difetti con il sondaggio Literary Digest. Volevano conoscere elettori-che era il loro obiettivo sulla popolazione, ma hanno costruito una base di campionamento prevalentemente dagli elenchi telefonici e registri automobilistici, fonti che sovrarappresentate ricchi americani che erano più propensi a sostenere Alf Landon (ricordiamo che entrambe queste tecnologie, che sono oggi comuni, erano relativamente nuovi al momento e che gli stati Uniti erano nel mezzo della Grande Depressione).
Dopo aver definito popolazione fotogramma, il passo successivo è per un ricercatore per selezionare il campione di popolazione; queste sono le persone che il ricercatore tenterà di intervistare. Se il campione ha caratteristiche diverse rispetto alla popolazione cornice, allora possiamo introdurre errore di campionamento. Questo è il tipo di errore quantificato il margine di errore che di solito accompagna stime. Nel caso di fiasco Literary Digest, non vi era in realtà nessun campione; hanno tentato di contattare tutti nella popolazione telaio. Anche se non c'era nessun errore di campionamento, si è ovviamente ancora errore. Questo chiarisce che i margini di errori che sono tipicamente segnalati con stime da indagini sono in genere fuorviante piccole; non includono tutte le fonti di errore.
Infine, un ricercatore tenta di intervistare tutti nella popolazione campione. Quelle persone che sono intervistati con successo sono chiamati intervistati. Idealmente, la popolazione campione e rispondenti sarebbe esattamente lo stesso, ma in pratica vi è non-risposta. Cioè, le persone che sono selezionati per il campione si rifiutano di partecipare. Se le persone che rispondono sono diversi da quelli che non rispondono, allora ci possono essere pregiudizi non risposta. Bias di non risposta è stata il secondo problema principale con il sondaggio Literary Digest. Solo il 24% delle persone che hanno ricevuto una scheda elettorale ha risposto, e si è scoperto che le persone che hanno sostenuto Landon erano più propensi a rispondere.
Al di là solo di essere un esempio per introdurre le idee di rappresentazione, il sondaggio Literary Digest è una parabola spesso ripetuta, in guardia i ricercatori circa i pericoli di campionamento casuale. Purtroppo, penso che la lezione che molte persone traggono da questa storia è quella sbagliata. La morale più comune della storia è che i ricercatori non possono imparare qualcosa da campioni non probabilistici (cioè, campioni senza rigide regole di probabilità a base per la selezione dei partecipanti). Ma, come vi mostrerò più avanti in questo capitolo, non è giusto. Invece, penso che ci sono in realtà due morale di questa storia; la morale che sono come vero oggi come lo erano nel 1936. In primo luogo, una grande quantità di dati a casaccio raccolti non garantisce una buona stima. In secondo luogo, i ricercatori hanno bisogno per tenere conto di come la loro dati sono stati raccolti quando stanno facendo stime da esso. In altre parole, perché il processo di raccolta dei dati nel sondaggio Literary Digest è stata sistematicamente distorta verso alcuni intervistati, i ricercatori hanno bisogno di usare un processo di stima più complesso che pesa alcuni intervistati più di altri. Più avanti in questo capitolo, vi mostrerò una tale ponderazione procedura di post-stratificazione-che può consentire di stimare più accuratamente con campioni non probabilistici.