[ , ] In dem Kapitel war ich sehr positiv über die Nachschichtung. Dies verbessert jedoch nicht immer die Qualität der Schätzungen. Konstruieren Sie eine Situation, in der die Nachschichtung die Qualität der Schätzungen verringern kann. (Für einen Hinweis, siehe Thomsen (1973) .)
[ , , ] Entwerfen und führen Sie eine Nicht-Wahrscheinlichkeits-Umfrage bei Amazon Mechanical Turk durch, um Fragen zu Waffenbesitz und Einstellungen zur Waffenkontrolle zu stellen. Damit Sie Ihre Schätzungen mit denen aus einer Wahrscheinlichkeitsstichprobe vergleichen können, kopieren Sie den Fragetext und die Antwortmöglichkeiten direkt aus einer qualitativ hochwertigen Umfrage, wie sie vom Pew Research Center durchgeführt wird.
[ , , ] Goel und Kollegen (2016) verwalteten 49 Multiple-Choice-Einstellungsfragen aus der Allgemeinen Sozialen Umfrage (GSS) und ausgewählten Umfragen des Pew Research Center zu Nicht-Wahrscheinlichkeits-Stichproben von Befragten aus Amazon Mechanical Turk. Anschließend passten sie die Nicht-Repräsentativität der Daten mithilfe einer modellbasierten Nachstratifizierung an und verglichen ihre bereinigten Schätzungen mit denen aus den wahrscheinlichkeitsbasierten GSS- und Pew-Erhebungen. Führen Sie dieselbe Umfrage bei Amazon Mechanical Turk durch und versuchen Sie, Abbildung 2a und Abbildung 2b zu replizieren, indem Sie Ihre angepassten Schätzungen mit den Schätzungen der letzten Runden der GSS- und Pew-Umfragen vergleichen. (Siehe Anhang A2 für die Liste von 49 Fragen.)
[ , , ] Viele Studien verwenden selbstberichtete Messungen der Mobiltelefonnutzung. Dies ist eine interessante Umgebung, in der Forscher selbstberichtetes Verhalten mit protokolliertem Verhalten vergleichen können (siehe zB Boase and Ling (2013) ). Zwei häufige Verhaltensweisen, nach denen gefragt werden kann, sind Anrufen und SMS, und zwei gemeinsame Zeitrahmen sind "gestern" und "in der vergangenen Woche".
[ , ] Schuman und Presser (1996) argumentieren, dass Fragenordnungen für zwei Arten von Fragen von Bedeutung seien: Teilfragen, bei denen zwei Fragen dieselbe Spezifität aufweisen (z. B. Bewertungen von zwei Präsidentschaftskandidaten); und Teil-Ganzes-Fragen, bei denen eine allgemeine Frage einer spezifischeren Frage folgt (zB "Wie zufrieden bist du mit deiner Arbeit?" gefolgt von "Wie zufrieden bist du mit deinem Leben?").
Sie charakterisieren ferner zwei Arten von Frage-Reihenfolge-Effekten: Konsistenz-Effekte treten auf, wenn Antworten auf eine spätere Frage näher an eine frühere Frage herangetragen werden (als sie es sonst wären); Kontrasteffekte treten auf, wenn größere Unterschiede zwischen Antworten auf zwei Fragen bestehen.
[ , ] Ausgehend von der Arbeit von Schuman und Presser beschreibt Moore (2002) eine separate Dimension des Frage-Ordnung-Effekts: additive und subtraktive Effekte. Während Kontrast- und Konsistenzeffekte als Ergebnis der gegenseitigen Bewertung der beiden Elemente durch die Befragten entstehen, werden additive und subtraktive Effekte erzeugt, wenn die Befragten sensibilisiert werden für den größeren Rahmen, in dem die Fragen gestellt werden. Lesen Sie Moore (2002) , entwerfen und führen Sie dann ein Umfrageexperiment mit MTurk durch, um additive oder subtraktive Effekte zu demonstrieren.
[ , ] Christopher Antoun und Kollegen (2015) führten eine Studie durch, in der die Convenience-Beispiele aus vier verschiedenen Online-Rekrutierungsquellen verglichen wurden: MTurk, Craigslist, Google AdWords und Facebook. Entwerfen Sie eine einfache Umfrage und rekrutieren Sie Teilnehmer durch mindestens zwei verschiedene Online-Rekrutierungsquellen (diese Quellen können sich von den vier Quellen unterscheiden, die in Antoun et al. (2015) ).
[ ] In dem Bemühen, die Ergebnisse des EU-Referendums 2016 (dh Brexit) vorherzusagen, führte YouGov - ein internetbasiertes Marktforschungsunternehmen - Online-Umfragen eines Panels von etwa 800.000 Befragten im Vereinigten Königreich durch.
Eine detaillierte Beschreibung des statistischen Modells von YouGov finden Sie unter https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/. Grob gesagt teilte YouGov die Wähler in Typen ein, die auf der Wahlwahl 2015, dem Alter, den Qualifikationen, dem Geschlecht und dem Interviewdatum sowie dem Wahlkreis, in dem sie lebten, basierten. Zuerst verwendeten sie Daten, die von den YouGov-Panelisten gesammelt wurden, um unter den Wählern den Anteil der Personen jedes Wähltyps zu schätzen, die abstimmen wollten. Sie schätzten die Wahlbeteiligung jedes Wähler-Typs anhand der britischen Wahlstudie 2015 (BES), einer persönlichen Umfrage nach der Wahl, bei der die Wahlbeteiligung bestätigt wurde. Schließlich schätzten sie anhand der letzten Volkszählung und der jährlichen Bevölkerungsumfrage (mit einigen zusätzlichen Informationen aus anderen Datenquellen), wie viele Personen von jedem Wähler-Typ in der Wählerschaft waren.
Drei Tage vor der Abstimmung zeigte YouGov eine Zwei-Punkte-Führung für Leave. Am Vorabend der Abstimmung zeigte die Umfrage an, dass das Ergebnis zu kurz war, um anzurufen (49/51 Remain). Die endgültige Tagesstudie prognostizierte 48/52 zugunsten von Remain (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). Tatsächlich hat diese Schätzung das Endergebnis (52/48 Leave) um vier Prozentpunkte verfehlt.
[ , ] Schreiben Sie eine Simulation, um jeden der Darstellungsfehler in Abbildung 3.2 zu veranschaulichen.
[ , ] Die Forschung von Blumenstock und Kollegen (2015) beinhaltete den Aufbau eines maschinellen Lernmodells, das digitale Trace-Daten zur Vorhersage von Umfrageantworten verwenden konnte. Jetzt werden Sie dasselbe mit einem anderen Datensatz versuchen. Kosinski, Stillwell, and Graepel (2013) herausgefunden, dass Facebook-Likes einzelne Merkmale und Attribute vorhersagen können. Überraschenderweise können diese Vorhersagen sogar noch genauer sein als die von Freunden und Kollegen (Youyou, Kosinski, and Stillwell 2015) .
[ ] Toole et al. (2015) verwendeten Call Detail Records (CDRs) von Mobiltelefonen, um aggregierte Trends bei der Arbeitslosigkeit vorherzusagen.