[ , ] Dans le chapitre, j'étais très positif à propos de la poststratification. Cependant, cela n'améliore pas toujours la qualité des estimations. Construire une situation où la post-stratification peut diminuer la qualité des estimations. (Pour un indice, voir Thomsen (1973) .)
[ , , ] Concevoir et mener une enquête non probabiliste sur Amazon Mechanical Turk pour s'informer de la propriété d'armes à feu et des attitudes à l'égard du contrôle des armes à feu. Pour pouvoir comparer vos estimations à celles dérivées d'un échantillon probabiliste, veuillez copier le texte de la question et les options de réponse directement à partir d'une enquête de haute qualité, comme celles menées par le Pew Research Center.
[ , , ] Goel et ses collègues (2016) administré 49 questions attitudinales à choix multiples tirées de l'Enquête sociale générale (ESG) et sélectionné des enquêtes du Pew Research Centre auprès d'un échantillon non probabiliste de répondants tirés d'Amazon Mechanical Turk. Ils ont ensuite ajusté la non-représentativité des données en utilisant la post-stratification basée sur le modèle et ont comparé leurs estimations ajustées avec celles des enquêtes ESG et Pew basées sur la probabilité. Mener la même enquête sur Amazon Mechanical Turk et essayer de reproduire la figure 2a et la figure 2b en comparant vos estimations ajustées avec les estimations des plus récents cycles des enquêtes GSS et Pew. (Voir le tableau A2 en annexe pour la liste des 49 questions.)
[ , , ] De nombreuses études utilisent des mesures autodéclarées de l'utilisation du téléphone mobile. C'est un cadre intéressant dans lequel les chercheurs peuvent comparer le comportement autodéclaré avec le comportement journalisé (voir, par exemple, Boase and Ling (2013) ). Deux comportements communs à poser sont l'appel et le texto, et deux trames communes sont "hier" et "la semaine dernière".
[ , ] Schuman et Presser (1996) affirment que les ordres de questions seraient importants pour deux types de questions: les questions en partie-parties où deux questions sont au même niveau de spécificité (par exemple, les notes de deux candidats à la présidence); et des questions partielles où une question générale suit une question plus précise (p. ex. demander «Dans quelle mesure êtes-vous satisfait de votre travail?» suivi de «Dans quelle mesure êtes-vous satisfait de votre vie?»).
Ils caractérisent en outre deux types d'effet d'ordre de question: les effets de cohérence se produisent lorsque les réponses à une question ultérieure sont rapprochées (qu'elles ne le seraient autrement) de celles données à une question antérieure; les effets de contraste se produisent lorsqu'il y a de plus grandes différences entre les réponses à deux questions.
[ , En s'appuyant sur le travail de Schuman et Presser, Moore (2002) décrit une dimension distincte de l'effet de l'ordre des questions: les effets additifs et soustractifs. Alors que les effets de contraste et de cohérence sont produits à la suite des évaluations des deux éléments par les répondants, les effets additifs et soustractifs sont produits lorsque les répondants sont plus sensibles au cadre plus large dans lequel les questions sont posées. Lisez Moore (2002) , puis concevez et exécutez une expérience d'enquête sur MTurk pour démontrer les effets additifs ou soustractifs.
[ , ] Christopher Antoun et ses collègues (2015) mené une étude comparant les échantillons de commodité obtenus à partir de quatre sources de recrutement en ligne différentes: MTurk, Craigslist, Google AdWords et Facebook. Concevoir une enquête simple et recruter des participants à travers au moins deux sources de recrutement en ligne différentes (ces sources peuvent être différentes des quatre sources utilisées dans Antoun et al. (2015) ).
[ ] Afin de prédire les résultats du référendum de 2016 sur l'UE (Brexit), YouGov, une société d'études de marché basée sur Internet, a mené des sondages en ligne auprès d'un panel d'environ 800 000 répondants au Royaume-Uni.
Une description détaillée du modèle statistique de YouGov peut être trouvée à https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/. Grosso modo, YouGov a divisé les électeurs en types selon le choix du vote pour les élections générales de 2015, l'âge, les qualifications, le sexe et la date de l'interview, ainsi que la circonscription dans laquelle ils vivaient. Premièrement, ils ont utilisé les données recueillies auprès des panélistes de YouGov pour estimer, parmi ceux qui ont voté, la proportion de personnes de chaque type d'électeur qui avaient l'intention de voter. Ils ont estimé le taux de participation de chaque type d'électeur à l'aide de la British Election Study (BES) 2015, une enquête en face-à-face post-électorale, qui a validé le taux de participation des listes électorales. Enfin, ils ont estimé le nombre de personnes de chaque type d'électeur dans l'électorat, sur la base du dernier recensement et de l'Enquête annuelle sur la population (avec quelques informations supplémentaires provenant d'autres sources de données).
Trois jours avant le vote, YouGov a montré une avance de deux points pour le congé. A la veille du vote, le sondage indiquait que le résultat était trop proche de l'appel (49/51 Reste). L'étude finale de la journée prédit 48/52 en faveur de Remain (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). En fait, cette estimation a raté le résultat final (congé 52/48) de quatre points de pourcentage.
[ , ] Écris une simulation pour illustrer chacune des erreurs de représentation de la figure 3.2.
[ , ] La recherche de Blumenstock et ses collègues (2015) impliqué la construction d'un modèle d'apprentissage automatique qui pourrait utiliser des données de trace numériques pour prédire les réponses aux enquêtes. Maintenant, vous allez essayer la même chose avec un ensemble de données différent. Kosinski, Stillwell, and Graepel (2013) constaté que les goûts de Facebook peuvent prédire des traits et des attributs individuels. Étonnamment, ces prédictions peuvent être encore plus précises que celles d'amis et de collègues (Youyou, Kosinski, and Stillwell 2015) .
[ ] Toole et al. (2015) utilisé les enregistrements détaillés des appels (CDR) des téléphones mobiles pour prédire les tendances globales du chômage.