[ , ] En el capítulo, estaba muy seguro de la post-estratificación. Sin embargo, esto no siempre mejora la calidad de las estimaciones. Construya una situación donde la post-estratificación puede disminuir la calidad de las estimaciones. (Para una indirecta, vea Thomsen (1973) .)
[ , , ] Diseñar y realizar una encuesta no probabilística en Amazon Mechanical Turk para preguntar sobre la posesión de armas y las actitudes hacia el control de armas. Para que pueda comparar sus estimaciones con las derivadas de una muestra de probabilidad, copie el texto de la pregunta y las opciones de respuesta directamente de una encuesta de alta calidad, como las que realiza el Pew Research Center.
[ , , ] Goel y colegas (2016) administraron 49 preguntas actitudinales de opción múltiple extraídas de la Encuesta Social General (GSS) y encuestas seleccionadas por el Centro de Investigación Pew a una muestra no probabilística de encuestados extraídos de Amazon Mechanical Turk. A continuación, ajustaron por falta de representatividad de los datos utilizando post-estratificación basada en modelos y compararon sus estimaciones ajustadas con las de las encuestas GSS y Pew basadas en la probabilidad. Realice la misma encuesta en Amazon Mechanical Turk e intente replicar la figura 2a y la figura 2b comparando sus estimaciones ajustadas con las estimaciones de las rondas más recientes de las encuestas GSS y Pew. (Consulte la tabla A2 del apéndice para ver la lista de 49 preguntas).
[ , , ] Muchos estudios usan medidas autorreportadas del uso del teléfono móvil. Este es un entorno interesante en el que los investigadores pueden comparar el comportamiento autoinformado con el comportamiento registrado (véase, por ejemplo, Boase and Ling (2013) ). Dos comportamientos comunes para preguntar son llamadas y mensajes de texto, y dos marcos de tiempo comunes son "ayer" y "en la última semana".
[ , ] Schuman y Presser (1996) argumentan que las órdenes de preguntas serían importantes para dos tipos de preguntas: preguntas en parte donde dos preguntas tienen el mismo nivel de especificidad (p. Ej., Calificaciones de dos candidatos presidenciales); y preguntas de una parte donde una pregunta general sigue a una pregunta más específica (por ejemplo, preguntando "¿Qué tan satisfecho estás con tu trabajo?" seguido de "¿Qué tan satisfecho estás con tu vida?").
Además caracterizan dos tipos de efecto de orden de preguntas: los efectos de coherencia ocurren cuando las respuestas a una pregunta posterior se aproximan (de lo contrario) a las respuestas a una pregunta anterior; los efectos de contraste ocurren cuando hay mayores diferencias entre las respuestas a dos preguntas.
[ , ] Sobre la base del trabajo de Schuman y Presser, Moore (2002) describe una dimensión separada del efecto de orden de preguntas: efectos aditivos y sustractivos. Mientras que los efectos de contraste y consistencia se producen como consecuencia de las evaluaciones de los encuestados de los dos ítems en relación entre sí, los efectos aditivos y sustractivos se producen cuando los encuestados se vuelven más sensibles al marco más amplio dentro del cual se formulan las preguntas. Lea Moore (2002) , luego diseñe y ejecute un experimento de encuesta en MTurk para demostrar los efectos aditivos o sustractivos.
[ , ] Christopher Antoun y sus colegas (2015) realizaron un estudio comparando las muestras de conveniencia obtenidas de cuatro fuentes diferentes de reclutamiento en línea: MTurk, Craigslist, Google AdWords y Facebook. Diseñe una encuesta simple y reclute participantes a través de al menos dos fuentes diferentes de reclutamiento en línea (estas fuentes pueden ser diferentes de las cuatro fuentes utilizadas en Antoun et al. (2015) ).
[ ] En un esfuerzo por predecir los resultados del Referéndum de la UE 2016 (es decir, Brexit), YouGov -una firma de investigación de mercado basada en Internet- realizó encuestas en línea de un panel de aproximadamente 800,000 encuestados en el Reino Unido.
Puede encontrar una descripción detallada del modelo estadístico de YouGov en https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/. En términos generales, YouGov dividió a los votantes en tipos en función de la elección del voto en las elecciones generales de 2015, la edad, las calificaciones, el género y la fecha de la entrevista, así como del electorado en el que vivían. En primer lugar, utilizaron los datos recopilados de los panelistas de YouGov para estimar, entre los que votaron, la proporción de personas de cada tipo de votante que tenían la intención de votar. Estimaron la participación de cada tipo de votante utilizando el Estudio de Elecciones Británico (BES) de 2015, una encuesta cara a cara posterior a las elecciones, que validó la participación en las listas electorales. Finalmente, calcularon cuántas personas había de cada tipo de votante en el electorado, con base en la última Encuesta Censo y Población Anual (con alguna información adicional de otras fuentes de datos).
Tres días antes de la votación, YouGov mostró una ventaja de dos puntos para Leave. En la víspera de la votación, la encuesta indicó que el resultado estaba demasiado cerca para llamar (49/51 Permanecer). El estudio final sobre el día predijo 48/52 a favor de Permanecer (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). De hecho, esta estimación no alcanzó el resultado final (52/48 de permiso) en cuatro puntos porcentuales.
[ , ] Escribe una simulación para ilustrar cada uno de los errores de representación en la figura 3.2.
[ , ] La investigación de Blumenstock y sus colegas (2015) implicó la construcción de un modelo de aprendizaje automático que podría usar datos de rastreo digital para predecir las respuestas de la encuesta. Ahora, intentarás lo mismo con un conjunto de datos diferente. Kosinski, Stillwell, and Graepel (2013) encontraron que los Me gusta de Facebook pueden predecir los rasgos y atributos individuales. Sorprendentemente, estas predicciones pueden ser incluso más precisas que las de amigos y colegas (Youyou, Kosinski, and Stillwell 2015) .
[ ] Toole et al. (2015) utilizaron registros de detalles de llamadas (CDR) de teléfonos móviles para predecir las tendencias agregadas de desempleo.