[ , No capítulo, fiquei muito otimista sobre a pós-estratificação. No entanto, isso nem sempre melhora a qualidade das estimativas. Construa uma situação em que a pós-estratificação possa diminuir a qualidade das estimativas. (Para uma sugestão, veja Thomsen (1973) .)
[ , , Projetar e conduzir uma pesquisa não-probabilística no Amazon Mechanical Turk para perguntar sobre a posse de armas e atitudes em relação ao controle de armas. Para que você possa comparar suas estimativas com aquelas derivadas de uma amostra probabilística, copie o texto da pergunta e as opções de resposta diretamente de uma pesquisa de alta qualidade, como aquelas executadas pelo Pew Research Center.
[ , , ] Goel e colegas (2016) administraram 49 questões atitudinais de múltipla escolha retiradas do General Social Survey (GSS) e selecionaram pesquisas do Pew Research Center para uma amostra não probabilística de entrevistados extraídos da Amazon Mechanical Turk. Em seguida, eles ajustaram a não representatividade dos dados usando a pós-estratificação baseada em modelo e compararam suas estimativas ajustadas com as das pesquisas GSS e Pew baseadas em probabilidades. Realize a mesma pesquisa no Amazon Mechanical Turk e tente replicar a figura 2a e a figura 2b comparando suas estimativas ajustadas com as estimativas das rodadas mais recentes das pesquisas GSS e Pew. (Veja a tabela A2 do apêndice para a lista de 49 perguntas.)
[ , , Muitos estudos utilizam medidas autorreferidas de uso de telefones celulares. Este é um cenário interessante em que os pesquisadores podem comparar o comportamento auto-relatado com o comportamento registrado (ver, por exemplo, Boase and Ling (2013) ). Dois comportamentos comuns para perguntar são chamando e mensagens de texto, e dois prazos comuns são "ontem" e "na semana passada".
[ , Schuman e Presser (1996) argumentam que as ordens de perguntas seriam importantes para dois tipos de perguntas: perguntas em partes, em que duas questões têm o mesmo nível de especificidade (por exemplo, classificações de dois candidatos à presidência); e perguntas parciais, em que uma pergunta geral segue uma pergunta mais específica (por exemplo, perguntando “Qual é seu nível de satisfação com o seu trabalho?”, seguido de “Quão satisfeito você está com a sua vida?”).
Eles ainda caracterizam dois tipos de efeito de ordem de pergunta: efeitos de consistência ocorrem quando respostas a uma questão posterior são aproximadas (do que elas seriam de outra forma) àquelas dadas a uma questão anterior; efeitos de contraste ocorrem quando há diferenças maiores entre respostas a duas perguntas.
[ , Com base no trabalho de Schuman e Presser, Moore (2002) descreve uma dimensão separada do efeito da ordem de perguntas: efeitos aditivos e subtrativos. Enquanto os efeitos de contraste e consistência são produzidos como consequência das avaliações dos entrevistados sobre os dois itens em relação uns aos outros, efeitos aditivos e subtrativos são produzidos quando os respondentes são mais sensíveis à estrutura maior dentro da qual as questões são colocadas. Leia Moore (2002) , depois projete e execute um experimento de pesquisa no MTurk para demonstrar efeitos aditivos ou subtrativos.
[ , Christopher Antoun e colegas (2015) realizaram um estudo comparando as amostras de conveniência obtidas de quatro diferentes fontes de recrutamento online: MTurk, Craigslist, Google AdWords e Facebook. Elabore uma pesquisa simples e recrute participantes através de pelo menos duas fontes diferentes de recrutamento online (essas fontes podem ser diferentes das quatro fontes usadas em Antoun et al. (2015) ).
[ Em um esforço para prever os resultados do referendo da UE de 2016 (Brexit), a YouGov - uma empresa de pesquisa de mercado baseada na Internet - realizou pesquisas on-line de um painel de cerca de 800.000 pessoas no Reino Unido.
Uma descrição detalhada do modelo estatístico do YouGov pode ser encontrada em https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/. Grosso modo, o YouGov dividiu os eleitores em tipos com base na escolha de voto das eleições gerais de 2015, idade, qualificações, sexo e data da entrevista, bem como o círculo eleitoral em que viviam. Primeiro, eles usaram dados coletados dos membros do painel do YouGov para estimar, entre aqueles que votaram, a proporção de pessoas de cada tipo de eleitor que pretendiam votar. Eles estimaram a taxa de participação de cada tipo de eleitor usando o Estudo Eleitoral Britânico de 2015 (BES), uma pesquisa face-a-face pós-eleitoral, que validou o comparecimento às listas eleitorais. Finalmente, eles estimaram quantas pessoas havia de cada tipo de eleitor no eleitorado, com base no último Censo e Pesquisa Anual de População (com algumas informações adicionais de outras fontes de dados).
Três dias antes da votação, YouGov mostrou uma vantagem de dois pontos para o Leave. Na véspera da votação, a enquete indicou que o resultado estava muito próximo para chamar (49/51 Permanecer). O último estudo sobre o dia previu 48/52 a favor de Remain (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). De fato, essa estimativa perdeu o resultado final (52/48 Leave) em quatro pontos percentuais.
[ , ] Escreva uma simulação para ilustrar cada um dos erros de representação na figura 3.2.
[ , ] A pesquisa de Blumenstock e colegas (2015) envolveu a construção de um modelo de aprendizado de máquina que poderia usar dados de rastreamento digital para prever as respostas da pesquisa. Agora, você tentará a mesma coisa com um conjunto de dados diferente. Kosinski, Stillwell, and Graepel (2013) descobriram que os gostos do Facebook podem prever traços e atributos individuais. Surpreendentemente, essas previsões podem ser ainda mais precisas do que as de amigos e colegas (Youyou, Kosinski, and Stillwell 2015) .
[ Toole et al. (2015) usaram registros de detalhes de chamadas (CDRs) de telefones celulares para prever as tendências agregadas de desemprego.