A pesquisa eleitoral é um dos termômetros que indicam a intenção de voto da população, e os resultados quase sempre diferem um do outro. Com isso, é certo afirmar que os levantamentos erram? Não, afinal, o cenário eleitoral pode mudar do dia para a noite.
E os levantamentos são feitos sempre em dias antes da data da eleição. No entanto, há eleitores que acompanham os números dos institutos ou para animar ainda mais suas intenções de voto, ou para criticá-los.
Sobram exemplos de números de pesquisas eleitorais que não deram certo em Mato Grosso do Sul. Veja duas que envolveram um mesmo candidato: em 1998, na disputa pelo governo do Estado, e em 2018, duas décadas depois, na briga por duas vagas ao Senado.
José Orcírio dos Santos, o Zeca do PT, concorria lá atrás ao governo. Era o azarão. Já há quatro anos, era tido como certo o dono de um dos mandatos de senador.
Em 1998, disputaram a sucessão do governador Wilson Barbosa Martins, do então PMDB, os candidatos Ricardo Bacha (PSDB), Pedro Pedrossian (PTB), Zeca do PT e Heitor de Oliveira (Prona).
As pesquisas indicavam Bacha como favorito e Pedrossian na cola dele. Zeca já era tido como perdedor, conforme as pesquisas. Veio o segundo o turno, Pedrossian caiu fora. Bacha e Zeca foram para o segundo turno, o primeiro da história política de MS.
Bacha ainda liderava, mas Zeca do PT, para surpresa dos eleitores, tornou-se governador.
Vinte anos depois, Zeca, ao contrário da disputa pelo governo, levou uma invertida pelo que demonstravam os levantamentos eleitorais.
Dias antes da eleição de 2018, na disputa pelas duas vagas ao Senado, a pesquisa do extinto Ibope (hoje Ipec) apontava Nelsinho Trad, à época no PTB, na dianteira com 33% e Zeca do PT na sequência, com 30%. Moka (MDB), que concorria à reeleição, obteve 19%, e Delcício do Amaral, então no PTC, obteve 14%. A então estreante na política Soraya Thronicke, pelo PSL, surgira lá embaixo, com apenas 4%.
Na abertura das urnas, o inesperado: Nelsinho confirmou o favoritismo e, sustentada pela onda Bolsonaro, Soraya ficou com a segunda vaga, deixando de fora Zeca do PT.
Mas por que as diferenças nos resultados dos institutos de pesquisas quando medem as intenções de voto? Hoje, por exemplo, em Mato Grosso do Sul, os levantamentos indicam praticamente um empate técnico entre ao menos três dos postulantes ao governo de MS.
Ontem, em Campo Grande, o general Braga Netto, vice na chapa de Jair Bolsonaro (PL), que aparece atrás de Luiz Inácio Lula da Silva (PT) nos levantamentos, disse não acreditar em pesquisas.
“Eu não acredito [em pesquisa], a pesquisa não é o que eu vejo nas ruas e não é o que vejo com os políticos”, disse.
O Correio do Estado ouviu a opinião de três estudiosos sobre o assunto para responder à questão. Veja o que eles dizem.
Michel Constantino, doutor em Economia e cientista de dados
“As explicações sobre as diferenças entre pesquisas eleitorais aumentaram de 2018 para cá, principalmente pelos resultados confrontados com a realidade. Os números apresentados pelas pesquisas mais ‘famosas’ ficaram muito aquém dos resultados.
Há diferentes métodos de pesquisa, abordagens e definição de amostra. Os diferentes métodos de pesquisa não podem dar resultados divergentes, pois assim não seria estatística.
O que muda é a abordagem da pesquisa e a definição da amostra, ou seja, como e onde se faz a coleta do dado, no primeiro caso, algumas pesquisas são presenciais, outras são on-line ou por telefone (ou ainda misturando as técnicas de coleta).
A forma de coletar te traz resultados diferentes, principalmente em relação aos horários da pesquisa, humor do pesquisado e propensão a responder.
No segundo caso, ou seja, na amostra, há muitos erros amostrais e escolhas ou definições de regiões que podem manipular ou levar a erros maiores.
É o exemplo de escolher municípios, bairros e comunidades onde você teve maioria de votos do candidato X na eleição de 2018. Você continua respeitando a quantidade amostral e o georreferenciamento, mas escolhe o grupo com maior interesse de resposta pelo candidato X.”
Daniel Miranda, doutor em Ciência Política e professor da Universidade Federal de Mato Grosso do Sul
“As divergências ocorrem basicamente pelo seguinte: praticamente todos os institutos de pesquisas usam a mesma técnica, a mesma técnica geral de composição da sua amostra, que é amostra por conglomerados ou por cotas.
Na amostra por cotas, basicamente você pega a população e as características da população, tais quais registradas no Censo, e tenta replicar isso na amostra batendo determinadas cotas numéricas.
Por exemplo, se a gente tem na população sul-mato-grossense 52% de mulheres e 48% de homens, então você vai ter uma cota de mulheres de cinquenta e dois por cento na sua pesquisa.
Então, se for entrevistar, por exemplo, mil pessoas, cinquenta e dois por cento desses mil têm de ser mulheres, quarenta e oito por cento têm de ser de homens.
E se você tiver uma distribuição nas classes A, B, C, D e E, obviamente nas classes E, D e C haverá um número maior de pessoas na população, então lá na sua amostra tem de haver também, é claro, um número maior de respondentes, de entrevistados das classes C, D e E, e assim por diante.
Onde está normalmente a variação de uma pesquisa para a outra? A questão toda está em você determinar a quantidade de pessoas a serem entrevistadas em cada uma dessas cotas. Quantos homens, quantas mulheres, pessoas pretas, pardas, brancas, pobres, ricos, etc.
Porque isso pode parecer algo simples, basta olhar o Censo, só que a gente tem dois problemas. Um deles é que o último Censo que nós temos é de 2010, então ele está desatualizado, obviamente. No momento atual, o IBGE está fazendo um novo Censo, que ainda não está completo.
Então, alguns institutos usam esse Censo de 2010, outros usam alguma atualização que o IBGE fez, e isso pode dar divergência também. E, por questões técnicas ou de escolha mesmo, pode haver pequenos ajustes.
Por isso, vou te dar um exemplo. Vamos supor que eu tenha de definir lá que uma das minhas cotas é de jovens entre 24 e 29 anos. Vamos supor que eu teria de entrevistar 50 pessoas.
Mas, por algum motivo, sempre há uma margem, às vezes, a pessoa acaba entrevistando 60, por exemplo, não é tão absurdo assim, às vezes não altera a porcentagem. Porcentagem não se altera tão significativamente você mais ou menos bateu a cota.”
Lauredi Sandim, diretor do Instituto de Pesquisas do Estado de Mato Grosso do Sul (Ipems)
“As diferenças de resultados de pesquisas ocorrem por diversos motivos. A metodologia pode ser um deles, a forma da coleta de amostras é outro.
O Ipems coleta amostra presencial. Face a face. Então, são entrevistas pessoais, em ponto de fluxos e cidades maiores. Nas maiores, fazemos a divisão da área urbana por regiões.
A gente mexe com pesquisas há mais de 30 anos, o Ipems foi fundado em 1991. Então, a gente vê realmente coisas que chegam a enrubescer qualquer cidadão. Porque sabemos que há bons e maus profissionais.
Pessoas que fazem o jogo dos contratantes, de grupos. Então, isso daí não é exclusividade aqui de Mato Grosso do Sul, não. Isso é no Brasil inteiro.
Infelizmente, é assim. Penso, inclusive, que a coisa deveria ser muito mais rigorosa, muito mais bem fiscalizada. Não apenas a elaboração do plano amostral com o desenho da mostra, como quantas entrevistas vão ser realizadas em cada localidade. E o perfil dos entrevistados não é apenas isso, não.
E eu teria de buscar outros meios sobre a veracidade daquela coleta. Porque há institutos mágicos, que conseguem fazer uma amostra grande em poucos dias, no mínimo de dias, o que realmente é muito difícil e impossível. Então fica esse registro.”
FONTE: CORREIO DO ESTADO