O vídeo de um canguru de “apoio emocional” impedido de embarcar em um avião viralizou nas redes sociais em maio de 2025. Mesmo sendo uma cena improvável no mundo real, a qualidade do conteúdo produzido por inteligência artificial enganou muitos usuários nas redes sociais.
Anos antes, em plena campanha eleitoral ao Governo de São Paulo, João Dória classificou como deepfake o vídeo em que aparecia em cenas íntimas com garotas de programa. Na época, ele alegou que o conteúdo foi produzido por adversário, mas perícia da Polícia Federal não identificou sinais de adulteração no vídeo. O caso ganhou repercussão, mas não impediu que Dória fosse eleito governador.
Em Mato Grosso do Sul, duas pessoas foram multadas em R$ 15 mil pela Justiça Eleitoral por compartilharem deepfake — montagem feita por inteligência artificial para simular imagens e sons humanos — contra a então prefeita de Jardim, Clediane Areco Matzenbacher (PP). O conteúdo falso sugeria uma possível compra de votos pela candidata nas eleições de 2024.
No âmbito político, a disseminação de conteúdos falsos produzidos por inteligência artificial pode influenciar no processo eleitoral. As informações geradas com o objetivo de enganar induzem a desmoralizar o adversário sob os olhos dos eleitores.
A Resolução TSE n. 23.732/2024, que trata sobre a propaganda eleitoral, regulamenta o uso de IA nas eleições e impõe regras rígidas para inibir as fake news durante a corrida eleitoral
De acordo com o juiz eleitoral do TRE-MS (Tribunal Regional Eleitoral de Mato Grosso do Sul) Fernando Duque Estrada, de 47 anos, o uso de deepfake configura ilícito eleitoral, com consequências para o candidato, e pode configurar crime, a depender do caso.
“A inteligência artificial veio para ficar, não é proibida, porém, possui regras. O que é proibido é a utilização da IA para produzir deepfakes. Toda desinformação, sob qualquer modalidade, coloca em risco o processo eleitoral e, acaso seja feita através de IA, o alcance pode ser maior, causando um desequilíbrio na disputa das eleições, comprometendo a formação da opinião dos eleitores”, explica.
O que é deepfake?
Conforme explica o professor da UFMS (Universidade Federal de Mato Grosso do Sul) Bruno Magalhães Nogueira, os deepfakes são conteúdos falsos, como vídeos, áudios ou imagens, criados com inteligência artificial para imitar pessoas reais.
O termo surgiu a partir da junção de deep learning (aprendizado profundo) com fake (falso), e começou a ganhar notoriedade por volta de 2017, quando técnicas de redes neurais passaram a ser usadas para trocar rostos em vídeos de forma convincente.
Bruno é doutor pelo ICMC/USP (Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo) e atua na área de inteligência artificial. O especialista diz que essas tecnologias foram inicialmente desenvolvidas com fins legítimos, como pesquisa acadêmica, efeitos especiais no cinema e aplicações em entretenimento. No entanto, com o avanço dos modelos de IA e a popularização das ferramentas, passaram a ser utilizadas também de forma maliciosa.
“Os sistemas são treinados com grandes volumes de dados, como fotos, vídeos ou áudios de uma pessoa, aprendendo padrões de rosto, voz e expressões, o que permite gerar versões artificiais cada vez mais realistas e difíceis de distinguir do conteúdo verdadeiro”, explica o docente.
O advogado e professor universitário Arthur Gabriel Marcon Vasques explica que a resolução do TSE proíbe a criação e o compartilhamento de conteúdos falsos “sabidamente inverídicos ou gravemente descontextualizados” que possam prejudicar um candidato, partido ou federações.
A propaganda eleitoral que utilizar inteligência artificial para criar ou manipular conteúdo verdadeiro deverá conter, de forma clara e legível, um aviso de que foi gerada ou manipulada por IA.
“A responsabilidade pela veiculação de propaganda eleitoral manipulada ou criada por IA recai não apenas sobre o candidato, partido ou federação, mas também sobre quem a criou, utilizou ou impulsionou, e, sob certas condições, sobre as plataformas digitais”, afirma o professor.
Como usar a IA nas Eleições de 2026?
O juiz eleitoral Fernando Estrada alerta que, nestas eleições, todo conteúdo manipulado por inteligência artificial deve conter um rótulo ou identificação para informar ao leitor sobre a origem do produto.
Quem desrespeitar as regras pode ter o conteúdo removido. “Chegando ao conhecimento da Justiça Eleitoral os casos de possíveis utilizações irregulares de IA, os conteúdos passarão por análise pelos servidores especializados, assessores e, em seguida, serão encaminhados para julgamento pelo Tribunal sobre as consequências aplicáveis”, informa.
O magistrado diz que a resolução trouxe regras mais transparentes e claras sobre propaganda eleitoral, a fim de facilitar o cumprimento e a fiscalização.
Sobre redes sociais, ficou estabelecido que os provedores de impulsionamento de conteúdos devem manter arquivo dos anúncios para acompanhamento, valores e responsáveis pelos pagamentos, ou seja, fornecer acesso à Justiça Eleitoral e aos interessados para controle e fiscalização.
“Por exemplo: é possível fazer propaganda eleitoral em blogs, páginas, sites ou redes sociais, desde que os endereços sejam informados à Justiça Eleitoral e hospedados em provedor com sede no Brasil. De outro lado, é proibido que uma pessoa contrate impulsionamento e disparo em massa de conteúdo”, elucida.
A pesquisa “Construindo Consensos: Deep Fakes nas Eleições de 2024”, que analisou 56 julgamentos em TREs (Tribunais Regionais Eleitorais) durante as eleições de 2024, identificou a viralização de conteúdos por meio do WhatsApp em 21 casos analisados, o que representa mais de um terço dos processos.
“A migração para campanhas digitais se reflete no uso dessas ferramentas, especialmente considerando que a Justiça Eleitoral tem apontado no sentido de que o contexto de comunicação privada e restrita exige potencial de viralização como um fator determinante”, diz parte da conclusão.
Sobre o uso de Inteligência Artificial, a Resolução nº 23.732/2024 realizou a regulamentação do uso, como informar de modo claro que o conteúdo foi manipulado com IA. O uso indevido com o objetivo de enganar e desinformar pode levar até a cassação do mandato.
“O que é proibido é a desinformação, em qualquer modalidade. Assim, qualquer conteúdo fabricado ou manipulado para disseminar fatos inverídicos ou descontextualizados que causem desequilíbrio do pleito ou danos ao processo eleitoral deverá ser imediatamente removido, com possibilidade de indisponibilidade do serviço de comunicação, bem como pode configurar abuso do poder político, uso indevido dos meios de comunicação social, acarretando a cassação do registro ou do mandato e apuração de crime eleitoral”, alerta.
Como identificar que um conteúdo foi criado por IA?
O advogado Arthur Marcon alerta para as dificuldades de detecção dos conteúdos manipulados pela internet à medida que as tecnologias se tornam mais sofisticadas e acessíveis, superando até os recursos de identificação. O anonimato oportunizado pelo mundo virtual é outro desafio imposto nesse cenário, diante de dificuldade de identificar o autor do conteúdo falso.
“A velocidade de propagação viral do conteúdo nas plataformas digitais permite que manipulações causem danos irreversíveis à honra, imagem ou ao processo eleitoral antes mesmo que a Justiça Eleitoral ou as plataformas consigam agir efetivamente”, aponta.
O professor da UFMS Bruno Magalhães explica que modelos que antes eram restritos a grandes laboratórios estão acessíveis hoje em poucos cliques pelo celular. Com essa tecnologia, é possível criar textos, imagens, áudios e vídeos com alto nível de realismo.
O docente diz que o senso crítico do usuário é principal “linha de defesa” contra a desinformação. Ferramentas automáticas podem ajudar, mas ficar atento a sinais estranhos e checar fontes pode livrar o eleitor de acreditar em conteúdo falso.
“Existem muitos pesquisadores e instituições se dedicando ao desenvolvimento de técnicas para detectar deepfakes, com avanços importantes em cenários específicos. No entanto, ainda não existe uma solução ‘definitiva’ ou uma técnica única capaz de resolver o problema de forma geral, especialmente porque os métodos de geração também evoluem constantemente”, indica.
O juiz eleitoral Fernando Estrada acredita que é necessária uma conscientização dos políticos e eleitores sobre os danos causados por manipulações. “Pois um grande problema é a disseminação, pela própria sociedade, das deepfakes recebidas, sem verificação de veracidade”, reprova.
Quem são as principais vítimas?
Criar deepfake coloca em risco a democracia e o processo eleitoral, desequilibrando o cenário especialmente para quem não tem o hábito de checar a veracidade das informações.
O advogado Arhtur Marcon aponta que, geralmente, os principais alvos de deepfakes nas eleições são pessoas com alguma visibilidade ou que representam um obstáculo para os interesses de quem cria e dissemina as deepfakes. “Em um contexto eleitoral, o foco recai sobre aqueles cuja imagem ou reputação pode ser mais facilmente explorada para ganho político ou para deslegitimar adversários”, acredita.
Já o especialista em IA na área da computação, professor Bruno Magalhães, observa que figuras públicas, como políticos, artistas, jornalistas e influenciadores frequentemente são alvos de desinformação ou ataques à reputação.
“Mulheres são especialmente afetadas, sobretudo em deepfakes de cunho sexual, que representam boa parte desse tipo de material. Também crescem casos envolvendo pessoas comuns, usadas em golpes, extorsões ou fraudes, geralmente a partir de fotos e vídeos disponíveis nas redes sociais”, elucida.
O docente observa que ainda há brechas na legislação brasileira sobre o uso de inteligência artificial. No Brasil, embora existam princípios gerais de proteção de dados e direitos de imagem, não há ainda uma lei federal específica que trate de IA de forma abrangente, e vários projetos estão em tramitação para criar esse marco regulatório. Em eleições, por exemplo, o TSE (Tribunal Superior Eleitoral) proibiu o uso de deepfakes e exigiu aviso claro de quando conteúdo é gerado por IA.
O especialista analisa que o descompasso da legislação com o avano da tecnologia cria lacunas, especialmente em responsabilidade civil e penal, proteção de dados e mecanismos eficazes de fiscalização.
“No exterior, iniciativas como o ‘AI Act’, da União Europeia, já estabelecem regras detalhadas para uso de IA e exigem transparência sobre conteúdo gerado por máquinas, com penalidades severas para descumprimento. Outros países adotam leis específicas contra deepfakes sem consentimento ou propõem direitos sobre a própria imagem e voz. Ainda assim, não existe uma legislação global ou uma ‘receita pronta’ que cubra todos os riscos: muitos países estão apenas no início da regulação, as definições legais e as punições variam bastante, e as leis precisam acompanhar a rápida evolução das tecnologias de IA”, explica.
FONTE: MIDIAMAX




