Fakes com IA crescem 308% em um ano, revela estudo inédito da Lupa • Lupa
A edição de estreia mostra uma mudança estrutural no ecossistema desinformativo. Se em 2024 a IA era usada majoritariamente para criação de golpes digitais — como deepfakes de famosos fazendo propagandas de sites fraudulentos, por exemplo —, em 2025 a tecnologia passou a ser empregada de forma estratégica como arma política: quase 45% dos conteúdos com IA tinha viés ideológico, ante 33% no ano anterior (página 58).
A análise confirma o prognóstico nada otimista do Fórum Econômico Mundial, que, em janeiro deste ano, destacou a desinformação alimentada por IAs como uma das maiores ameaças às democracias e economias de todo o mundo.
Para a pesquisadora responsável pelo estudo, Beatriz Farrugia, analista da Lupa, os dados sugerem que a utilização de IA deve aumentar ainda mais — e impactar as eleições gerais no país, apesar das resoluções do Tribunal Superior Eleitoral (TSE) que proíbem deepfakes.
"Em 2026 será ainda mais forte porque as ferramentas de IA estão mais disseminadas e popularizadas."Beatriz Farrugia, analista da Lupa e pesquisadora responsável pelo estudo
"Em 2026 será ainda mais forte porque as ferramentas de IA estão mais disseminadas e popularizadas."
Vídeos que forjam imagem e voz de políticos acendem alerta para eleições 2026
O estudo da Lupa identificou que mais de três quartos dos conteúdos com IA exploraram a imagem ou a voz de pessoas conhecidas em 2025 (página 56). Um outro dado revelador é que as principais vítimas desse tipo de conteúdo foram as duas lideranças políticas antagonistas do país (página 63): o presidente Luiz Inácio Lula da Silva (PT) e o ex-presidente Jair Bolsonaro (PL).
Isso evidencia que a tecnologia tem sido usada sobretudo para fabricar mentiras com alto potencial de dano político e institucional. O potencial de dano, aliás, vem sendo alertado por especialistas há alguns anos: em 2024, pesquisadores da Escola de Comunicação e Artes da Universidade de São Paulo (ECA – USP) advertiram que a IA pode dissuadir a opinião pública "a ponto de alterar a forma como as campanhas políticas são atualmente conduzidas; e, por extensão, com vistas a afetar o funcionamento do sistema eleitoral democrático."
"As ferramentas de IA estão aprimoradas e o uso delas também. Se as resoluções do TSE não forem efetivas em combater isso, teremos um problema muito grave", avalia a pesquisadora da PUC-Rio, Letícia Capone, Diretora de Pesquisa do Instituto Democracia em Xeque.
Vídeos em formato deepfakes bastante fidedignos são uma amostra do quão danosa pode ser a IA em ano eleitoral. Uma das fakes desmentidas pela Lupa no ano passado, por exemplo, foi uma gravação criada digitalmente em que o ministro da Fazenda, Fernando Haddad, aparece dizendo que "gosta de taxar os mais pobres" — o que não é verdade. Ou ainda um abaixo-assinado inexistente que supostamente pediria a libertação do ex-presidente Jair Bolsonaro.
O relatório também alerta para o formato mais comum de deepfakes: a combinação de vídeo falso com texto de apoio, usado para fabricar falas de figuras públicas (página 56). Esse tipo de achado, avalia Natália Leal, diretora executiva da Lupa, expõe temas, alvos, plataformas e formatos em que a desinformação circula. "Isso nos dá conhecimento para construir ferramentas e soluções de combate a esse fenômeno com maior eficiência", diz.
"Teremos um ano intenso, com mais uma disputa eleitoral acirrada, e esse tipo de conhecimento precisa estar na construção da estratégia de qualquer organização que tenha como objetivo fazer frente ao impacto que os conteúdos falsos podem ter nas dinâmicas sociais e democráticas."Natália Leal, diretora executiva da Lupa
"Teremos um ano intenso, com mais uma disputa eleitoral acirrada, e esse tipo de conhecimento precisa estar na construção da estratégia de qualquer organização que tenha como objetivo fazer frente ao impacto que os conteúdos falsos podem ter nas dinâmicas sociais e democráticas."
Lula, Bolsonaro e Moraes: os principais alvos de fakes
O antagonismo político predominou nas narrativas falsas que mais circularam em 2025, com o presidente Luiz Inácio Lula da Silva (PT) e o ex-presidente Jair Bolsonaro (PL) como principais alvos (página 33). Além deles, o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), também ficou na mira das mentiras mais recorrentes no ano passado.
O 1º Panorama da Desinformação no Brasil identificou que o Supremo Tribunal Federal foi a instituição mais atacada (página 30). Isso se viu tanto em 2024 como no ano passado, mesmo não sendo ano eleitoral: em comum, conteúdos que buscavam deslegitimar não apenas o processo eleitoral — como se viu muito em 2022 —, mas o sistema democrático em si.
A falsa ordem do ministro Alexandre de Moraes, do STF, para fechar o Congresso, é um exemplo de fakes que distorcem ou simplesmente inventam decisões do STF.
Outro exemplo que consta no relatório acende um sinal vermelho para o que pode viralizar em 2026. No ano passado, conteúdos falsos relacionados aos critérios de elegibilidade eleitoral e aos processos judiciais envolvendo o ex-presidente Jair Bolsonaro (PL) estiveram entre os mais recorrentes (página 28).
Esse tipo de fake pode se juntar a uma nova onda de desinformação sobre a segurança das urnas — incansavelmente desmentida pela Lupa e outras agências de checagem desde 2018.
"Observamos que a narrativa de descredibilizar as eleições virou uma constante. Foi tão amplamente usada pela extrema-direita que a dúvida foi plantada sobre o sistema de voto", analisa a pesquisadora Beatriz Farrugia.
"Esse é justamente o objetivo de toda campanha de desinformação: provocar caos e afetar o discernimento para as tomadas de decisões. Esse discurso [da 'fraude nas urnas'] não é exclusivo do Brasil, ele também circula em outros países. Portanto, eu diria que é como a narrativa antivacina: é quase como uma categoria de desinformação."Beatriz Farrugia, analista da Lupa e pesquisadora responsável pelo estudo
"Esse é justamente o objetivo de toda campanha de desinformação: provocar caos e afetar o discernimento para as tomadas de decisões. Esse discurso [da 'fraude nas urnas'] não é exclusivo do Brasil, ele também circula em outros países. Portanto, eu diria que é como a narrativa antivacina: é quase como uma categoria de desinformação."
Zap perde hegemonia, Kwai cresce
O WhatsApp, embora ainda seja a principal via de difusão de desinformação, perdeu a hegemonia. Segundo o estudo do Observatório Lupa, o uso do aplicativo de mensagens caiu de quase 90% em 2024 para 46% em 2025 (página 51). Isso não significa que as fakes diminuíram por lá, mas sim que, agora, há maior dispersão de plataformas.
Um fluxo apresentado no Panorama da Desinformação no Brasil detalha os 10 caminhos mais recorrentes de circulação da desinformação (página 52). Eles evidenciam que, em muitos casos, as mentiras transitam por múltiplas plataformas: surgem em uma rede e acabam sendo compartilhadas em outra.
Outro dado revelador é que outras plataformas, para além das mais populares da Meta (Facebook, Instagram, Threads, WhatsApp) e o próprio X, também passaram a ter mais relevância na disseminação de fakes. O Kwai é um exemplo. Esse aplicativo de vídeos curtos, semelhante e rival ao TikTok, agora também ocupa o ranking das dez principais vias de difusão de mentiras (página 52). Embora esteja em último lugar, sinaliza uma nova frente de circulação de desinformação.
"As dinâmicas de consumo e produção de conteúdo que envolvem desinformação se alteram com muita velocidade e dificultam a consolidação de estudos detalhados sobre o tema que não sejam também anacrônicos", afirma Natália Leal.
Por isso o esforço da Lupa em entregar análises e construir conhecimento sobre desinformação que seja aplicável ao desenho de soluções efetivas de combate a esse fenômeno.
"O investimento em inteligência a partir da nossa própria produção e do nosso acervo é uma contribuição que podemos dar à nossa comunidade para ampliar o acesso à informação de qualidade e auxiliar na tomada de decisão em momentos-chave para a sociedade."Natália Leal, diretora executiva da Lupa
"O investimento em inteligência a partir da nossa própria produção e do nosso acervo é uma contribuição que podemos dar à nossa comunidade para ampliar o acesso à informação de qualidade e auxiliar na tomada de decisão em momentos-chave para a sociedade."
Hover overTap highlighted text for details
Source Quality
Source classification (primary/secondary/tertiary), named vs anonymous, expert credentials, variety
Summary
Good named source density with primary study data and named experts, though limited external primary sources.
Specific Findings from the Article (5)
"Estudo inédito do Observatório Lupa revela que deepfakes e outras peças desinformativas geradas com IA passaram de 39 casos em 2024 (4,6% do total de checagens naquele ano) para 159 em 2025 (25% da..."
Primary data from the Lupa Observatory's own study
Primary source"Para a pesquisadora responsável pelo estudo, Beatriz Farrugia, analista da Lupa"
Named expert source with clear credentials
Named source"avalia a pesquisadora da PUC-Rio, Letícia Capone, Diretora de Pesquisa do Instituto Democracia em Xeque"
Named external expert with institutional affiliation
Named source"avalia Natália Leal, diretora executiva da Lupa"
Named organizational leader
Named source"A análise confirma o prognóstico nada otimista do Fórum Econômico Mundial"
Reference to external report without direct attribution
Tertiary sourcePerspective Balance
Acknowledgment of multiple viewpoints, counterarguments, and balanced presentation
Summary
Minimal effort to present alternative perspectives; focuses primarily on study findings and expert warnings.
Specific Findings from the Article (3)
"Isso evidencia que a tecnologia tem sido usada sobretudo para fabricar mentiras com alto potencial de dano político e institucional."
Unilateral framing of AI use as harmful without counterarguments
One sided"Foi tão amplamente usada pela extrema-direita que a dúvida foi plantada sobre o sistema de voto"
Attribution to specific political group without opposing viewpoint
One sided"as principais vítimas desse tipo de conteúdo foram as duas lideranças políticas antagonistas do país"
Acknowledges both sides of political spectrum as targets
Balance indicatorContextual Depth
Background information, statistics, comprehensiveness of coverage
Summary
Good context with statistical data, historical comparison, and explanatory information.
Specific Findings from the Article (4)
"passaram de 39 casos em 2024 (4,6% do total de checagens naquele ano) para 159 em 2025 (25% das verificações), um aumento de 120 casos"
Detailed statistical comparison between years
Statistic"em 2024, pesquisadores da Escola de Comunicação e Artes da Universidade de São Paulo (ECA – USP) advertiram que a IA pode dissuadir a opinião pública"
Historical context from previous research
Background"O WhatsApp, embora ainda seja a principal via de difusão de desinformação, perdeu a hegemonia. Segundo o estudo do Observatório Lupa, o uso do aplicativo de mensagens caiu de quase 90% em 2024 para..."
Platform evolution context with specific data
Context indicator"quase 45% dos conteúdos com IA tinha viés ideológico, ante 33% no ano anterior"
Specific percentage data on content trends
StatisticLanguage Neutrality
Absence of loaded, sensationalist, or politically biased language
Summary
Moderate loaded language with some politically charged terms and framing.
Specific Findings from the Article (5)
"Estudo inédito do Observatório Lupa revela que deepfakes e outras peças desinformativas geradas com IA"
Factual, neutral reporting language
Neutral language"acendem alerta para eleições 2026"
Alarmist language about elections
Sensationalist"acende um sinal vermelho para o que pode viralizar em 2026"
Sensationalist warning language
Sensationalist"Foi tão amplamente usada pela extrema-direita que a dúvida foi plantada sobre o sistema de voto"
Politically loaded attribution to 'extreme right'
Left loaded"provocar caos e afetar o discernimento para as tomadas de decisões"
Emotionally charged language about effects
SensationalistTransparency
Author attribution, dates, methodology disclosure, quote attribution
Summary
Full attribution with author, date, clear quote attribution, and methodology disclosure.
Specific Findings from the Article (3)
"Os dados são do 1º Panorama da Desinformação no Brasil, pesquisa anual pioneira conduzida pela Lupa"
Clear methodology description
Methodology""Em 2026 será ainda mais forte porque as ferramentas de IA estão mais disseminadas e popularizadas."Beatriz Farrugia, analista da Lupa e pesquisadora responsável pelo estudo"
Full quote attribution with source credentials
Quote attribution""Teremos um ano intenso, com mais uma disputa eleitoral acirrada, e esse tipo de conhecimento precisa estar na construção da estratégia de qualquer organização que tenha como objetivo fazer frente ..."
Clear attribution for executive quote
Quote attributionLogical Coherence
Internal consistency of claims, absence of contradictions and unsupported causation
Summary
No logical issues detected; claims are consistent and well-supported.
Core Claims & Their Sources
-
"AI-generated fake content increased by 308% from 2024 to 2025 in Brazil"
Source: Lupa Observatory's 1st Panorama of Disinformation in Brazil study data Primary
-
"AI is increasingly used as a political weapon, with 45% of AI content having ideological bias in 2025"
Source: Lupa study data showing shift from digital scams to political use Primary
-
"Lula and Bolsonaro were the main targets of AI-generated fake content"
Source: Lupa study findings on political targets Primary
-
"WhatsApp lost hegemony as misinformation platform, dropping from 90% to 46% share"
Source: Lupa study data on platform distribution Primary
Logic Model Inspector
ConsistentExtracted Propositions (8)
-
P1
"Deepfakes and AI-generated misinformation increased from 39 cases in 2024 to 159 cases in 2025"
Factual -
P2
"AI content with ideological bias increased from 33% in 2024 to 45% in 2025"
Factual -
P3
"Over three-quarters of AI content exploited images or voices of known people in 2025"
Factual -
P4
"WhatsApp use for misinformation dropped from nearly 90% in 2024 to 46% in 2025"
Factual -
P5
"The Supreme Court was the most attacked institution in both 2024 and 2025"
Factual -
P6
"More widespread and popularized AI tools causes will lead to stronger misinformation in 2026"
Causal -
P7
"Ineffective TSE resolutions against deepfakes causes will lead to serious problems"
Causal -
P8
"Disinformation campaigns aim to provoke causes chaos and affect decision-making discernment"
Causal
Claim Relationships Graph
View Formal Logic Representation
=== Propositions === P1 [factual]: Deepfakes and AI-generated misinformation increased from 39 cases in 2024 to 159 cases in 2025 P2 [factual]: AI content with ideological bias increased from 33% in 2024 to 45% in 2025 P3 [factual]: Over three-quarters of AI content exploited images or voices of known people in 2025 P4 [factual]: WhatsApp use for misinformation dropped from nearly 90% in 2024 to 46% in 2025 P5 [factual]: The Supreme Court was the most attacked institution in both 2024 and 2025 P6 [causal]: More widespread and popularized AI tools causes will lead to stronger misinformation in 2026 P7 [causal]: Ineffective TSE resolutions against deepfakes causes will lead to serious problems P8 [causal]: Disinformation campaigns aim to provoke causes chaos and affect decision-making discernment === Causal Graph === more widespread and popularized ai tools -> will lead to stronger misinformation in 2026 ineffective tse resolutions against deepfakes -> will lead to serious problems disinformation campaigns aim to provoke -> chaos and affect decisionmaking discernment
All claims are logically consistent. No contradictions, temporal issues, or circular reasoning detected.