Trump, eleições, inteligência artificial e o direito de resposta (

Divulgação /José de Souza Junior – Grupo RG Eventos

A rápida evolução da inteligência artificial (IA) tem alterado de forma profunda a produção, a circulação e o consumo de informações. Em um ambiente digital cada vez mais ágil e visual, diferenciar conteúdos autênticos de materiais artificialmente produzidos tornou-se um dos principais desafios contemporâneos, sobretudo em contextos sensíveis como o político e o eleitoral.

Imagens hiper-realistas, vídeos manipulados e áudios sintéticos — conhecidos como deepfakes — circulam com facilidade pelas redes sociais e aplicativos de mensagens. Muitas dessas peças retratam situações que nunca ocorreram, mas apresentam alto grau de verossimilhança. De acordo com o Digital News Report 2024, do Instituto Reuters para o Estudo do Jornalismo, da Universidade de Oxford, uma parcela expressiva da população mundial tem dificuldade para identificar conteúdos falsos quando estes utilizam recursos visuais sofisticados.

Para o advogado e pesquisador da Universidade de Brasília (UnB) José de Souza Junior, diretor do Grupo RG Eventos, o principal problema não está apenas no avanço tecnológico, mas no descompasso entre a velocidade da inovação e a capacidade da sociedade de compreendê-la e regulá-la. “Existem muitas regras e debates em curso, mas, na prática, a evolução da inteligência artificial é muito mais rápida do que a evolução das leis”, afirma.

Ele cita exemplos recentes amplamente disseminados nas redes sociais, como imagens falsas envolvendo líderes internacionais em situações políticas e militares inexistentes. “As pessoas veem fotos em que Donald Trump aparece como presidente da Venezuela ou em que Nicolás Maduro teria sido capturado por forças de elite. Nada disso é real, mas a imagem convence”, explica. Segundo ele, esses conteúdos se espalham com facilidade porque grande parte da população ainda carece de mecanismos eficazes de verificação da informação.

Dados do Pew Research Center corroboram essa avaliação. Um levantamento aponta que mais de 70% dos adultos acreditam que a inteligência artificial tornará a disseminação de informações falsas ainda mais eficiente nos próximos anos. No Brasil, onde cerca de 67% da população se informa prioritariamente por meio das redes sociais, segundo o mesmo relatório do Instituto Reuters, o impacto tende a ser mais significativo.

José de Souza Junior ressalta que fatores geracionais e educacionais ampliam o risco. “Muitas pessoas não estão acostumadas a validar se a informação é verdadeira. Quem não viveu a transição digital tende a acreditar no que vê: uma foto, um vídeo, um texto”, afirma. A facilidade de compartilhamento em aplicativos como o WhatsApp, segundo ele, reforça o poder de convencimento, mesmo quando o conteúdo é falso.

Pesquisas acadêmicas ajudam a explicar o fenômeno. Estudo do MIT Sloan School of Management, publicado na revista Science, indica que notícias falsas se propagam até seis vezes mais rápido do que informações verdadeiras, especialmente quando despertam emoções intensas. A inteligência artificial, ao tornar esse tipo de conteúdo mais sofisticado, potencializa ainda mais esse efeito.

A preocupação aumenta com a proximidade de ciclos eleitorais. Para o pesquisador, o cenário é delicado porque “muitas vezes o boato constrói uma convicção”“Mesmo que depois se comprove que é falso, a dúvida já foi instalada. E a dúvida convence”, alerta.

No campo jurídico, o desafio é estrutural. “Existe um lapso temporal muito grande entre a inovação tecnológica e a regulamentação. A tecnologia evolui diariamente; a lei, não”, afirma. Ele questiona como aplicar instrumentos tradicionais do direito eleitoral, como o direito de resposta, em um ambiente dominado por conteúdos gerados por IA. “Como garantir um direito de resposta quando a imagem falsa já foi replicada milhares de vezes?”, indaga o diretor do Grupo RG Eventos, José de Souza Junior.

Enquanto a União Europeia avança com iniciativas como o AI Act, que estabelece critérios de transparência e classificação de riscos para sistemas de inteligência artificial, o Brasil ainda debate projetos de lei que buscam equilibrar inovação, liberdade de expressão e proteção contra abusos tecnológicos.

Para José de Souza Junior, o enfrentamento do problema vai além da legislação. “A inteligência artificial está transformando a forma como as pessoas pensam, percebem a realidade e se comportam. É uma nova era”, avalia. Nesse contexto, ele destaca a educação digital como ferramenta essencial para reduzir os impactos da desinformação.

A visão é compartilhada pela UNESCO, que defende a alfabetização midiática e informacional como estratégia central no combate às notícias falsas. Segundo a organização, programas de educação digital reduzem de forma significativa o compartilhamento de conteúdos enganosos.

Com atuação na interseção entre direito, tecnologia e governança, José de Souza Junior alerta que o maior risco não é apenas a criação de realidades artificiais, mas a erosão gradual da confiança coletiva. “Gerar dúvida já é suficiente para influenciar decisões. Isso muda completamente a forma como a sociedade escolhe e decide”, conclui.

Em um cenário em que a inteligência artificial redefine os limites entre o real e o artificial, especialistas são unânimes em apontar: a capacidade de questionar, verificar e compreender informações deixou de ser apenas uma habilidade individual e tornou-se um pilar fundamental da democracia.