ICL Notícias
Juliana Dal Piva

Formada pela UFSC com mestrado no CPDOC da FGV-Rio. Foi repórter especial do jornal O Globo e colunista do portal UOL. É apresentadora do podcast "A vida secreta do Jair" e autora do livro "O negócio do Jair: a história proibida do clã Bolsonaro", da editora Zahar, finalista do prêmio Jabuti de 2023.

IA na pré-campanha foi julgada irregular em 32% dos processos na Justiça Eleitoral

Levantamento exclusivo foi feito no Diário da Justiça Eletrônico de todos os tribunais regionais do país; falta de jurisprudência e complexidade da tecnologia geram decisões contraditórias
12/08/2024 | 12h00

Juliana Dal Piva e Amanda Prado, CLIP e ICL Notícias

Gisele Lobato e João Barbosa, Aos Fatos

Nos primeiros seis meses de 2024, a Justiça Eleitoral julgou 43 ações relacionadas ao uso de Inteligência Artificial na pré-campanha — e, em 14 dos casos analisados (32%), o uso da tecnologia foi considerado irregular. É o que revela um levantamento inédito, realizado por Aos Fatos em parceria com o ICL Notícias e o Clip (Centro Latinoamericano de Investigação Jornalística).

Os resultados obtidos sinalizam um cenário arriscado para as eleições de outubro, as primeiras em que o uso da IA generativa está disseminado. E mostram que as regras instituídas em fevereiro pelo TSE (Tribunal Superior Eleitoral) para o uso de IA esbarram em limitações práticas, como a falta de jurisprudência consolidada e a dificuldade dos juízes eleitorais para lidar com o tema da tecnologia.

O levantamento foi feito no Diário da Justiça Eletrônico de todos os Tribunais Regionais Eleitorais do país, por meio de palavras-chave.

A pesquisa integra o projeto “Os Ilusionistas”, uma aliança jornalística na qual repórteres e pesquisadores digitais de 15 organizações e veículos de mídia latino-americanos investigam, de forma colaborativa, a circulação de informações falsas e a manipulação de conversas públicas na mídia digital, durante este “super ano eleitoral” de 2024 na América Latina.

Apesar de reunir cerca de um terço dos municípios que vão às urnas em outubro, até o momento, a região Nordeste é responsável por mais da metade das ações identificadas no levantamento (23 das 43). Entre os estados, os campeões de casos são Pernambuco e Rio de Janeiro, com oito ações cada.

Por ser um tema novo, recém-incorporado na legislação, o uso da IA na propaganda política ainda não chegou às últimas instâncias da Justiça eleitoral, e o levantamento mostra que a falta de jurisprudência tem resultado em interpretações por vezes contraditórias da lei.

“A gente não tem uma linha de conduta ainda muito clara. A gente não tem sequer doutrina, um material escrito e pesquisadores já consolidados; menos ainda decisões judiciais. Esse é um problema com o qual nós vamos ter que nos deparar”, avalia o subprocurador-geral da República Elton Ghersel, coordenador do Genafe (Grupo Executivo Nacional da Função Eleitoral).

A inexperiência dos juristas, porém, contrasta com a urgência de encarar o tema, já que as eleições municipais de outubro serão as primeiras após a popularização das ferramentas de IA generativa.

“Nossa expectativa, infelizmente, é que a utilização de Inteligência Artificial e a produção de conteúdos falsos vão ser amplamente utilizados na campanha eleitoral”, prevê Ghersel. “Nós precisamos estar preparados para tentar, com a maior celeridade possível e quando for possível, retirar esses conteúdos do ar e punir os responsáveis”.

Barreira tecnológica

A análise das decisões reunidas pelo levantamento indica que, sem referências, uma parte dos juízes tentaram evitar o assunto, ignorando a questão da IA para focar sua argumentação em outras irregularidades atribuídas à propaganda, como a presença de pedido de votos ou ofensas à honra dos alvos.

Já quem resolveu encarar o tema esbarrou, muitas vezes, nas incertezas geradas pela falta de perícias, que são incompatíveis com a finalidade da Justiça eleitoral de agir rápido contra propaganda política irregular, para minimizar o seu impacto. Até 16 de agosto, pela lei brasileira, ainda não é permitida a publicidade eleitoral.

“É um desafio para os juízes reconhecerem que as mídias divulgadas foram produzidas ou não com o auxílio da Inteligência Artificial, seja pela ausência de conhecimento técnico a respeito dessas novas ferramentas, seja pela dificuldade em promover perícias”, observa o advogado eleitoralista Carlos Sérgio de Carvalho Barros, que atua em processos de propaganda envolvendo IA no Maranhão.

O desafio tecnológico pode ser visto em um dos primeiros julgamentos do país sobre o tema, no qual um dos pré-candidatos na disputa da cidade de Costa Rica, no interior do estado do Mato Grosso do Sul, no Brasil, foi multado por divulgar um vídeo sobre o atual prefeito da cidade, Cleverson Alves dos Santos (PP).

A ação foi apresentada pelo PP (Partido Progressista) após o funcionário de um pré-candidato ter compartilhado, em um grupo de WhatsApp, uma montagem rudimentar em vídeo, sem sincronização entre áudio e imagens, que o partido alegou ter sido feita com IA para atacar o prefeito.

“Preffake compara população de Costa Rica igual a cachorro de rua”, diz texto em amarelo inserido sobre o vídeo, que é acompanhado por um áudio com a voz do prefeito: “aquele povo ali gente é igual cachorro que corre atrás de carro. O carro tá correndo e ele tá atrás latindo”.

Apesar da alegação do uso de IA, Kleber Coelho, advogado do PP, contou à reportagem que, devido à urgência, não foi possível fazer perícia prévia no conteúdo, e o caso foi levado à Justiça sem indicar como a montagem se produziu.

Coelho, porém, reconheceu que o áudio é verdadeiro, mas foi editado e tirado de contexto para insinuar que o prefeito estaria atacando a população da cidade. “As imagens são da campanha de 2020 e o áudio é a voz do prefeito efetivamente, por isso, leva a pessoa ao erro. Mas ele não falou aquilo em 2020. O áudio é de outro momento em que o prefeito estava falando do grupo opositor”, explica o advogado. “É uma montagem tosca”, avalia.

Ao analisar o caso, porém, a juíza Laisa Ferneda atribuiu a semelhança entre o áudio e a voz do prefeito ao uso da tecnologia. “A voz sobreposta é do próprio atingido (ou se assemelha muito), o que denota o uso da Inteligência Artificial (IA) para manipulação”, diz a sentença, apesar da falta de provas corroborando a alegação.

“É caso típico de malversação da tecnologia mediante Deep Fake, ou seja, sobreposição de voz em vídeo, ainda que sem a fineza da plena sincronia labial (se cuidadosamente observado o vídeo), mas com potencial claro de confundir e induzir em erro”, justificou a juíza.

A dificuldade verificada no caso da cidade de Costa Rica é reconhecida pelo coordenador do Genafe. “O pessoal da TI e da comunicação é muito mais versado em compreender esse fenômeno da tecnologia do que as pessoas do mundo jurídico”, admite. “Certamente alguns erros vão ser cometidos nesse processo, pra mais e pra menos, até que se consiga definir uma linha de equilíbrio”, complementa.

Combate às deepfakes

O tipo de tecnologia usada para criar uma montagem não faz diferença segundo a resolução nº 23.732, de 27 de fevereiro deste ano, do TSE, já que o texto proíbe a utilização na propaganda “de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral”.

O foco do texto é o combate às deepfakes, incluindo os áudios e vídeos “gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia”. Também não é permitido o uso de chatbots que simulem, com a IA, que o eleitor está conversando com uma pessoa real.

A resolução não proíbe o uso da IA nas propagandas políticas como um todo, mas diz que as peças que adotarem o recurso precisam informar que o conteúdo foi manipulado e a tecnologia utilizada para isso.

A confusão entre o que é deepfake e o que é apenas um conteúdo gerado por IA se mostrou comum na análise das ações identificadas pelo levantamento. A fronteira entre os dois conceitos “é justamente o potencial de engano da população”, explica o procurador que coordena o Genafe, lembrando que a tecnologia também pode ser usada para criar sátiras.

Ao contrário do que sugere o procurador, o próprio setor tecnológico também enfrenta dificuldades para lidar com as formas de combate à desinformação gerada por IA. O motivo é a falta de métodos 100% confiáveis de detecção da manipulação.

“É uma espécie de ‘corrida armamentista’ entre quem produz deepfake e quem cria ferramentas para detectá-las”, compara Lucas Lattari, doutor em Ciência da Computação e professor do Instituto Federal do Sudeste de Minas Gerais.

O professor considera que as limitações da perícia técnica são maiores quando o conteúdo artificial é propagado na forma de som, formato que considera “bem mais convincente”, especialmente se os áudios “forem curtos e de baixa qualidade para confundir”.

“O que facilita a perícia em relação à imagem é a margem de manobra, pois pixels te dão bem mais pistas de manipulação”, diz Lattari, lembrando que também os metadados dos arquivos podem trazer indícios para análise, como a lente da câmera usada, a data do registro e a localização geográfica de onde a imagem foi feita, se o falsificador não for cuidadoso.

“No caso de áudio é bem mais difícil, pois sinal sonoro não dá tantas pistas visuais com relação aos pixels. Mesmo para peritos, é um trabalho árduo e que depende de softwares de análise complexos que, sozinhos, não dão as respostas”, descreve.

Antes mesmo de a campanha começar oficialmente, o advogado eleitoralista Moreno de Azevedo Alves, que atua em Pernambuco, relata que já se deparou com uma situação em que encontrou dificuldades de comprovar que um áudio havia sido criado por IA. “O magistrado entendeu que não houve uso de Inteligência Artificial, mesmo com os indícios apontando para o contrário”, conta. O caso está sob segredo de Justiça e não apareceu no levantamento feito pela reportagem.

Outro problema que advogados dizem já enfrentar é para comprovar a autoria das montagens, dado o anonimato garantido pelas redes.

Caso Tabata versus Ricardo Nunes

A necessidade de que a montagem feita com IA apresente “fatos notoriamente inverídicos ou contextualizados” foi o argumento usado no julgamento que considerou regular um vídeo divulgado pela deputada federal e pré-candidata Tabata Amaral (PSB) no qual o prefeito de São Paulo, Ricardo Nunes (MDB), teve seu rosto inserido digitalmente no personagem Ken, do filme Barbie. A montagem fazia um trocadilho com o termo “Quem?”, tentando passar a ideia de que Nunes seria desconhecido pela população da capital que governa.

“Claramente se vê que se trata de montagem desprimorosa, incapaz de levar qualquer visualizador a erro, dado o uso de recursos rudimentares para a realização da sobreposição de imagem”, argumenta a decisão, que descartou também que tenha havido exposição vexatória do prefeito. “Até porque a montagem é feita em sobreposição a um personagem bem aceito mundialmente, que não figura como um vilão, bandido, ou  uma figura desprovida de bons valores e caráter duvidoso”, diz o texto.

A mesma discussão esteve presente em julgamento envolvendo a disputa no município de Tutoia (MA), onde o PDT entrou com ação contra um vídeo que apresentava a âncora do Jornal da Globo, Renata Lo Prete. Um áudio de baixa qualidade técnica foi inserido digitalmente no lugar da fala da apresentadora para introduzir uma suposta notícia sobre o prefeito local, Raimundo Nonato Abraão Baquil (PDT), pré-candidato à reeleição. Na sequência, aparecem imagens de cortes de um depoimento verdadeiro que o político deu à Justiça.

O juízo da 40ª Zona Eleitoral entendeu que não havia irregularidades na propaganda — a que a própria decisão se refere como deepfake. “No caso, a divulgação dessa deepfake, no mínimo, gera controvérsias, sem poder afirmar esta Justiça Especializada, com precisão, que são informações sabidamente inverídicas pelo meio virtual divulgador”, diz o texto.

“É perceptível que o juiz não tem segurança ao fazer um juízo de valor se o vídeo é ou não uma deepfake”, critica o advogado Benno Caldas, envolvido no processo, que aguarda julgamento de recurso.

Já na Grande São Paulo, o tribunal decidiu multar o prefeito de Guarulhos, Gustavo Henric Costa, por ter difundido um vídeo, feito com IA, no qual aparece sobre um palco, como um rockstar, em frente a uma multidão que grita “fora PT”.

 

Vídeo gerado por IA que mostra prefeito de Guarulhos (SP) como rockstar resultou em multa após ação apresentada pelo PT (Reprodução)

O vídeo também não foi considerado deepfake pela decisão — que, ainda assim, o considerou irregular. “A manipulação da imagem por Inteligência Artificial no vídeo postado, em que a figura do representado é inserida em um palco de show com plateia, é evidente ante as falhas de imagem características do uso desta ferramenta. Todavia, não existe informação explícita e destacada de que o conteúdo foi manipulado, nem da tecnologia utilizada”, justificou o juiz eleitoral Gilberto Azevedo de Moraes Costa.

Lembrada no julgamento de Guarulhos e prevista na resolução do TSE, a exigência de que o uso da IA precisa ser informado com destaque havia sido ignorada tanto pela decisão do Maranhão como pela montagem com o prefeito de São Paulo.

O advogado Bruno Cesar de Caires, que representou o PT no caso de Guarulhos, concorda com a avaliação de que o conteúdo não é uma deepfake. “Deepfake, na minha interpretação, é manipular com a finalidade de distorcer a realidade”, diz.

Apesar dos propósitos da lei, muitas das ações que estão mobilizando os recursos da Justiça eleitoral hoje tem como alvo combater peças humorísticas, com prefeitos colocados para fazer “dancinhas”, por exemplo.

Pré-candidato a prefeito da cidade de Parnarama-MA, Juvenal Silva, teve rosto inserido no videoclipe da música Thriller, de Michael Jackson (Foto: Reprodução/Instagram)

Caso se repita no Brasil o que se passou nas eleições deste ano na Índia — onde a “trollagem” foi uso mais frequente da IA do que a desinformação — não é possível descartar o risco de sobrecarga dos tribunais. Uma enxurrada de processos poderia dificultar não apenas o combate à desinformação política, mas também a propagação de discurso de ódio contra minorias durante a campanha com o uso de IA.

Essa situação já é uma realidade no município de São Pedro da Aldeia (RJ), onde o PL (Partido Liberal) entrou com ação depois que, no dia 15 de maio, o prefeito da cidade e pré-candidato à reeleição, Fábio do Pastel, foi alvo de um vídeo com cunho sexual e ofensivo.

O partido se descreveu ao Judiciário como “surpreendido com postagens em grupos de WhatsApp e rede social Facebook de montagens com a utilização de Inteligência Artificial”. Em seguida, apresentou prints de um perfil onde o vídeo foi publicado e de um grupo com 7.900 mil membros.

A defesa do partido, porém, não juntou provas do uso da Inteligência |Artificial em si, apenas descreveu o conteúdo agressivo do vídeo. Ao analisar o caso, a juíza Anna Karina Francisconi considerou que o conteúdo era, de fato, lesivo, e demandou a derrubada das postagens e determinou uma multa de R$ 10 mil em caso de descumprimento. A magistrada, porém, não levou em consideração o uso do recurso de IA.

Regulação

O pesquisador na área de Sociologia Digital e professor de Ciência, Tecnologia e Inovação da Universidade Federal da Bahia, Leonardo F. Nascimento, lembra que o combate à desinformação gerada por IA poderia ser reforçado pela aprovação de novos marcos regulatórios, cujo debate está travado no Congresso.

“O processo de polarização no Brasil paralisou as ações nesse sentido. Todos os PLs, toda discussão sobre esse assunto acabam sendo alvo de disputas políticas e questionamentos sobre liberdade de expressão. Um debate que deveria ser, sobretudo, técnico não consegue avançar”, critica Nascimento.

“Diante de tudo que aconteceu em 2018 com o WhatsApp e do que tentaram fazer com o Telegram em 2022, esse seria o momento de a gente estar vendo ações concretas para regular a Inteligência Artificial e tomar decisões importantes”, avalia.

Em abril, o presidente da Câmara dos Deputados, Arthur Lira (PP-AL) anunciou a criação de um grupo de trabalho para rediscutir o “PL das Fake News” (PL 2.630/2020), após constatar com as lideranças da Casa que o relatório apresentado em 2023 pelo deputado Orlando Silva (PCdoB-SP) não teria condições de ser aprovado.

O texto havia sido alvo de forte pressão das big techs e de uma campanha de desinformação, que deturpou seu propósito para atribuir a ele uma suposta intenção de “censurar” as redes.

A mesma distorção se repetiu em julho deste ano, na discussão da regulação da IA (PL 2.338/2023), cuja votação já foi adiada várias vezes pela comissão especial do Senado que analisa o tema.

Los Ilusionistas

Uma investigação jornalística que busca desvendar a desinformação política no “super ano eleitoral” de 2024 na América Latina. Liderado pelo Centro Latino-americano de Investigação Jornalística (CLIP) em aliança com ICL Notícias, Aos Fatos y Intercept (Brasil), El Faro (El Salvador), Lab Ciudadano (Honduras), Animal Político e Mexicanos Contra la Corrupción (México), La Prensa y Foco Panamá (Panamá), IDL Reporteros y Ojo Público (Perú), Diario Libre (República Dominicana), El Observador (Uruguai), Fake News Hunters, Cocuyo Effect, ProBox, C-Informa e Medianalisis (Venezuela)

Deixe um comentário

Mais Lidas

Assine nossa newsletter
Receba nossos informativos diretamente em seu e-mail