A Meta anunciou que passará a identificar nos próximos meses imagens geradas por Inteligência Artificial (IA) nas redes sociais Facebook, Instagram e Threads.
Atualmente, a empresa já utiliza uma ferramenta — a Meta IA — para a identificação de imagens produzidas por robôs. A informação é do G1.
Segundo Nick Clegg, responsável por assuntos internacionais da Meta, a intenção é estender a identificação a conteúdos criados por ferramentas de empresas como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.
“Estamos construindo essa ferramenta no momento e começaremos a aplicar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo”, afirmou Clegg.
PREOCUPAÇÃO MUNDIAL
A ferramenta para identificar imagens geradas por Inteligência Artificial visa combater desinformações que possam ser disseminadas em diversos setores da sociedade, em especial na política eleitoral. Isso porque, em 2024, haverá eleições em mais da metade do planeta.
Segundo ativistas e setores reguladores, o desenvolvimento de programas de Inteligência Artificial para a criação de imagens pode representar riscos não apenas na esfera política, mas também na disseminação de conteúdos degradantes e falsos.
É o caso das “deepfakes” pornográficas de mulheres, que afetam tanto figuras públicas quanto pessoas anônimas. Um exemplo recente ocorreu com a cantora Taylor Swift, visualizada 47 milhões de vezes na rede social X em janeiro. A publicação permaneceu online por cerca de 17 horas antes de ser removida.
Apesar da nova ferramenta, a Meta reconhece que “não eliminará” totalmente o risco de imagens criadas por inteligência artificial.
“Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa para todo mundo”, disse Clegg.
OPEN AI
A OpenAI, criadora do ChatGPT, também lançou ferramentas para combater desinformação, destacando a preocupação em não permitir o uso de suas tecnologias para fins políticos.
A empresa informou que seu gerador de imagens, DALL-E 3, possui “ressalvas” para evitar que usuários gerem imagens de pessoas reais, especialmente candidatos a cargos políticos.
Deixe um comentário