ouça este conteúdo
|
readme
|
A Meta anunciou que passará a identificar nos próximos meses imagens geradas por Inteligência Artificial (IA) nas redes sociais Facebook, Instagram e Threads.
Atualmente, a empresa já utiliza uma ferramenta — a Meta IA — para a identificação de imagens produzidas por robôs. A informação é do G1.
Segundo Nick Clegg, responsável por assuntos internacionais da Meta, a intenção é estender a identificação a conteúdos criados por ferramentas de empresas como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.
“Estamos construindo essa ferramenta no momento e começaremos a aplicar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo”, afirmou Clegg.
PREOCUPAÇÃO MUNDIAL
A ferramenta para identificar imagens geradas por Inteligência Artificial visa combater desinformações que possam ser disseminadas em diversos setores da sociedade, em especial na política eleitoral. Isso porque, em 2024, haverá eleições em mais da metade do planeta.
Segundo ativistas e setores reguladores, o desenvolvimento de programas de Inteligência Artificial para a criação de imagens pode representar riscos não apenas na esfera política, mas também na disseminação de conteúdos degradantes e falsos.
É o caso das “deepfakes” pornográficas de mulheres, que afetam tanto figuras públicas quanto pessoas anônimas. Um exemplo recente ocorreu com a cantora Taylor Swift, visualizada 47 milhões de vezes na rede social X em janeiro. A publicação permaneceu online por cerca de 17 horas antes de ser removida.
Apesar da nova ferramenta, a Meta reconhece que “não eliminará” totalmente o risco de imagens criadas por inteligência artificial.
“Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa para todo mundo”, disse Clegg.
OPEN AI
A OpenAI, criadora do ChatGPT, também lançou ferramentas para combater desinformação, destacando a preocupação em não permitir o uso de suas tecnologias para fins políticos.
A empresa informou que seu gerador de imagens, DALL-E 3, possui “ressalvas” para evitar que usuários gerem imagens de pessoas reais, especialmente candidatos a cargos políticos.
Relacionados
STF cobra manifestação da PGR sobre atuação de Big Techs em inquérito
Ministro Alexandre de Moraes quer posicionamento sobre recursos de Meta e X Brasil contra entrega direta de dados à PF
Inteligência Artificial do X admite alcance maior para perfis de extrema direita
Grok, a ferramenta da plataforma de Elon Musk, afirma que "o algoritmo do X favorece contas de extrema direita"
Inteligência Artificial elenca as cinco carreiras mais promissoras em 2025
Áreas mais promissoras são impulsionadas pela digitalização, automação e necessidade de inovação sustentável