ICL Notícias
Conhecimento

Controle social digital: quando o algoritmo vira autoridade

A vigilância saiu do porão e entrou na nuvem
30/06/2025 | 18h49
ouça este conteúdo
00:00 / 00:00
1x

Por Leila Cangussu

Se antes o controle social parecia coisa de ditadura escancarada, hoje ele circula disfarçado de eficiência tecnológica. Não é mais preciso censurar um jornal ou prender um militante para limitar o que você pensa, faz ou consome. Basta saber onde você está, com quem fala, o que curte e como se move. E pra isso, não é necessário um regime autoritário clássico. É só alimentar a máquina com dados.

A inteligência artificial virou aliada de governos e empresas para mapear comportamentos, prever ações e interferir em decisões que você nem sabe que está tomando. Do aplicativo de transporte ao processo judicial, passando pelas câmeras nas ruas e pelas redes sociais, estamos diante de uma nova forma de dominação: o controle algorítmico. E ele é tão naturalizado que às vezes você nem percebe.

Este texto é um convite pra você olhar de frente esse cenário. Não com medo ou paranoia, mas com senso crítico e disposição para enfrentar o que está em jogo: o direito de viver sem ser classificado, monitorado ou punido por padrões que você não escolheu.

Porque, no fim das contas, a luta contra o controle social é a luta pelo direito de existir com liberdade e dignidade.

O controle social mudou de cara

Se você ainda pensa em controle social como censura à imprensa, escutas telefônicas ou um agente infiltrado, está desatualizado. Hoje, o controle é algorítmico. É silencioso, automatizado e nem sempre tem cara de repressão. Às vezes se disfarça de inovação.

A inteligência artificial vem sendo usada para transformar comportamentos, classificar pessoas e decidir quem é visto como problema antes mesmo de cometer um crime. Tudo isso sob a promessa de eficiência e segurança.

O que George Orwell não previu foi que o Grande Irmão seria terceirizado para empresas privadas, alimentado por dados públicos e travestido de solução tecnológica.

O que é controle social hoje em dia?

Controle social não é só sobre repressão. É sobre quem define as regras, quem fiscaliza comportamentos e como se impõe limites sem parecer que está fazendo isso. E quando você junta isso com IA, a coisa muda de escala.

Quando o algoritmo vira policial

Sistemas de policiamento automatizado já estão em uso no Brasil. Eles não só monitoram câmeras. Também preveem onde vai acontecer um crime e quem tem maior probabilidade de cometê-lo. Parece ficção, mas já é prática.

Exemplos:

  • Uso de reconhecimento facial em metrôs, estádios e ruas movimentadas.
  • Agrupamento de cidades segundo padrões de violência para definir onde intervir com força policial.
  • Leitura automatizada de boletins de ocorrência para construir perfis de comportamento criminal.

Esses sistemas prometem agilidade, mas carregam riscos sérios de reforço ao racismo estrutural. Se os dados históricos usados para treinar o algoritmo já têm viés, a IA vai replicar e amplificar esse problema.

IA que classifica quem merece existir

Os algoritmos que “preveem” crimes muitas vezes não passam de projeções estatísticas enviesadas. Eles não leem o mundo. Eles leem dados — e dados são registros do passado, geralmente capturados sob contextos racistas, classistas e violentos. É como usar o arquivo da delegacia para adivinhar o futuro de um bairro inteiro.

Agora imagine isso sendo usado para priorizar operações policiais. Para aumentar o efetivo em uma comunidade específica. Para justificar a abordagem de jovens em uma esquina qualquer. Isso não é prevenção. É controle.

IA, vigilância e exclusão

A vigilância digital vai além da segurança. Ela também define quem pode circular, trabalhar ou acessar serviços. IA é usada em processos de seleção, concessão de crédito, programas sociais e fiscalização de redes sociais.

Formas de controle que você não percebe

  • Plataformas decidem se você é um perfil seguro para emprego com base em dados de redes.
  • Ferramentas de vigilância fiscal automatizam bloqueios de auxílios.
  • Sistemas de pontuação social determinam quem tem acesso facilitado a serviços.

Tudo isso acontece sem transparência, sem aviso e sem possibilidade de defesa.

Dados viram sentença social

O que você curte, compartilha ou pesquisa já pode estar sendo usado para te classificar. Não como sujeito. Como número. O algoritmo transforma comportamento em perfil. E o perfil define o que você pode ou não acessar. É o CPF como senha de aceitação, mas alimentado por rastros digitais que você nem sabe que deixou.

A exclusão promovida por sistemas automatizados não vem com algemas. Ela vem com notificações, recusas, limites invisíveis. E quase sempre, afeta os mesmos de sempre: pobres, pretos, periféricos.

Seus dados de uso, localização e preferências já alimentam sistemas de IA que te classificam sem você perceber. Foto: Freepik

Seus dados de uso, localização e preferências já alimentam sistemas de IA que te classificam sem você perceber. Foto: Freepik

Reconhecimento facial e racismo automatizado

Quando um sistema de reconhecimento facial erra, o impacto não é só estatístico. É humano. Alguém é preso. Alguém perde a liberdade, o emprego, a reputação. E mesmo quando o erro é reconhecido, o dano já foi feito.

Mas o ponto central não é o erro. É a lógica que produz esse erro. A inteligência artificial não falha com corpos negros por acidente. Ela faz isso porque foi treinada com dados enviesados, num contexto que já associa negritude à suspeição. Não é bug. É projeto.

Os bancos de dados usados por esses sistemas são formados principalmente por:

  • Fichamentos policiais e boletins de ocorrência
  • Registros sem condenação judicial
  • Imagens de baixa qualidade, com pouca diversidade racial

O resultado é que os erros de identificação se concentram justamente onde o sistema deveria ter mais cuidado: nos corpos que sempre foram tratados como suspeitos.

E o problema não para aí. Não existe hoje uma legislação federal clara e específica que regulamente o uso do reconhecimento facial no Brasil. Cada estado, cada órgão e até cada empresa contratada opera com critérios próprios. Isso cria um cenário de vigilância descontrolada, onde a margem de erro vira dano real, sem reparação.

A prisão como bug sistemático

Quando a IA erra, o impacto é imediato: gente presa por engano. Mas o problema é mais profundo. Não se trata de erro. Se trata de como a tecnologia foi pensada. Reconhecimento facial não erra mais com negros por acaso. Ele faz isso porque foi treinado assim.

E isso dificulta a responsabilização. Afinal, quem erra? A empresa? O Estado? O algoritmo? Enquanto essa resposta não vem, a prisão injusta continua sendo executada. Sempre nos mesmos corpos. Com a mesma desculpa: foi o sistema que apontou.

Essa automatização da suspeição precisa ser enfrentada com urgência. Não se trata de melhorar a tecnologia, mas de perguntar se ela deve ser usada para isso. Porque se o resultado continua sendo a prisão seletiva, não é erro. É o mesmo racismo, só que com Wi-Fi.

Deepfakes e controle de narrativas

Não é só o corpo que está sob vigilância. A linguagem também está. As IAs generativas já produzem vídeos falsos com precisão assustadora. Um rosto, uma voz, um gesto. Tudo pode ser simulado. E isso muda a forma como a informação circula.

Fake news ganham aparência de prova. Discursos políticos são forjados com imagem e som. Depoimentos inteiros podem ser fabricados em segundos. A memória coletiva passa a ser moldada em tempo real, conforme os interesses de quem produz o conteúdo.

Se antes a manipulação exigia trabalho técnico, agora pode ser feita com poucos comandos. Nem precisa parecer perfeita. Basta gerar dúvida. E muitas vezes é exatamente isso que se quer: desacreditar, distorcer, enfraquecer.

A tecnologia que simula está sendo usada para confundir. Um vídeo de poucos segundos compartilhado no grupo da família pode ser suficiente para mudar percepções, criar suspeitas ou destruir reputações. Isso já acontece em disputas eleitorais, investigações públicas e ataques contra movimentos sociais.

Vídeo falso com imagem e voz manipuladas do deputado Nikolas Ferreira circulou nas redes para aplicar golpe com promessa de indenização. A fraude pedia CPF, chave Pix e até pagamento de taxa. O conteúdo foi desmentido por ferramentas de verificação e simula sites oficiais do governo. Foto: Lupa UOL

Vídeo falso com imagem e voz manipuladas do deputado Nikolas Ferreira circulou nas redes para aplicar golpe com promessa de indenização. A fraude pedia CPF, chave Pix e até pagamento de taxa. O conteúdo foi desmentido por ferramentas de verificação e simula sites oficiais do governo. Foto: Lupa UOL

Quando a mentira tem imagem e som

A era das deepfakes exige mais do que checagem. Exige consciência crítica sobre como a realidade é construída. Se qualquer vídeo pode ser manipulado, se qualquer voz pode ser copiada, o debate perde solidez. A dúvida se espalha com facilidade, a confiança nas fontes se rompe, e a mentira passa a ser parte do fluxo cotidiano.

Nesse ambiente, a manipulação não precisa convencer todo mundo. Ela só precisa gerar ruído suficiente para embaralhar o entendimento. Quem se informa por imagens passa a desconfiar de tudo. E quem manipula se aproveita dessa confusão para deslegitimar adversários, silenciar denúncias ou desinformar de forma planejada.

O controle social se atualiza. Não precisa mais de censura oficial. Bastam curtidas, repasses em massa, robôs automatizados e uma plataforma permissiva. O resultado é uma comunicação que aparenta liberdade, mas opera dentro de filtros invisíveis. Quem decide o que circula tem poder sobre o que você considera verdade. E isso é o que está em jogo.

Quem controla a IA?

A maioria das ferramentas de IA é privada. E quase todas são desenvolvidas fora do Brasil. Isso significa que você está sendo vigiado, avaliado e julgado com base em padrões que você não conhece, por empresas que você não pode questionar.

O que você pode fazer

  • Pressionar por leis de proteção de dados mais robustas.
  • Apoiar iniciativas que exigem transparência algorítmica.
  • Denunciar o uso indevido de reconhecimento facial.
  • Discutir em coletivos e movimentos como a IA afeta sua vida.
  • Criar, apoiar e fortalecer tecnologias contra-hegemônicas, abertas e comunitárias.

Controle social não é neutro

O uso de inteligência artificial em policiamento, vigilância digital e decisão judicial não é apenas uma questão de eficiência. É uma disputa de poder. Quem controla a máquina, controla a narrativa. Quem define o padrão, exclui o diferente.

E isso é um problema político. Não técnico.

A discussão sobre IA não pode ser deixada na mão de engenheiros, juristas e empreendedores. Você precisa entrar nela. Porque o controle social mudou de nome. Mas continua decidindo quem pode existir, circular, trabalhar e se expressar. E você não precisa aceitar isso calado.

Pergunte ao Chat ICL

[mwai_chatbot id="default" local_memory="false"]

Relacionados

Carregar Comentários

Mais Lidas

Assine nossa newsletter
Receba nossos informativos diretamente em seu e-mail