Vigiados por algoritmos: refugiados e a falsa neutralidade da tecnologia

Quando uma máquina decide seu destino.

Quando uma máquina decide seu destino

Imagine pedir proteção em outro país, fugindo da guerra, da perseguição ou da fome, e descobrir que seu destino será decidido por uma máquina. Uma decisão automatizada, baseada em dados e padrões que você não conhece — e que podem nunca ser explicados.

Essa é a nova fronteira da migração no século XXI: a digital. Sistemas de inteligência artificial estão sendo usados para avaliar quem pode ou não entrar, permanecer ou solicitar refúgio. Nos Estados Unidos, a proposta da Extreme Vetting Initiative tentou transformar essa lógica em política pública, substituindo critérios humanos por algoritmos.

Mas será que uma tecnologia pode, de fato, ser neutra? E mais: o que acontece quando ela aprende com dados históricos carregados de racismo, xenofobia e islamofobia?

Hoje começa a nossa programação especial “Justiça Sem Fronteira”, uma série de publicações do IBDH sobre migração e relações interculturais. Ao longo das próximas semanas, vamos abordar histórias, desafios, reflexões, indicações de filmes, teorias e temas atualizados de uma forma descomplicada e descontraída sobre os direitos humanos, mobilidade e relações interculturais.

Nesta primeira parte, abordamos os impactos do uso da inteligência artificial no processamento de pedidos de refúgio, os riscos da discriminação algorítmica e os desafios que surgem quando os direitos humanos se encontram com a tecnologia.

Porque migrar é um direito — e nenhum algoritmo deveria decidir quem merece ser protegido.

O que foi a Extreme Vetting Initiative?

A Extreme Vetting Initiative (EVI) foi uma proposta do governo dos Estados Unidos durante a administração Trump, com o objetivo de usar inteligência artificial para rastrear, analisar e classificar solicitantes de refúgio e imigração com base em dados comportamentais, digitais e biométricos. A iniciativa previa que algoritmos examinassem redes sociais, conexões pessoais, padrões linguísticos e outros indicadores subjetivos para prever se uma pessoa apresentaria “risco” à segurança nacional. O projeto enfrentou forte oposição de organizações de direitos civis e foi abandonado, mas deixou um alerta: o uso da tecnologia no controle migratório pode reforçar desigualdades e injustiças históricas.

Discriminação automatizada: o novo rosto da exclusão

Sistemas de IA, quando aplicados a populações vulneráveis, tendem a automatizar a desigualdade. Isso acontece porque os algoritmos “aprendem” a partir de bancos de dados históricos que já refletem preconceitos raciais, religiosos e sociais.

No caso da migração, isso significa que pessoas oriundas do Sul Global, especialmente de países majoritariamente muçulmanos, passam a ser marcadas como “suspeitas” automaticamente. Mesmo sentimentos legítimos de luto, revolta ou crítica expressos online podem ser interpretados como indício de radicalismo. Esse fenômeno é conhecido como discriminação algorítmica: um processo silencioso, mas poderoso, que marginaliza indivíduos com base em padrões estatísticos, e não em condutas reais.

Vigilância em massa e a desumanização do refúgio

A iniciativa EVI revela um segundo problema grave: a transformação dos solicitantes de refúgio em objetos de vigilância constante. Como destaca o ACNUR, o uso de tecnologias digitais para triagem migratória compromete o direito a um processo justo, individualizado e transparente.

O Estado, ao se esconder atrás da máquina, terceiriza decisões éticas e jurídicas. E os migrantes, em vez de serem tratados como sujeitos de direito, tornam-se apenas dados a serem processados — ou descartados.

O papel do Estado e a necessidade de regulação

O uso de IA em políticas migratórias não pode ser entendido como algo neutro ou técnico. Ele é profundamente político. E, como tal, precisa de regulação.

Não basta dizer que a tecnologia “melhora a eficiência” se isso significa negar direitos. É preciso estabelecer limites claros, garantir o direito à explicação, permitir apelação e proteger os dados pessoais dos migrantes. O que está em jogo são vidas, não apenas estatísticas.

Conclusão: a fronteira invisível

A Extreme Vetting Initiative talvez não tenha sido implementada integralmente, mas sua lógica ainda paira sobre as políticas migratórias modernas. Uma lógica que combina controle, vigilância e exclusão, agora mediada por códigos, plataformas e decisões automatizadas.

A luta por justiça migratória precisa, hoje, passar também pela justiça digital. Porque quando o algoritmo decide, a democracia falha. E ninguém deveria ser rejeitado por uma máquina.

*As opiniões expressas nos artigos publicados no Blog do IBDH são de responsabilidade exclusiva de seus autores e não refletem, necessariamente, o posicionamento institucional do IBDH.
Facebook
Twitter
LinkedIn
WhatsApp

Outras Postagens

Eventos Futuros
IBDH

FORUM AACT: Direitos dos Povos Indígenas

A conferência apresentará um panorama crítico sobre as desigualdades estruturais que afetam esses povos e refletir sobre caminhos para o fortalecimento do reconhecimento, da autonomia e da justiça étnico-racial e de gênero no campo dos direitos humanos.

Leia Mais »
Blog do IBDH
IBDH

Termina a CDH61 ONU

A 61⁠ª sessão ordinária do Conselho de Direitos Humanos foi concluída dia 31 de março, em Genebra, após seis semanas de reuniões, debates e resoluções. O Instituto Brasileiro de Direitos Humanos acompanhou diariamente a sessão através da sua delegação em Genebra.

Leia Mais »
Rolar para cima