Quando uma máquina decide seu destino
Imagine pedir proteção em outro país, fugindo da guerra, da perseguição ou da fome, e descobrir que seu destino será decidido por uma máquina. Uma decisão automatizada, baseada em dados e padrões que você não conhece — e que podem nunca ser explicados.
Essa é a nova fronteira da migração no século XXI: a digital. Sistemas de inteligência artificial estão sendo usados para avaliar quem pode ou não entrar, permanecer ou solicitar refúgio. Nos Estados Unidos, a proposta da Extreme Vetting Initiative tentou transformar essa lógica em política pública, substituindo critérios humanos por algoritmos.
Mas será que uma tecnologia pode, de fato, ser neutra? E mais: o que acontece quando ela aprende com dados históricos carregados de racismo, xenofobia e islamofobia?
Hoje começa a nossa programação especial “Justiça Sem Fronteira”, uma série de publicações do IBDH sobre migração e relações interculturais. Ao longo das próximas semanas, vamos abordar histórias, desafios, reflexões, indicações de filmes, teorias e temas atualizados de uma forma descomplicada e descontraída sobre os direitos humanos, mobilidade e relações interculturais.
Nesta primeira parte, abordamos os impactos do uso da inteligência artificial no processamento de pedidos de refúgio, os riscos da discriminação algorítmica e os desafios que surgem quando os direitos humanos se encontram com a tecnologia.
Porque migrar é um direito — e nenhum algoritmo deveria decidir quem merece ser protegido.
O que foi a Extreme Vetting Initiative?
A Extreme Vetting Initiative (EVI) foi uma proposta do governo dos Estados Unidos durante a administração Trump, com o objetivo de usar inteligência artificial para rastrear, analisar e classificar solicitantes de refúgio e imigração com base em dados comportamentais, digitais e biométricos. A iniciativa previa que algoritmos examinassem redes sociais, conexões pessoais, padrões linguísticos e outros indicadores subjetivos para prever se uma pessoa apresentaria “risco” à segurança nacional. O projeto enfrentou forte oposição de organizações de direitos civis e foi abandonado, mas deixou um alerta: o uso da tecnologia no controle migratório pode reforçar desigualdades e injustiças históricas.
Discriminação automatizada: o novo rosto da exclusão
Sistemas de IA, quando aplicados a populações vulneráveis, tendem a automatizar a desigualdade. Isso acontece porque os algoritmos “aprendem” a partir de bancos de dados históricos que já refletem preconceitos raciais, religiosos e sociais.
No caso da migração, isso significa que pessoas oriundas do Sul Global, especialmente de países majoritariamente muçulmanos, passam a ser marcadas como “suspeitas” automaticamente. Mesmo sentimentos legítimos de luto, revolta ou crítica expressos online podem ser interpretados como indício de radicalismo. Esse fenômeno é conhecido como discriminação algorítmica: um processo silencioso, mas poderoso, que marginaliza indivíduos com base em padrões estatísticos, e não em condutas reais.
Vigilância em massa e a desumanização do refúgio
A iniciativa EVI revela um segundo problema grave: a transformação dos solicitantes de refúgio em objetos de vigilância constante. Como destaca o ACNUR, o uso de tecnologias digitais para triagem migratória compromete o direito a um processo justo, individualizado e transparente.
O Estado, ao se esconder atrás da máquina, terceiriza decisões éticas e jurídicas. E os migrantes, em vez de serem tratados como sujeitos de direito, tornam-se apenas dados a serem processados — ou descartados.
O papel do Estado e a necessidade de regulação
O uso de IA em políticas migratórias não pode ser entendido como algo neutro ou técnico. Ele é profundamente político. E, como tal, precisa de regulação.
Não basta dizer que a tecnologia “melhora a eficiência” se isso significa negar direitos. É preciso estabelecer limites claros, garantir o direito à explicação, permitir apelação e proteger os dados pessoais dos migrantes. O que está em jogo são vidas, não apenas estatísticas.
Conclusão: a fronteira invisível
A Extreme Vetting Initiative talvez não tenha sido implementada integralmente, mas sua lógica ainda paira sobre as políticas migratórias modernas. Uma lógica que combina controle, vigilância e exclusão, agora mediada por códigos, plataformas e decisões automatizadas.
A luta por justiça migratória precisa, hoje, passar também pela justiça digital. Porque quando o algoritmo decide, a democracia falha. E ninguém deveria ser rejeitado por uma máquina.


