O Google virou alvo de críticas depois de uma mudança recente no reCaptcha, sistema usado por milhões de sites para diferenciar pessoas reais de bots. Em vez dos desafios tradicionais com imagens e caixas de verificação, a ferramenta agora pode exigir que o usuário escaneie um QR Code com o celular para provar que é humano.
A alteração faz parte de uma estratégia maior da empresa para dificultar a ação de bots automatizados e agentes de IA na web. O problema é que o novo método já começou a gerar reclamações de desenvolvedores e usuários que usam versões de Android sem os serviços do Google, como GrapheneOS e CalyxOS.
Para esse grupo, a mudança não representa apenas uma nova camada de segurança. Ela também cria mais dependência das ferramentas da própria empresa para acessar serviços básicos na internet.
O que mudou no reCaptcha
Na prática, o reCaptcha agora pode trocar os testes visuais mais conhecidos por um processo em duas etapas. Quando identifica uma navegação considerada suspeita, o sistema exibe um QR Code na tela. A partir daí, o usuário precisa usar o celular para escanear o código e concluir a verificação.
Segundo a proposta do Google, esse modelo ajudaria a conter melhor o avanço de bots e sistemas automatizados que já conseguem superar parte dos desafios antigos. A empresa quer tornar a verificação mais confiável em um cenário em que IA generativa e automação estão cada vez mais presentes no uso da web.
A ideia faz sentido do ponto de vista de segurança. O problema está nos requisitos técnicos e em quem fica de fora desse novo fluxo.
Onde está a principal crítica
A maior reclamação envolve o fato de que, no Android, a verificação por QR Code depende de versões recentes do Google Play Services. Isso significa que usuários que escolheram remover os serviços do Google do aparelho, mesmo estando em um sistema baseado em Android, podem encontrar mais barreiras para acessar sites que utilizam o reCaptcha.
Para desenvolvedores de plataformas focadas em privacidade, isso cria uma situação delicada. Em vez de simplesmente barrar bots, a mudança acaba aproximando o acesso à web de um ecossistema fechado, em que o usuário precisa aceitar certas ferramentas do Google para continuar navegando com menos atrito.
É justamente aí que a discussão deixa de ser apenas técnica e passa a tocar em competição, privacidade e liberdade de escolha.
Comunidade de privacidade reagiu mal
A reação de projetos como GrapheneOS foi dura. Desenvolvedores ligados a esse ecossistema enxergam a mudança como mais um passo em direção a um modelo de internet menos aberto, em que o uso de sistemas independentes se torna progressivamente mais difícil.
A crítica central é que o Google estaria tratando privacidade reforçada e ausência de seus próprios serviços como sinais suspeitos por padrão. Isso incomoda porque atinge não apenas nichos técnicos, mas qualquer pessoa que opte por um aparelho ou sistema menos dependente das big techs.
A situação também ganhou eco em outros nomes conhecidos do mercado, incluindo vozes ligadas a navegadores e serviços que defendem uma web mais aberta e menos amarrada a poucos provedores.
O debate vai além do reCaptcha
Embora a mudança atual envolva o reCaptcha, a discussão é maior do que um simples teste de verificação. O que está em jogo é o rumo da própria internet em uma fase em que empresas tentam reforçar segurança sem abrir espaço demais para bots, golpes e automação maliciosa.
O desafio é real. Bots estão mais sofisticados, agentes autônomos de IA já conseguem navegar e interagir com sites, e os métodos antigos de verificação claramente perderam força. Só que resolver isso exigindo dependência técnica de ecossistemas específicos abre outra frente de problema.
No fim, o que muitos usuários e desenvolvedores questionam é se o combate à automação precisa necessariamente passar por mecanismos que enfraquecem a interoperabilidade e dificultam o uso de sistemas alternativos.


