Programa global de recompensas da gigante da tecnologia premia especialistas que encontrarem vulnerabilidades em sistemas como o Gemini, o Workspace e a Busca do Google
O Google acaba de abrir oficialmente a “temporada de caça” a bugs em suas inteligências artificiais (IAs). Por meio do AI Vulnerability Reward Program (AI VRP), a empresa está oferecendo recompensas de até US$ 30 mil, o equivalente a R$ 170 mil, para quem encontrar falhas críticas em seus sistemas.
A proposta é clara: fortalecer a segurança digital das plataformas e incentivar pesquisadores, desenvolvedores e especialistas independentes a ajudarem a detectar vulnerabilidades antes que criminosos cibernéticos as explorem.
Segundo o Google, desde 2023, quando começou a incluir a IA em seu tradicional programa de recompensas, já foram pagos mais de R$ 2 milhões a caçadores de bugs. Agora, com o lançamento do AI VRP, a empresa amplia o foco e dá um passo mais ambicioso para proteger seus sistemas de inteligência artificial.
-
A bolha da inteligência artificial vai estourar — e o futuro está nos modelos enxutos e sustentáveis
-
Brasil fortalece inovação ao participar de encontro internacional sobre tratado de patentes com foco em inteligência artificial, propriedade industrial, cooperação tecnológica, pesquisa global e inovação sustentável
-
Tecnologia agrícola com inteligência artificial ajuda no controle da lagarta-do-cartucho do milho, trazendo mais precisão, maior produtividade e menor prejuízo na agricultura
-
Radar Agtech Brasil abre cadastramento nacional em outubro com foco em startups, investidores, inovação agro, foodtechs e ecossistema sustentável do agronegócio brasileiro
O que o Google está procurando: falhas reais que colocam usuários em risco
Diferente de problemas comuns de conteúdo, como respostas imprecisas ou textos gerados com viés — o programa não trata de erros de interpretação ou plágio de IA.
O foco está em brechas que causam impacto direto na segurança, como acesso indevido a dados, ações maliciosas em contas ou manipulações invisíveis no ambiente de IA.
Entre as sete categorias principais listadas pelo Google, as mais críticas são:
- “Rogue actions”, que ocorrem quando um ataque modifica o estado da conta ou os dados de um usuário sem permissão;
- “Sensitive data exfiltration”, quando informações pessoais ou sigilosas são extraídas sem autorização;
- “Model theft”, voltada para ataques que tentam roubar parâmetros inteiros de modelos proprietários;
- “Context manipulation”, em que o invasor altera o ambiente de IA de forma oculta.
O escopo também cobre casos de phishing, acessos indevidos a serviços pagos e ataques de negação de serviço (DDoS).
No entanto, falhas ligadas a “jailbreaks”, “injeções de prompt” e problemas de alinhamento dos modelos não estão incluídas, esses continuam sendo tratados pelos canais internos de feedback.
Exemplos práticos: de portas destrancadas a luzes apagadas
Para ilustrar os riscos, o Google citou alguns exemplos que chamam atenção.
Um deles envolve um ataque no Google Home, em que um comando malicioso poderia ser inserido para destrancar uma porta sem autorização.
Outro caso menciona uma vulnerabilidade no Google Calendar, capaz de ativar rotinas automatizadas — como abrir persianas e apagar luzes, por meio de um evento adulterado.
Esses exemplos revelam como pequenas manipulações em prompts ou contextos podem se transformar em falhas graves, com consequências diretas na segurança física e digital dos usuários.
Quais produtos estão na mira do AI VRP
O Google definiu que o programa cobre apenas seus serviços de maior visibilidade e impacto global.
Estão no topo da lista:
- Busca do Google
- Aplicativos Gemini (para web, Android e iOS)
- Serviços centrais do Workspace, como Gmail, Drive, Meet e Docs.
Já ferramentas de uso restrito ou em testes, como o NotebookLM e o Jules, estão em categorias secundárias, com recompensas menores.
Projetos de código aberto fora do ecossistema da empresa não entram na iniciativa.
A lógica é simples: concentrar esforços onde uma única vulnerabilidade pode afetar milhões de pessoas ao mesmo tempo.
Quanto o Google paga e como participar
Os valores variam conforme a gravidade da falha e o nível de importância do produto afetado.
Uma vulnerabilidade crítica em um serviço “topo de linha”, como o Gmail ou o Gemini, pode render US$ 20 mil (R$ 113 mil) como valor base.
Dependendo da qualidade do relatório técnico e da originalidade da descoberta, o prêmio pode subir até US$ 30 mil (R$ 170 mil).
Nos produtos de menor prioridade, o pagamento cai para centenas de dólares em créditos.
Desde que o Google passou a incluir falhas de IA no programa, em 2023, mais de US$ 430 mil (R$ 2,4 milhões) já foram distribuídos a pesquisadores.
CodeMender e segurança em múltiplas camadas
O AI VRP é apenas uma das frentes da estratégia do Google.
A empresa também apresentou o CodeMender, um agente de IA criado para corrigir vulnerabilidades em códigos de software.
Ele sugere patches de segurança em projetos de código aberto, que depois passam por revisão humana antes da aplicação.
Segundo a companhia, o CodeMender já contribuiu com 72 correções em projetos públicos.
Além disso, o Google está reforçando a segurança em seus próprios serviços — o Google Drive, por exemplo, passou a contar com um modelo de IA treinado com milhões de amostras para detectar sinais de ransomware em tempo real.
Quando há suspeita de ataque, o sistema interrompe a sincronização dos arquivos, cria uma “bolha protetora” e orienta o usuário sobre como restaurar os documentos comprometidos.
De acordo com a Mandiant, empresa de cibersegurança subsidiária do Google, invasões desse tipo representam mais de 20% dos incidentes globais de segurança, com prejuízos médios que ultrapassam US$ 5 milhões (R$ 26 milhões).
Segurança colaborativa e futuro da IA
Para o Google, unir recompensas externas, agentes de IA e camadas de proteção integradas é a chave para enfrentar ameaças cada vez mais sofisticadas.
O objetivo é fortalecer o ecossistema digital de forma colaborativa, transformando os “caçadores de bugs” em aliados na defesa da privacidade e integridade dos sistemas.