O Google Threat Intelligence Group (GTIG) identificou um aumento significativo no uso adversarial de inteligência artificial (IA) por atores maliciosos ao longo do último trimestre de 2025, segundo o mais recente relatório AI Threat Tracker: Distillation, Experimentation, and (Continued) Integration of AI for Adversarial Use, publicado no blog oficial do Google Cloud.
O documento aponta que grupos de ataque, incluindo criminosos e atores patrocinados por governos, vêm integrando IA em várias etapas do ciclo de ataques cibernéticos — desde reconhecimento e engenharia social até desenvolvimento de malware e extração de lógica de modelos.
📌 Principais tendências e técnicas ofensivas
O relatório mostra que, embora muitos atores ainda não desenvolvam modelos de IA personalizados para fins maliciosos, eles têm explorado modelos maduros existentes, como o Gemini, em ataques mais sofisticados.
Uma das táticas emergentes é o chamado ataque de “distillation” (destilação) — uma forma de extração de conhecimento que tenta aproveitar acesso legítimo a APIs de IA para reproduzir características e lógica de modelos de alto valor, essencialmente clonando capacidades proprietárias sem invadir sistemas diretamente.
Além disso, infraestrutura aberta e ferramentas de IA de terceiros estão sendo aproveitadas para montar serviços automatizados de geração de conteúdo ou código malicioso, criando um maior risco de exposição e abuso de chaves de API e recursos de IA.
Riscos associados à integração de IA em operações maliciosas
O GTIG identificou que essas abordagens podem permitir que invasores:
- acelerem fases de coleta de informações e reconhecimento;
- criem campanhas de engenharia social e phishing mais sofisticadas;
- gerem código malicioso ou auxiliem no desenvolvimento de exploits;
- explorem falhas em ferramentas de IA de código aberto para obter acesso indevido a APIs;
- facilitem um mercado negro de serviços e chaves de acesso associados;
Esses vetores representam um risco tanto operacional quanto estratégico para empresas com grandes recursos de IA e infraestrutura conectada.
Mitigações e práticas recomendadas
Para enfrentar essas ameaças, o relatório destaca a importância de:
Segurança de chaves e credenciais
Proteger chaves de API contra roubo e uso indevido, aplicando autenticação forte, rotação frequente e controles de acesso rigorosos.
Safeguards e políticas de uso responsável
Aplicar as AI Principles e práticas de segurança robustas no desenvolvimento e uso de modelos, garantindo guardrails que impeçam abusos e forneçam respostas neutras ou bloqueadas em contextos maliciosos.
Fortalecimento de modelos e detecção de anomalias
Testar continuamente os modelos contra vetores de ataque (como prompt injection), monitorar abuso e incorporar mecanismos automáticos de detecção para mitigar tentativas de exploração.
Frameworks de segurança e colaboração
Utilizar e implementar frameworks como o Secure AI Framework (SAIF) que fornecem diretrizes, avaliação e ferramentas para construir IA de forma segura e responsável.
O panorama global de IA adversarial
O relatório coloca em perspectiva que o uso de IA em operações ofensivas ainda está em fase emergente, mas mostra uma tendência clara de evolução e experimentação, com atores maliciosos integrando capacidades de IA em múltiplos pontos de suas campanhas. Esse padrão indica que a segurança tradicional deve evoluir para defesas adaptativas baseadas em IA e inteligência de ameaças em tempo real.
Contexto para empresas e desenvolvedores
Dado que IA se tornou uma ferramenta estratégica em ambientes corporativos e governamentais, a exposição desses vetores adversariais reafirma a necessidade de:
- Revisar e fortalecer políticas de utilização de APIs de IA;
- Implementar monitoramento proativo sobre fluxos de uso e abuso;
- Capacitar equipes de segurança com expertise em IA defensiva;
- Investir em cooperação entre setores para troca de inteligência de ameaça.
Essas práticas são cruciais para reduzir a superfície de ataque em um cenário em que IA — além de uma tecnologia de produtividade — está se tornando uma superfície de ameaça avançada e dinamicamente explorada.

