Um estudo da empresa Lakera, subsidiária da Check Point Software e especializada em segurança de operações de IA, revela que em cerca de 60% dos ataques a plataformas protegidas pela empresa o objetivo dos atacantes foi conseguir obter o vazamento de prompts. As observações foram feitas durante 30 dias deste quarto trimestre de 2025, durante os quais os especialistas da Lakera conseguiram mapear seis intenções dos atacantes:
- Vazamento de Prompts (60%)
- Burlar mecanismos de segurança de conteúdo (20%)
- Sondagens de intenção desconhecida (12%)
- Vazamento de dados confidenciais (8%)
- Injeção de script (2%)
Vulnerabilidades em novos recursos de IA
A evolução das IAs para funções que incluem o uso de ferramentas externas e navegação web abriu novas superfícies de ataque que antes não existiam: segundo o relatório, a introdução de capacidades agênticas permitiu o surgimento de injeções de conteúdo em formato de script dentro dos fluxos de trabalho dos agentes. Outro ponto de alerta é a eficiência dos chamados ataques indiretos, que exigiram significativamente menos tentativas para obter sucesso em comparação aos métodos tradicionais. Esse cenário indica que os invasores estão explorando a confiança que os modelos depositam em fontes de dados externas para contornar proteções padrão: instruções maliciosas são inseridas em documentos, páginas web ou conteúdos estruturados processados pelos agentes de IA. Esse modelo tem se mostrado mais eficiente do que a injeção direta de prompts, exigindo menos tentativas para ter sucesso e tornando-se um vetor de risco prioritário à medida que agentes são integrados a sistemas corporativos de busca, navegação e automação.
Monitoramento de segurança e táticas de invasão
O quarto trimestre de 2025 revelou também os primeiros exemplos práticos de ataques que só se tornam possíveis em ambientes com agentes de IA, e que não existiam em modelos tradicionais de chatbots. Entre eles estão tentativas de extração de dados internos confidenciais, inserção de instruções com formato de script em cadeias automatizadas de processamento e manipulação de agentes por meio de fontes externas não confiáveis.
Esses padrões indicam que o risco deixa de se concentrar apenas no conteúdo gerado e passa a abranger todo o ciclo de decisão, execução e interação do agente.
Segurança de agentes se torna prioridade estratégica para 2026
Para a Lakera, os achados do quarto trimestre de 2025 deixam claro que as organizações não podem tratar a segurança de agentes de IA como uma extensão dos modelos tradicionais de IA conversacional. Cada documento ingerido, ferramenta acionada, chamada externa ou decisão automatizada passa a representar um potencial ponto de comprometimento.
Diante desse cenário, a empresa alerta que preparar 2026 exige uma abordagem de segurança baseada em prevenção, visibilidade e controle contínuo ao longo de todo o fluxo operacional da IA, garantindo proteção não apenas no resultado final produzido pelos modelos, mas em todas as interações que sustentam seu funcionamento e impactam diretamente os processos de negócio.
fonte: CISO ADVISOR


