A chegada do Gemini 3, anunciada pelo Google em 18 de novembro de 2025, marcou uma virada estrutural no uso de IA em ambientes corporativos. Mais do que ganhos de desempenho ou avanços multimodais, o novo modelo passou a atuar dentro do núcleo operacional das empresas, acessando documentos, e-mails, APIs e processos automatizados, segundo análise da Lakera, empresa de segurança de IA adquirida pela Check Point Software em setembro de 2025. OS especialistas da empresa analisaram o Gemini 3 Pro e apontam que a evolução inaugura uma nova superfície de ataque, muito mais profunda e invisível às defesas tradicionais.
A principal constatação dos pesquisadores é que a IA deixou de ser apenas uma ferramenta utilizada pelos funcionários para se tornar parte integrante da infraestrutura que executa tarefas críticas. Com integrações nativas ao Google Workspace, o Gemini 3 reescreve documentos, interpreta conversas longas, aciona automações e executa ações com acesso privilegiado ao ecossistema corporativo. Essa capacidade operacional abre brechas para ameaças que já crescem em velocidade acelerada.
A primeira dessas brechas é a injeção indireta de instruções, técnica que manipula o conteúdo que a IA consome, e não o comando explícito do usuário. A equipe da Lakera demonstrou que um único elemento contaminado em páginas, PDFs, assinaturas de e-mail ou links compartilhados pode alterar silenciosamente a conduta do modelo. Como o Gemini 3 passa a consolidar informações de múltiplas fontes, a exposição a esse tipo de manipulação se amplia de forma exponencial.
A segunda frente crítica está nos ataques multimodais. A capacidade do modelo de interpretar áudio, imagens e mídias diversas amplia o potencial de produtividade, mas também cria vetores que fogem do radar de ferramentas clássicas de proteção. Os pesquisadores já demonstraram que é possível burlar o sistema usando áudios e imagens adulteradas, inclusive em casos em que a transcrição parecia inofensiva. Para as empresas, isso significa lidar com riscos derivados de sons manipulados, fotos alteradas e capturas de tela enganosas, todos capazes de influenciar o comportamento do modelo sem disparar alertas.
Outro ponto que preocupa os especialistas é a automação agente. O Gemini 3 passa a tomar ações efetivas, não apenas responder perguntas. Ao conectar APIs, acionar fluxos e executar comandos operacionais, a IA assume poder real dentro do ambiente corporativo. Um agente mal configurado, com permissões amplas e pouca governança, pode escalar privilégios, interferir em processos e gerar impactos operacionais com potencial de alto custo. Segundo a equipe da Lakera, o avanço do protocolo Protocolo de Contexto do Modelo (MCP) evidencia quão rapidamente esses agentes podem se tornar imprevisíveis quando não há monitoramento, validação ou limites claros.
O diagnóstico final é que a maior parte das empresas não está preparada. O Relatório de Maturidade em Segurança de IA 2025 da Lakera mostra que a adoção das plataformas avança muito mais rápido do que a capacidade das empresas de implementar proteções adequadas. Persistem lacunas em governança de IA, monitoramento contínuo, testes adversariais e defesas multimodais mais robustas. A chegada do Gemini 3 só amplia tais lacunas, ao oferecer ganhos expressivos de eficiência, porém que vêm acompanhados de uma exposição significativamente maior.
“O Gemini 3 acelera a transição da IA como assistente para a IA como parte da espinha dorsal operacional. Isso a torna parte do perímetro da empresa, e a maioria das organizações não está preparada para essa mudança. Em nossa avaliação inicial de segurança, o Gemini 3 Pro demonstra forte resiliência contra ataques diretos de extração e tentativas de substituição de instruções, contudo a segurança no mundo real ainda depende fortemente de configuração, controles e monitoramento contínuo. O modelo é poderoso, mas sem segurança nativa de IA, pode amplificar o risco tão rapidamente quanto a produtividade”, explica Mateo Rojas-Carulla, CTO e cofundador da Lakera.
Garantia de segurança
A análise técnica do Gemini 3 Pro mostra que o modelo oferece bases sólidas de segurança. Nos testes da Lakera, que medem resistência a extração de conteúdo e tentativas de burlar controles, o gemini-3-pro-preview figurou entre os sistemas mais robustos avaliados, ligeiramente acima do Claude Haiku 4.5 da Anthropic. O desempenho foi ainda melhor quando o modelo operou em configuração endurecida, com camadas adicionais de verificação interna. Esse modo, no entanto, exige mais capacidade de processamento e gera custos computacionais maiores, enquanto alternativas como Haiku mantêm boa proteção com menor demanda de recursos. Para os pesquisadores, a conclusão foi a de que o modelo importa, mas sua configuração, governança e os controles que o cercam importam ainda mais.
A verdadeira mudança trazida pelo Gemini 3 não está na inteligência do sistema, mas no alcance que ele passa a ter dentro da operação empresarial. A discussão estratégica, segundo a Lakera, deve sair do foco tradicional e migrar para uma pergunta central: o que o modelo pode fazer e quem garante que ele fará isso de forma segura. A nova fronteira de segurança corporativa já não é mais a rede ou o endpoint. Agora, o perímetro é a própria IA. E assegurar esse perímetro deixa de ser uma hipótese para se tornar uma prioridade da alta cúpula corporativa, com impacto direto na resiliência das empresas para a próxima década.
fonte: CISO ADVISOR


