A inteligência artificial (IA) acelera a perspectiva de um ciberataque poderoso o suficiente para fechar hospitais, apagar cidades e interromper sistemas governamentais. Esse é um dos riscos agora latentes, conforme informações de autoridades dos EUA durante o evento Asness Summit sobre Conflito Moderno e Ameaças Emergentes, realizado nos dias 23 e 24 de abril na Universidade Vanderbilt.
Ao escalar e acelerar as ferramentas de ciberguerra que os adversários já possuem, a IA pode transformar invasões administráveis em crises de grande escala, é a conclusão dos especialistas.
Riscos de aceleração acidental e falha humana
Leon Panetta, ex-secretário de Defesa dos EUA, afirmou durante o evento que as ferramentas de IA acelerarão a capacidade de adversários de infiltrar sistemas sensíveis e desligar a energia – potencialmente também desabilitando sistemas de backup para impedir uma recuperação rápida.
O general Paul Nakasone, ex-diretor da NSA e do Comando Cibernético dos EUA, levantou a possibilidade de que um Estado-nação que tenha invadido sistemas críticos para suprimentos de alimentos e água possa causar uma interrupção acidentalmente, se perder o controle de um agente de IA. Chris Inglis, primeiro diretor nacional de cibernética dos EUA, observou os perigos de um mundo em que a IA executa e detecta ataques, alimentando informações de volta aos tomadores de decisão humanos.
“Há uma falha humana, uma fragilidade humana envolvida nisso – em termos de construir confiança humana baseada na capacidade dessa máquina de informar essa confiança, de modo que o humano esteja disposto a apertar o Grande Botão Vermelho”, afirmou.
Setores vulneráveis e escalonamento
Kevin Mandia, fundador da empresa de cibersegurança Mandiant, listou os setores mais vulneráveis: serviços públicos, comunicações, saúde e logística e transporte. Segundo Mandia, “o grande” atingirá alguns alvos específicos ou um setor, não será generalizado, pois “não faz sentido queimar os recursos do ataque supremo em tudo”. Michael Sulmeyer, ex-secretário assistente de defesa para políticas cibernéticas, afirmou que já é teoricamente possível “abusar de um modelo de IA e simplesmente começar a pedir que ele escolha alvos vulneráveis que são hospitais”. Jen Easterly, ex-diretora da CISA, afirmou que “a IA não está criando um risco cibernético inteiramente novo – está escalando fraquezas existentes em software inseguro, sistemas frágeis e automação excessivamente confiada, enquanto torna os ataques mais difíceis de detectar porque se misturam às operações normais”.
Cenário de escalonamento acidental
Michael Hayden, ex-diretor da CIA, afirmou que um ataque em escala nunca antes vista “vai acontecer, isso é certo. Talvez um ano, cinco anos? Apenas não sabemos.” Hayden apontou a Rússia como um possível culpado. Os especialistas tendem a acreditar que o escalonamento acidental é pelo menos tão provável quanto um ataque direcionado.
fonte: CISO ADVISOR


