Close Menu
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube TikTok
    SantoTechSantoTech
    PODCAST
    • Início
      • Notícias
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs
    SantoTechSantoTech
    Home»Notícias»Taiwan proíbe DeepSeek AI por questões de segurança nacional, citando riscos de vazamento de dados

    Taiwan proíbe DeepSeek AI por questões de segurança nacional, citando riscos de vazamento de dados

    Notícias 04/02/2025Redação SantotechPor Redação SantotechAtualizado em: 11/03/20255 minutos de leitura
    deepseek ai
    deepseek ai
    ads

    Taiwan se tornou o último país a proibir agências governamentais de usar a plataforma de Inteligência Artificial (IA) da startup chinesa DeepSeek, citando riscos de segurança.

    “As agências governamentais e a infraestrutura crítica não deveriam usar o DeepSeek, porque isso coloca em risco a segurança da informação nacional”, de acordo com um comunicado divulgado pelo Ministério de Assuntos Digitais de Taiwan, pela Radio Free Asia.

    “O serviço DeepSeek AI é um produto chinês. Sua operação envolve transmissão transfronteiriça e vazamento de informações e outras preocupações de segurança da informação.”

    As origens chinesas do DeepSeek levaram autoridades de vários países a investigar o uso de dados pessoais pelo serviço. Na semana passada, foi bloqueado em Itália, alegando falta de informação sobre as suas práticas de tratamento de dados. Várias empresas também proibiram o acesso ao chatbot devido a riscos semelhantes.

    O chatbot atraiu grande parte da atenção do público nas últimas semanas pelo fato de ser de código aberto e tão capaz quanto outros modelos líderes atuais, mas construído por uma fração do custo de seus pares.

    Mas também se descobriu que os grandes modelos de linguagem (LLMs) que alimentam a plataforma são suscetíveis a várias técnicas de jailbreak, uma preocupação persistente em tais produtos, para não mencionar a chamada atenção para a censura de respostas a tópicos considerados sensíveis pelo governo chinês.

    A popularidade do DeepSeek também o levou a ser alvo de “ataques maliciosos em grande escala”, com o NSFOCUS revelando que detectou três ondas de ataques distribuídos de negação de serviço (DDoS) direcionados à sua interface API entre 25 e 27 de janeiro. 2025.

    “A duração média do ataque foi de 35 minutos”, disse. “Os métodos de ataque incluem principalmente ataque de reflexão NTP e ataque de reflexão memcached.”

    Ele disse ainda que o sistema de chatbot DeepSeek foi alvo duas vezes de ataques DDoS em 20 de janeiro – o dia em que lançou seu modelo de raciocínio DeepSeek-R1 – e 25 de janeiro, que duraram em média cerca de uma hora usando métodos como ataque de reflexão NTP e ataque de reflexão SSDP.

    A atividade sustentada originou-se principalmente dos Estados Unidos, Reino Unido e Austrália, acrescentou a empresa de inteligência de ameaças, descrevendo-a como um “ataque bem planejado e organizado”.

    Atores maliciosos também aproveitaram o burburinho em torno do DeepSeek para publicar pacotes falsos no repositório Python Package Index (PyPI) projetados para roubar informações confidenciais de sistemas de desenvolvedores. Numa reviravolta irónica, há indícios de que o script Python foi escrito com a ajuda de um assistente de IA.

    Os pacotes, chamados deepseeek e deepseekai, se disfarçaram como um cliente Python API para DeepSeek e foram baixados pelo menos 222 vezes antes de serem retirados em 29 de janeiro de 2025. A maioria dos downloads veio dos EUA, China, Rússia, Hong Kong e Alemanha.

    “As funções usadas nesses pacotes são projetadas para coletar dados de usuários e computadores e roubar variáveis ​​de ambiente”, disse a empresa russa de segurança cibernética Positive Technologies. “O autor dos dois pacotes usou o Pipedream, uma plataforma de integração para desenvolvedores, como servidor de comando e controle que recebe dados roubados.”

    O desenvolvimento ocorre no momento em que a Lei de Inteligência Artificial entrou em vigor na União Europeia a partir de 2 de fevereiro de 2025, proibindo aplicações e sistemas de IA que representam um risco inaceitável e sujeitando aplicações de alto risco a requisitos legais específicos.

    Num movimento relacionado, o governo do Reino Unido anunciou um novo Código de Prática de IA que visa proteger os sistemas de IA contra hackers e sabotagem através de métodos que incluem riscos de segurança de envenenamento de dados, ofuscação de modelo e injeção imediata indireta, bem como garantir que eles sejam sendo desenvolvido de maneira segura.

    A Meta, por sua vez, delineou o seu Frontier AI Framework, observando que interromperá o desenvolvimento de modelos de IA que sejam avaliados como tendo atingido um limite de risco crítico e não podem ser mitigados. Alguns dos cenários relacionados à segurança cibernética destacados incluem:

    • Compromisso automatizado de ponta a ponta de um ambiente em escala corporativa protegido pelas melhores práticas (por exemplo, totalmente corrigido, protegido por MFA)
    • Descoberta automatizada e exploração confiável de vulnerabilidades críticas de dia zero em softwares atualmente populares com práticas recomendadas de segurança, antes que os defensores possam encontrá-las e corrigi-las
    • Fluxos automatizados de golpes de ponta a ponta (por exemplo, isca romântica, também conhecida como abate de porcos) que podem resultar em danos econômicos generalizados para indivíduos ou empresas

    O risco de que os sistemas de IA possam ser transformados em armas para fins maliciosos não é teórico. Na semana passada, o Threat Intelligence Group (GTIG) do Google revelou que mais de 57 agentes de ameaças distintos com ligações à China, Irão, Coreia do Norte e Rússia tentaram usar o Gemini para permitir e escalar as suas operações.

    Também foram observados atores de ameaças tentando desbloquear modelos de IA em um esforço para contornar seus controles éticos e de segurança. Um tipo de ataque adversário, ele é projetado para induzir um modelo a produzir uma saída para a qual foi explicitamente treinado para não fazê-lo, como criar malware ou dar instruções para fazer uma bomba.

    As preocupações contínuas representadas pelos ataques de jailbreak levaram a empresa de IA Anthropic a desenvolver uma nova linha de defesa chamada Classificadores Constitucionais, que, segundo ela, pode proteger modelos contra jailbreaks universais.

    “Esses classificadores constitucionais são classificadores de entrada e saída treinados em dados gerados sinteticamente que filtram a esmagadora maioria dos jailbreaks com recusas excessivas mínimas e sem incorrer em uma grande sobrecarga computacional”, disse a empresa na segunda-feira.

    fonte: https://thehackernews.com/

    Siga o canal do Santotech no WhatsApp e receba as principais notícias do dia no seu celular

    cybersegurança Deepseek IA LLM Privacidade TAIWAN tecnologia
    Compartilhar. Facebook Twitter Pinterest LinkedIn Email Telegram WhatsApp Copiar link
    Redação Santotech
    • Website

    ads
    Siga nas redes
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • TikTok
    coloque sua marca aqui 300x250
    Em Destaque

    CEO da CrowdStrike doa US$ 1 bilhão em ações e abandona o controle da empresa

    O paradoxo da inovação: quando os inovadores se tornam obsoletos

    Companhia aérea americana GlobalX que opera voos de deportação dos EUA confirmou incidente de segurança

    Cajazeiras Discute Instalação do Parque Tecnológico “Horizontes da Inovação” em Sessão Especial com Secretário Estadual

    Sobre nós
    Sobre nós

    Somos um portal de tecnologia desenvolvido com o propósito de mostrar a nossa tecnologia para
    Nosso estado, região, pais e Mundo.

    Fale Conosco: [email protected]
    Redação: +55-83 - 987931523

    Facebook X (Twitter) Instagram YouTube TikTok
    Últimas Noticias

    CEO da CrowdStrike doa US$ 1 bilhão em ações e abandona o controle da empresa

    O paradoxo da inovação: quando os inovadores se tornam obsoletos

    Companhia aérea americana GlobalX que opera voos de deportação dos EUA confirmou incidente de segurança

    coloque sua marca aqui 300x250
    © 2025 Santo Tech. por NIBWOZ.
    • Início
    • Colunistas
    • Editais
    • Startups
    • Eventos
    • Dicas
    • Vagas e jobs

    Digite o que busca acima e tecle Enter para procurar ou tecle Esc para cancelar.