Voltar para todas as notícias

Threat Intelligence

Revisão Mensal de Ameaças a IA: Novembro de 2025

30 de Novembro, 2025

Novembro de 2025 foi um mês marcado por revelações significativas na corrida armamentista da segurança de IA, com novas técnicas de ataque e defesa sendo publicadas. O destaque do mês foi a divulgação do ataque 'DeepInception', detalhado em uma pesquisa da NeurIPS 2024, que utiliza cenários ficcionais aninhados para 'hipnotizar' um LLM e fazê-lo suspender suas regras de segurança. Esta técnica, que explora a capacidade de personificação do modelo, provou ser altamente eficaz contra modelos de ponta, demonstrando que ataques baseados em psicologia e enquadramento contextual continuam a ser um vetor de ameaça potente.

No lado da defesa, a comunidade de pesquisa explorou ativamente o conceito de 'defesa proativa'. Um artigo notável sobre o framework 'ProAct' mostrou como é possível enganar os próprios atacantes. Em vez de simplesmente bloquear um jailbreak, o ProAct gera uma 'resposta espúria' — uma resposta que parece ser um jailbreak bem-sucedido, mas que não contém conteúdo prejudicial. Isso engana os ciclos de otimização de ataques automatizados, fazendo-os acreditar que tiveram sucesso e interrompendo o ataque prematuramente.

Além disso, o mês viu um aumento nos debates sobre a segurança de agentes de IA e plugins, com pesquisadores demonstrando como um agente LLM pode ser enganado para usar ferramentas de forma maliciosa, levando a ataques de Server-Side Request Forgery (SSRF) e execução remota de código. Isso reforçou a necessidade de sandboxing rigoroso e do princípio do menor privilégio para qualquer agente de IA que tenha a capacidade de interagir com sistemas externos.

Finalmente, um incidente notável envolveu o envenenamento de um modelo de código aberto popular no Hugging Face, que foi modificado para incluir um backdoor que vazava chaves de API quando um 'gatilho' específico estava presente no prompt. Este incidente serviu como um alerta severo sobre os riscos da cadeia de suprimentos de IA e a importância de verificar a proveniência e a integridade de todos os modelos de terceiros antes de integrá-los em aplicações de produção.