Voltar para todas as notícias

DevSecOps

Automatizando a Modelagem de Ameaças de IA com LLMs

19 de Outubro, 2025

A modelagem de ameaças é uma das práticas mais importantes no ciclo de vida de desenvolvimento seguro (SDL). É o processo de identificar, analisar e mitigar potenciais ameaças de segurança no início da fase de design de um sistema, antes que qualquer código seja escrito. Tradicionalmente, é um processo manual que depende do conhecimento e da experiência dos arquitetos de segurança. Agora, os LLMs estão se tornando uma ferramenta poderosa para automatizar e aumentar esse processo, atuando como um 'parceiro de brainstorming' de segurança.

As equipes de DevSecOps podem usar um LLM para 'atacar' seus próprios projetos de sistema. Ao fornecer ao LLM um diagrama de arquitetura ou uma descrição textual do sistema de IA planejado, a equipe pode fazer prompts para que ele identifique potenciais vetores de ataque. Um prompt eficaz poderia ser: 'Atue como um hacker ético. Dada a seguinte arquitetura de sistema RAG, que usa um banco de dados vetorial externo e uma API do OpenAI, use o framework STRIDE (Spoofing, Tampering, Repudiation, Information Disclosure, Denial of Service, Elevation of Privilege) para listar as 10 principais ameaças de segurança. Inclua ameaças específicas de IA, como envenenamento de dados e injeção de prompt, e sugira uma mitigação para cada uma'.

O LLM pode gerar uma lista abrangente de ameaças que a equipe pode não ter considerado, como 'Um atacante poderia envenenar um dos documentos na fonte de dados externa para realizar uma injeção de prompt indireta (Tampering)' ou 'Um atacante poderia inundar a API com prompts complexos para causar um ataque de negação de serviço financeiro (Denial of Service)'.

Essa abordagem não substitui a necessidade de um especialista em segurança, mas a aumenta enormemente. O LLM ajuda a automatizar a fase de 'brainstorming' da modelagem de ameaças, garantindo uma cobertura mais ampla de potenciais vetores de ataque e liberando a equipe de segurança para se concentrar na análise de risco e no projeto de controles de mitigação. A integração da modelagem de ameaças assistida por IA no início do ciclo de vida de MLOps é um passo fundamental para a construção de sistemas de IA 'seguros por design'.