Voltar para todas as notícias

Técnicas de Ataque

Ataques de Negação de Treinamento (Denial of Training)

04 de Dezembro, 2025

Dentro da família de ataques de envenenamento de dados, existe uma subclasse particularmente destrutiva e focada em sabotagem: o ataque de Negação de Treinamento (Denial of Training). Diferente dos ataques de envenenamento tradicionais que visam criar um backdoor ou introduzir um viés, o objetivo aqui é muito mais simples e direto: impedir que o modelo de Machine Learning seja treinado com sucesso. O atacante busca desperdiçar os recursos computacionais e financeiros da vítima, sabotando o processo de MLOps.

O ataque funciona através da injeção de dados cuidadosamente corrompidos no conjunto de treinamento. Esses dados são projetados para 'confundir' o algoritmo de otimização do modelo (como o gradiente descendente), impedindo-o de convergir para uma solução útil. Por exemplo, o atacante pode injetar dados com rótulos contraditórios, onde a mesma entrada está associada a múltiplas saídas diferentes. Ou pode introduzir dados tão 'ruidosos' e anômalos que eles desestabilizam o processo de aprendizado.

O resultado é que, após horas ou dias de treinamento caro em GPUs, o modelo resultante tem um desempenho terrível, com uma precisão não melhor do que um palpite aleatório. A equipe de MLOps pode gastar semanas tentando depurar o problema, procurando por bugs em seu código ou problemas na arquitetura do modelo, sem perceber que a causa raiz é a sabotagem sutil dos dados de treinamento. Este é um ataque à disponibilidade do *processo* de desenvolvimento de IA.

A defesa contra a Negação de Treinamento reside em uma governança de dados extremamente rigorosa. É essencial ter um controle de versão para os conjuntos de dados (usando ferramentas como o DVC), realizar análises estatísticas e de detecção de outliers nos dados antes de iniciar o treinamento, e monitorar as métricas de perda (loss) e precisão durante o treinamento para detectar comportamentos anormais, como a falha do modelo em convergir. Proteger a integridade do pipeline de dados é fundamental para se defender contra essa forma de sabotagem de IA.