Técnicas de Ataque
Ataques de Negação de Treinamento (Denial of Training)
Dentro da família de ataques de envenenamento de dados, existe uma subclasse particularmente destrutiva e focada em sabotagem: o ataque de Negação de Treinamento (Denial of Training). Diferente dos ataques de envenenamento tradicionais que visam criar um backdoor ou introduzir um viés, o objetivo aqui é muito mais simples e direto: impedir que o modelo de Machine Learning seja treinado com sucesso. O atacante busca desperdiçar os recursos computacionais e financeiros da vítima, sabotando o processo de MLOps.
O ataque funciona através da injeção de dados cuidadosamente corrompidos no conjunto de treinamento. Esses dados são projetados para 'confundir' o algoritmo de otimização do modelo (como o gradiente descendente), impedindo-o de convergir para uma solução útil. Por exemplo, o atacante pode injetar dados com rótulos contraditórios, onde a mesma entrada está associada a múltiplas saídas diferentes. Ou pode introduzir dados tão 'ruidosos' e anômalos que eles desestabilizam o processo de aprendizado.
O resultado é que, após horas ou dias de treinamento caro em GPUs, o modelo resultante tem um desempenho terrível, com uma precisão não melhor do que um palpite aleatório. A equipe de MLOps pode gastar semanas tentando depurar o problema, procurando por bugs em seu código ou problemas na arquitetura do modelo, sem perceber que a causa raiz é a sabotagem sutil dos dados de treinamento. Este é um ataque à disponibilidade do *processo* de desenvolvimento de IA.
A defesa contra a Negação de Treinamento reside em uma governança de dados extremamente rigorosa. É essencial ter um controle de versão para os conjuntos de dados (usando ferramentas como o DVC), realizar análises estatísticas e de detecção de outliers nos dados antes de iniciar o treinamento, e monitorar as métricas de perda (loss) e precisão durante o treinamento para detectar comportamentos anormais, como a falha do modelo em convergir. Proteger a integridade do pipeline de dados é fundamental para se defender contra essa forma de sabotagem de IA.