Voltar para todas as notícias

IA Ofensiva

Usando Redes Adversariais Geradoras (GANs) para Criar Exemplos Adversariais

26 de Outubro, 2025

A descoberta de exemplos adversariais — entradas sutilmente modificadas que enganam os modelos de Machine Learning — tem sido, muitas vezes, um processo manual ou que requer algoritmos de otimização complexos. No entanto, uma abordagem poderosa e automatizada para gerar esses ataques utiliza Redes Adversariais Geradoras (Generative Adversarial Networks - GANs). As GANs, famosas por sua capacidade de gerar imagens realistas, podem ser adaptadas para se tornarem uma ferramenta potente de Red Teaming de IA.

Uma GAN consiste em duas redes neurais que competem entre si: um Gerador e um Discriminador. Em um cenário de ataque, o Discriminador é uma cópia do modelo alvo que se deseja atacar. O Gerador, por sua vez, é treinado para criar perturbações (ruído) para adicionar a uma imagem de entrada. O objetivo do Gerador é criar uma perturbação que faça com que o Discriminador classifique a imagem adulterada incorretamente. O objetivo do Discriminador é detectar se a imagem é real ou se foi adulterada pelo Gerador.

As duas redes são treinadas em um ciclo de feedback. O Gerador aprende gradualmente a criar perturbações cada vez mais eficazes e sutis, enquanto o Discriminador se torna melhor em detectar essas adulterações. Através deste 'jogo' adversário, o Gerador aprende automaticamente a encontrar as fraquezas na arquitetura do modelo alvo, descobrindo as direções no espaço de características que são mais eficazes para causar uma classificação incorreta.

Essa abordagem automatiza e acelera drasticamente o processo de teste de robustez de um modelo. Em vez de testar manualmente diferentes tipos de perturbações, a GAN pode explorar o espaço de ataque de forma muito mais eficiente. A saída do Gerador é um conjunto de vetores de ataque altamente otimizados que podem ser usados para avaliar a resiliência de um modelo de visão computacional ou de outro tipo. O uso de GANs para gerar ataques é um exemplo perfeito da dinâmica de 'IA contra IA' que define a segurança de Machine Learning.