Tag
Notícias sobre "XAI"
Ataques de Ofuscação de Gradiente: Quando a IA Mente Sobre Suas Decisões
Técnicas de Ataque
Uma técnica de ataque onde um modelo é treinado para 'esconder' a verdadeira razão de suas decisões, enganando as ferramentas de explicabilidade (XAI) e ocultando vieses.
26 de Dezembro, 2025
E se a própria explicação da IA for uma 'alucinação'? O risco de que as explicações geradas pela XAI possam ser enganosas ou incorretas.
16 de Novembro, 2025