Tag

Notícias sobre "XAI"

Uma técnica de ataque onde um modelo é treinado para 'esconder' a verdadeira razão de suas decisões, enganando as ferramentas de explicabilidade (XAI) e ocultando vieses.

E se a própria explicação da IA for uma 'alucinação'? O risco de que as explicações geradas pela XAI possam ser enganosas ou incorretas.

16 de Novembro, 2025