Tag
Notícias sobre "Arquitetura Transformer"
Ataques de Manipulação de Atenção em Transformers
Técnicas de Ataque
Uma técnica de ataque que explora como o mecanismo de 'atenção' dos LLMs funciona para fazer o modelo focar em informações maliciosas e ignorar as diretrizes de segurança.
21 de Dezembro, 2025