Voltar para todas as notícias

Técnicas de Ataque

Ataques de 'Sufocamento de Contexto' (Context Stuffing) em LLMs

16 de Dezembro, 2025

A capacidade de um LLM de manter o contexto ao longo de uma conversa é uma de suas características mais poderosas, permitindo interações complexas e com estado. No entanto, essa mesma característica pode ser explorada em um tipo sutil de ataque de Negação de Serviço (DoS) conhecido como 'sufocamento de contexto' (context stuffing). Diferente dos ataques de DoS tradicionais que visam derrubar um serviço, o objetivo aqui é degradar silenciosamente a qualidade e o desempenho do modelo, minando sua utilidade e a confiança do usuário.

A janela de contexto de um LLM — a quantidade de informação que ele pode 'lembrar' de uma conversa — é um recurso finito e computacionalmente caro. Em um ataque de sufocamento de contexto, um atacante deliberadamente preenche essa janela com um grande volume de texto irrelevante, inútil ou repetitivo. Por exemplo, em um chatbot de suporte, um atacante poderia colar vários parágrafos de texto aleatório ou repetido na conversa. Em cada turno subsequente, o modelo é forçado a processar todo esse histórico, incluindo o texto 'lixo'.

Isso tem duas consequências negativas. Primeiro, o desempenho do modelo diminui, pois ele precisa processar mais tokens em cada chamada, resultando em respostas mais lentas e custos de inferência mais altos para a organização que hospeda o serviço. Segundo, e mais importante, a qualidade das respostas pode ser severamente degradada. O contexto útil e relevante da conversa é 'sufocado' pelo lixo, e o modelo pode ter dificuldade em focar nas informações importantes para formular uma resposta precisa, levando a respostas vagas, fora do tópico ou incorretas.

A defesa contra o sufocamento de contexto envolve a implementação de controles na camada de aplicação. Isso inclui a limitação do comprimento máximo de uma única mensagem de usuário, a detecção e o bloqueio de entradas que parecem ser repetitivas ou de baixa entropia, e a implementação de estratégias de gerenciamento de contexto mais inteligentes, como resumir turnos de conversa mais antigos em vez de manter o histórico completo na janela de contexto. Esses controles são essenciais para proteger a disponibilidade funcional e a confiabilidade de aplicações de IA conversacionais.