Voltar para todas as notícias

Vulnerabilidades

Segurança em Aplicações de Geração de Imagem com IA

22 de Outubro, 2025

Enquanto grande parte da atenção na segurança de IA generativa se concentra nos modelos de linguagem, os modelos de geração de imagem (text-to-image), como Midjourney, DALL-E e Stable Diffusion, apresentam seu próprio conjunto de riscos de segurança, éticos e legais. A capacidade de criar imagens fotorrealistas a partir de um simples prompt de texto tem implicações profundas para a desinformação, a propriedade intelectual e a segurança online.

O risco mais óbvio é a geração de conteúdo prejudicial. Os desenvolvedores desses modelos implementam filtros de segurança para impedir que os usuários gerem imagens violentas, pornográficas ou de discurso de ódio. No entanto, assim como nos LLMs, os usuários podem usar técnicas de jailbreak e ofuscação de prompt para tentar contornar esses filtros. Por exemplo, usando sinônimos ou linguagem eufemística para descrever uma cena proibida.

A questão dos direitos autorais é outro grande desafio. Modelos de imagem são treinados com bilhões de imagens da internet, muitas das quais são protegidas por direitos autorais. Um usuário pode instruir o modelo a gerar uma imagem 'no estilo de Van Gogh' ou 'no estilo de um fotógrafo famoso', levantando questões complexas sobre o que constitui uma obra derivada e violação de direitos autorais. Além disso, os modelos podem ser usados para gerar imagens que usam marcas registradas ou a imagem de celebridades de forma não autorizada.

Finalmente, há o risco da desinformação. A capacidade de criar imagens fotorrealistas de eventos que nunca aconteceram é uma ferramenta poderosa para a propaganda e a manipulação da opinião pública. A defesa contra esses riscos envolve uma combinação de filtragem de prompt robusta, o desenvolvimento de tecnologias de 'watermarking' (marca d'água) que podem identificar uma imagem como gerada por IA, e a educação do público para que desenvolvam um olhar crítico em relação ao conteúdo visual que consomem. A segurança na IA de imagem é fundamental para preservar a confiança no que vemos online.