← Blog

Colaboradores, IA generativa e exposição de dados: o risco do “só perguntei ao chat”

Ferramentas públicas de IA tornaram trivial colar dados confidenciais em busca de resposta rápida. O problema não é só malícia — é hábito, pressão de prazo e ausência de alternativa corporativa aprovada.

Cenários reais

Customer success enviando conversa com PII para resumir. Desenvolvedor colando stack trace com token embutido. Analista subindo CSV de vendas para “gerar insight”. Em todos os casos, o fornecedor pode reter trechos para treino ou suporte, dependendo dos termos — e o controle da empresa sobre o dado se perde.

Resposta pragmática

Oferecer ferramentas com contrato B2B adequado (ou modelo local), DLP em endpoints onde possível, treinamento curto e recorrente, e cultura de “não colar dado de cliente em ferramenta não aprovada”. Transparência com o comitê de privacidade evita projeto de IA parado no “não podemos”.