Se você usa IA no trabalho, uma pergunta precisa ser respondida com objetividade: o que acontece com os dados que você digita?
Não é uma dúvida acadêmica. É operacional. Contratos, propostas comerciais, estratégias internas, planilhas financeiras e até dados de clientes podem parar em prompts. Se você não entende o fluxo desses dados, não consegue medir risco nem cumprir LGPD de forma séria.
Este guia é direto: sem alarmismo, sem "achismo". Vamos separar o que é padrão dos provedores, o que é configurável e o que é sua responsabilidade como empresa.
1) O que os provedores coletam por padrão
Em termos práticos, plataformas de IA em nuvem coletam quatro grupos de informação:
- Conteúdo enviado: Prompt, arquivo, imagem, áudio e instruções.
- Conteúdo gerado: Respostas do modelo, inclusive histórico de chat.
- Metadados de uso: Horário, tipo de recurso usado, versão do modelo, logs técnicos.
- Dados de conta e dispositivo: E-mail, forma de cobrança, identificadores de sessão e, em alguns casos, localização aproximada.
No caso da OpenAI, a política de privacidade publicada com atualização em 9 de fevereiro de 2026 descreve categorias de "Personal Data we collect", incluindo dados que você fornece, dados de uso e dados técnicos.
No caso do Google Gemini, o Gemini Apps Privacy Hub também detalha uso de atividade, permissões e processamento de localização para responder pedidos contextuais.
No caso da Anthropic, o Privacy Center separa cenário de produto comercial e de produto de consumo, com regras diferentes para uso e retenção.
O ponto central: usar IA na nuvem nunca é "sem dados". É tratamento de dados com regras específicas.
2) Treinamento com seus dados: quando acontece e como desativar
Essa é a pergunta mais importante para time de vendas, jurídico, financeiro e produto.
OpenAI
Para API, a documentação de controles de dados da OpenAI informa que, desde 1º de março de 2023, os dados enviados à API não são usados para treinar modelos por padrão, salvo opt-in explícito.
Para produtos de consumo, há controles de treinamento por conta e também o modo de conversa temporária. O Help Center da OpenAI descreve que Temporary Chat não entra em histórico e não é usado para treino.
Para ambiente corporativo, a página Enterprise Privacy (atualizada em 8 de janeiro de 2026) afirma que dados de negócio não são usados para treinar modelos por padrão.
Anthropic (Claude)
No Privacy Center da Anthropic, o artigo "Is my data used for model training?" informa que, para produtos comerciais (como API e ofertas corporativas), a regra padrão é não usar entradas e saídas para treino, salvo opt-in explícito ou envio de feedback.
Google (Gemini)
No Gemini Apps Privacy Hub, o Google detalha controles como Keep Activity, opções de histórico, e comportamento de retenção em cenários específicos. O post oficial de agosto de 2025 sobre Temporary Chats informa que esse modo não personaliza e não treina modelos, com retenção curta para operação e segurança.
Resumo objetivo: "Usa para treino?" depende de plano, canal (web x API), e configuração ativa. Se você não padronizar essas escolhas, cada pessoa da equipe vira uma política diferente.
3) O que a LGPD exige quando você usa IA de terceiros
A LGPD (Lei nº 13.709/2018) não proíbe uso de IA na nuvem. Ela exige governança.
Pontos mínimos para empresa:
- Base legal definida para cada tipo de dado tratado.
- Finalidade clara e compatível com o uso declarado.
- Minimização: enviar só o necessário para a tarefa.
- Transparência ao titular quando houver tratamento de dados pessoais.
- Medidas técnicas e administrativas de segurança (Art. 46).
- Gestão de operadores e fornecedores (contratos, DPA, responsabilidades).
Na prática, quando você coloca dados em uma IA de terceiro, você está em uma cadeia de tratamento com controlador e operador. Isso pede inventário de dados, política interna e padrão técnico de uso.
Em paralelo, a ANPD vem ampliando a pauta regulatória de IA e dados no Brasil. Em 2025, por exemplo, avançou o Sandbox Regulatório de IA e proteção de dados, reforçando que o tema já é de supervisão ativa.
Se sua empresa atende clientes europeus, a lógica é convergente com o GDPR: o Art. 4 define dado pessoal de forma ampla e reforça que identificadores diretos e indiretos entram no escopo.
4) Dados que não devem ir para IA em nuvem
Regra prática: se um vazamento desse conteúdo gera dano jurídico, reputacional ou financeiro, não envie sem proteção forte.
Lista de bloqueio recomendada:
- Credenciais e segredos: Senhas, tokens, chaves privadas, segredos de infraestrutura.
- Dados de saúde identificáveis: Prontuário, exames, CID com identificador.
- Dados de menores: Nome + escola, rotina, documentos, dados de responsável.
- Contratos e peças jurídicas sigilosas sem anonimização.
- Dados financeiros sensíveis: Extratos, margem, fluxo de caixa identificável por cliente.
- Base de clientes com identificadores diretos (CPF, telefone, e-mail) sem necessidade.
Muita violação ocorre por hábito: copiar e colar "só para resumir". A IA parece um bloco de notas, mas é um serviço de processamento externo.
5) Como reduzir risco sem parar de usar IA
Você não precisa abandonar IA. Precisa operar com padrão.
Padrão técnico recomendado
- Priorize API e ambiente corporativo, em vez de chat pessoal para rotina da empresa.
- Ative controles de não treinamento e retenção conforme o provedor permitir.
- Use chats temporários quando o caso for sensível e pontual.
- Aplique anonimização e mascaramento antes do envio.
- Separe ambientes: teste com dados fictícios; produção com regra de minimização.
- Registre quem pode usar IA, em quais tarefas e com quais dados.
Padrão operacional recomendado
- Tenha política interna de "Dados permitidos x proibidos em IA".
- Treine equipe com exemplos reais de risco.
- Faça revisão jurídica dos termos dos provedores usados.
- Mantenha inventário de ferramentas e fluxos com IA.
Sem isso, o risco não está no modelo. Está no processo.
6) A alternativa da soberania: agente rodando no seu servidor
Quando a empresa precisa de mais controle, a discussão muda de "qual prompt usar" para "onde o dado transita".
Rodar um agente em infraestrutura própria (ou VPS dedicada) permite:
- Centralizar política de acesso e logs.
- Controlar integrações autorizadas.
- Definir o que pode sair para modelos externos e o que deve ficar interno.
- Criar camadas de sanitização antes de qualquer chamada para IA em nuvem.
Importante: servidor próprio não elimina risco automaticamente. Ele reduz superfície de exposição quando vem com arquitetura correta e governança.
Em termos práticos, a soberania de dados aumenta quando você decide:
- Qual dado fica local.
- Qual dado pode ir para API externa.
- Em qual nível de anonimização cada fluxo opera.
Esse controle é o que normalmente falta no uso ad hoc via chat em navegador.
7) Checklist rápido de privacidade corporativa com IA
Se você quiser começar hoje, use este checklist:
- Mapeei quais ferramentas de IA minha equipe usa.
- Separei uso pessoal de uso corporativo.
- Ativei configurações de não treinamento quando disponíveis.
- Defini política de dados proibidos em prompts.
- Treinei equipe para anonimizar antes de enviar.
- Revisei termos e retenção dos provedores principais.
- Implementei processo de auditoria e revisão periódica.
- Documentei base legal e finalidade para casos com dados pessoais.
Se você respondeu "não" para três itens ou mais, sua operação ainda está em modo de risco.
Conclusão
Privacidade em IA não é travar inovação. É criar limite operacional claro.
ChatGPT, Claude e Gemini oferecem controles relevantes, mas eles não se aplicam sozinhos. Sem política interna, sem configuração padronizada e sem disciplina de dados, a empresa fica exposta mesmo usando boas ferramentas.
O melhor caminho é combinar produtividade com governança:
- Configuração correta no provedor.
- Processo interno de minimização e classificação de dados.
- Infraestrutura que permita controle real de tráfego e retenção.
Se você quer usar IA com mais soberania e menos improviso, o próximo passo é operar seu agente em ambiente dedicado, com política de dados sob seu controle.
Leia também:
- Privacidade e dados com IA pessoal: o que você precisa saber
- Segurança em VPS para agentes de IA: boas práticas essenciais
Conheça a estrutura do meuOpenClaw: https://meuopenclaw.cloud/contratar