ChatGPT virou o ‘ombro amigo’ de muita gente: desabafos sobre relacionamentos, dilemas existenciais e até questões de saúde mental têm sido jogados no chat. 
Mas Sam Altman, CEO da OpenAI, fez um alerta sério – o chatbot não é terapeuta e, pior, nada do que você compartilha com ele é protegido por sigilo legal.
Durante sua participação no podcast This Past Weekend com Theo Von, Altman disse o que muitos ignoram: as conversas com a IA podem parecer privadas, mas não são. “As pessoas contam as coisas mais pessoais da vida delas pro ChatGPT. Principalmente os jovens, que tratam a IA como psicólogo ou coach de vida. Mas não tem nenhuma proteção jurídica nisso”, explicou.
Ou seja, se um processo judicial exigir, a OpenAI pode ser obrigada a fornecer o conteúdo da conversa. Ao contrário de psicólogos, médicos ou advogados, os chats com IA não têm nenhuma garantia de confidencialidade perante a lei.
E o problema piora porque a IA está cada vez mais convincente, empática, parecendo realmente se importar. Isso cria uma falsa sensação de segurança – como se você estivesse falando com alguém de confiança. Só que, no fim, é uma máquina com memória e sem obrigações legais.
Alguns usuários já se precavem: usam VPN, modo anônimo, evitam criar conta ou preferem IAs de fora, como a chinesa DeepSeek. Outros vão além e colocam disclaimers criativos tipo “isso é só uma ideia pra roteiro” antes de perguntar algo mais sensível.
Mas, como reforça Altman, até que a legislação acompanhe a evolução da tecnologia, abrir o coração pra uma IA pode sair caro. Pense bem antes de transformar o chat em divã.
1 comentário
tô usando só DeepSeek agora, melhor prevenir do que remediar