Se você acha que uma plataforma de IA é segura só porque pertence a uma gigante bilionária como a Meta, é melhor repensar. Um pesquisador de segurança digital descobriu uma falha grave no Meta AI que permitia acessar perguntas e respostas privadas de outros usuários. 
Como recompensa, ele ganhou US$ 10 mil da empresa.
Sandeep Hodkasia, fundador da AppSecure, foi quem identificou a brecha em dezembro de 2024. A Meta já corrigiu o problema e afirmou que não há indícios de que a falha tenha sido explorada de forma maliciosa. Mas a situação levanta um alerta importante sobre confiar demais em IA.
O erro estava na forma como o Meta AI permitia editar prompts para gerar novas respostas. Cada edição recebia um identificador único – que, segundo Hodkasia, era previsível. Ao interceptar o tráfego de rede e modificar esse ID, ele conseguiu acessar as conversas de outros usuários. Pior: o sistema nem verificava se a pessoa tinha autorização pra isso.
Isso é especialmente preocupante quando se considera o tipo de informação que muita gente compartilha com a IA: questões jurídicas, dados pessoais, problemas financeiros… tudo isso poderia cair em mãos erradas com um simples truque técnico.
E não é a primeira vez que a Meta AI enfrenta críticas sobre privacidade. Desde o lançamento do app em abril de 2024, vários usuários acabaram publicando sem querer conversas privadas, imagens e áudios por conta de opções de compartilhamento confusas.
Mesmo com investimentos pesados em IA, a recepção tem sido morna: segundo a Appfigures, o app teve cerca de 6,5 milhões de downloads até agora.
O bug já foi corrigido, mas o recado fica: nenhuma plataforma é à prova de falhas. Basta uma linha de código descuidada e sua vida pode parar na tela de outra pessoa.