Uma pesquisa da Tenable Research aponta sete vulnerabilidades críticas em sistemas de IA que afetam diretamente a privacidade e a segurança de usuários do ChatGPT. Chamado de HackedGPT, o conjunto de falhas foi detectado durante testes com o modelo ChatGPT-4o e observado também no ChatGPT-5, sugerindo uma nova categoria de risco para IA generativa.
As brechas atingem funções centrais do ChatGPT, como navegação na web e memória, permitindo exfiltração de dados, manipulação de respostas e controle prolongado de contextos. Em termos práticos, isso pode expor históricos de conversas e informações ligadas a serviços externos, como Google Drive ou Gmail, afetando centenas de milhões de usuários.
Entre as técnicas descritas pela Tenable está a injeção indireta de prompt, em que comandos maliciosos são inseridos em sites aparentemente legítimos. Ao serem lidos durante a navegação, esses conteúdos podem instruir a IA a executar ações sem o conhecimento do usuário, abrindo caminhos para ataques 0 clique ou 1 clique.
A pesquisa também descreve a Injeção de Memória Persistente, na qual comandos maliciosos são gravados na memória de longo prazo da IA e permanecem ativos mesmo após o encerramento de sessões. Esse tipo de vulnerabilidade compromete o gerenciamento de contexto e permite que instruções invasivas se repitam em interações futuras.
Para provedores e equipes de segurança, a Tenable recomenda auditorias periódicas, reforço de defesas contra injeções de prompt, governança de dados e investigações de solicitações anômalas. Em conjunto, essas medidas visam transformar a IA em uma superfície de ataque gerenciável, com isolamento entre dados, memória e navegação, garantindo proteção aos usuários.