Uma recente falha de segurança no aplicativo ChatGPT para macOS, agora corrigida, levantou preocupações sobre a possibilidade de invasores implantarem spyware persistente através da função de memória. Essa vulnerabilidade, denominada SpAIware, pode permitir a exfiltração contínua de dados, abrangendo desde informações inseridas pelo usuário até respostas geradas pelo ChatGPT, afetando todas as interações futuras.
Funcionamento da Vulnerabilidade
A função de memória, introduzida pela OpenAI em fevereiro, permite que o ChatGPT retenha informações relevantes entre sessões de chat. Isso proporciona uma experiência mais fluida para o usuário, que pode evitar repetir informações. No entanto, o uso indevido dessa funcionalidade abre portas para ataques. Johann Rehberger, um pesquisador de segurança, explica que essa técnica se aproveita do armazenamento de informações e instruções maliciosas, criando uma forma de persistência que pode sobreviver a conversas específicas.
O que torna essa vulnerabilidade particularmente crítica é o fato de que, uma vez que as instruções maliciosas são gravadas na memória do ChatGPT, elas se infiltram nas interações subsequentes, possibilitando que dados sensíveis sejam enviados continuamente para um servidor controlado pelo invasor. O cenário de ataque pode incluir a indução do usuário a acessar um site malicioso ou baixar um documento comprometido, que contém comandos projetados para atualizar a memória do sistema.
Mitigação e Recomendações
Após a divulgação, a OpenAI lançou a versão 1.2024.247 do ChatGPT, que endereçou o vetor de exfiltração identificado. Contudo, é importante que os usuários revisem regularmente as memórias armazenadas pelo sistema, buscando por entradas suspeitas ou incorretas. Rehberger enfatiza a importância de limpar memórias que possam comprometer a segurança do usuário.
Implicações e Novas Ameaças
Essa vulnerabilidade destaca os perigos associados à implementação de memórias de longo prazo em sistemas de IA, especialmente no que tange à desinformação e à comunicação contínua com servidores maliciosos. Em um contexto mais amplo, essa falha surge em um momento em que pesquisadores têm explorado novas técnicas de jailbreak em IA, como o método MathPrompt, que transforma prompts prejudiciais em problemas matemáticos simbólicos. Esta técnica tem demonstrado um aumento alarmante na eficácia dos ataques, com uma taxa de sucesso de 73,6% em testes.
Quer amadurecer seu programa de segurança cibernética? Conheça a EcoTrust, uma plataforma CAASM (Cyber Asset Attack Surface Management) que transforma riscos cibernéticos em respostas confiáveis. Agende uma demo aqui
Este artigo foi criado com uso de inteligência artificial generativa e teve a curadoria da Equipe EcoTrust.