A Check Point Research (CPR), divisão de Inteligência em Ameaças da Check Point Software Technologies, uma fornecedora de soluções de cibersegurança global, descobriu que os cibercriminosos aumentaram o uso de bots do Telegram com o objetivo de criar uma nova metodologia que gerenciam para contornar as restrições de anti abuso do ChatGPT e outras ferramentas baseadas na OpenAI. O principal objetivo é poder usar esses recursos para depurar e melhorar o código malicioso.
Ciente desse problema, a OpenAI atualizou a sua política de conteúdo, criou as barreiras e restrições para tentar impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar o seu uso inapropriado. Por exemplo, a partir de agora a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades.
No entanto, os cibercriminosos já estão a trabalhar para contornar as restrições do ChatGPT. Como a equipa de pesquisadores da Check Point Research detetou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API OpenAI para superar as barreiras e limitações dessas ferramentas, com destaque de um modelo com foco na criação e distribuição de bots do Telegram que emulam a API ChatGPT.
Especificamente, a CPR detetou anúncios de bots do Telegram em fóruns clandestinos. Os bots utilizam a API da OpenAI para permitir que um atacante crie e-mails ou códigos maliciosos. Os criadores do bot concedem até 20 consultas gratuitas, mas cobram USD 5,50 por cada 100 consultas. Um custo praticamente zero em comparação com os altos lucros obtidos com esse tipo de ataque cibernético.
Os cibercriminosos continuam a sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram as novas maneiras de usar os modelos OpenAI.
“Como parte da sua política de conteúdo, a OpenAI criou barreiras e restrições para impedir a criação de conteúdo malicioso na sua plataforma. No entanto, verificamos cibercriminosos a contornar as restrições do ChatGPT, e há conversas ativas nos fóruns clandestinos a revelar como usar a API OpenAI para contornar as barreiras e limitações do ChatGPT. Isso é feito principalmente ao criar bots do Telegram que usam a API, e esses bots são anunciados em fóruns de hackers para aumentar a sua exposição”, detalha Sergey Shykevich, gerente do Grupo de Ameaças da Check Point Software.
Shykevich explica ainda que a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas anti abuso em vigor. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu na sua interface de usuário. “No momento, estamos vendo esforços contínuos de cibercriminosos para encontrar maneiras de despistar as restrições do ChatGPT.”