Categories: NOTÍCIAS EM GERAL

OpenAI Interrompe Redes Maliciosas que Usavam Modelos de IA para Fins Enganosos

Na última quarta-feira, a OpenAI divulgou que desmantelou mais de 20 operações e redes enganosas em todo o mundo que estavam tentando usar sua plataforma para atividades maliciosas desde o início do ano. Essas operações envolviam uma série de práticas, como depuração de malware, criação de conteúdo para sites fraudulentos, geração de biografias falsas para contas em redes sociais e a criação de fotos de perfil geradas por IA, usadas em contas falsas na plataforma X (anteriormente conhecida como Twitter).Evolução das Ameaças Cibernéticas

De acordo com a OpenAI, as táticas empregadas pelos ciber criminosos continuam a evoluir, com agentes de ameaças testando novas maneiras de utilizar os modelos de IA. No entanto, a empresa afirmou que “não há evidências de que essas tentativas resultaram em avanços significativos na criação de novos malwares ou na capacidade de construir públicos virais”. Apesar das tentativas, a sofisticação dos ataques e o alcance de suas campanhas não atingiram os níveis esperados pelos atacantes.

A OpenAI também revelou que bloqueou atividades que buscavam gerar conteúdo relacionado a eleições em diferentes partes do mundo, incluindo os EUA, Ruanda, e, em menor grau, na Índia e na União Europeia. Em todos os casos, nenhuma dessas redes conseguiu atrair engajamento viral ou audiências sustentadas.

Operações Específicas de Influência e Ciberataques

Entre as operações desarticuladas, destaca-se o esforço de uma empresa comercial israelense chamada STOIC (também conhecida como Zero Zeno), que gerou comentários sobre as eleições indianas. Esse esforço foi originalmente revelado em maio de 2023 pela Meta e pela própria OpenAI.

As operações cibernéticas mais notáveis descobertas pela OpenAI incluem:

  • SweetSpecter: Um grupo suspeito, com base na China, utilizou modelos de IA para atividades como reconhecimento baseado em LLM (Large Language Models), pesquisa de vulnerabilidades, suporte a scripts, evasão de detecção de anomalias e desenvolvimento de ferramentas maliciosas. Esse grupo também tentou realizar ataques de spear-phishing contra funcionários da OpenAI, visando a entrega de um malware conhecido como SugarGh0st RAT.
  • Cyber Av3ngers: Um grupo afiliado ao Corpo da Guarda Revolucionária Islâmica do Irã (IRGC), que utilizou IA para realizar pesquisas sobre controladores lógicos programáveis (PLC), fundamentais em ataques a infraestruturas críticas.
  • Storm-0817: Um agente de ameaças iraniano que usou IA para depurar malware para Android, capaz de coletar dados sensíveis, além de desenvolver ferramentas para rastrear perfis de usuários no Instagram via Selenium e traduzir perfis do LinkedIn para persa.

Além dessas, a OpenAI revelou que bloqueou outras redes influentes, como:

  • A2Z e Stop News: Redes de influência que criavam e distribuíam conteúdo em inglês e francês para sites e mídias sociais. O grupo Stop News, por exemplo, foi especialmente prolífico na criação de imagens usando DALL·E, um gerador de imagens da OpenAI. Essas imagens eram frequentemente de estilo cartunesco, com paletas de cores chamativas, projetadas para atrair atenção.

Redes de Apostas e Comentários Falsos

Outras redes destacadas incluíam:

  • Bet Bot: Utilizava a API da OpenAI para gerar conversas no X e redirecionar usuários para sites de apostas.
  • Corrupt Comment: Gerava comentários fabricados para enganar usuários no X, envolvendo links maliciosos e spam.

A divulgação dessas atividades ocorreu cerca de dois meses após a OpenAI ter banido um conjunto de contas ligadas a uma operação de influência secreta iraniana, conhecida como Storm-2035. Essa operação utilizava o ChatGPT para gerar conteúdo focado, entre outros temas, nas eleições presidenciais dos EUA.

Uso Malicioso da IA Generativa

Os pesquisadores da OpenAI, Ben Nimmo e Michael Flossman, afirmaram que os agentes de ameaças utilizavam os modelos de IA principalmente em uma fase intermediária de suas atividades, após adquirirem ferramentas básicas como e-mails e contas de redes sociais. Esses modelos eram usados antes de lançarem produtos finais, como postagens em mídias sociais maliciosas ou malware distribuído.

Além disso, a empresa de segurança cibernética Sophos publicou um relatório destacando como a IA generativa também está sendo usada para disseminar desinformação direcionada, através de e-mails microdirecionados e campanhas políticas falsas. A IA permite criar perfis de personagens fictícios e sites de campanha política gerados automaticamente, facilitando a automação de desinformação em grande escala.

Implicações da Automação e Desinformação

Com o uso de IA, é possível gerar qualquer tipo de conteúdo, desde material de campanha legítimo até desinformação intencional. Como destacaram os pesquisadores Ben Gelman e Adarsh Kyadige, “desinformação intencional pode levar as pessoas a apoiar candidatos que na realidade não apoiam ou a rejeitar candidatos que pensavam que apoiavam”. Isso eleva os riscos de manipulação em campanhas políticas e desinformação em massa, criando um novo desafio para a segurança cibernética global.

Ninja

Na cena de cybersecurity a mais de 25 anos, Ninja trabalha como evangelizador de segurança da informação no Brasil. Preocupado com a conscientização de segurança cibernética, a ideia inicial é conseguir expor um pouco para o publico Brasileiro do que acontece no mundo.

Share
Published by
Ninja

Recent Posts

Vulnerabilidade crítica no servidor MCP do GitHub permite acesso não autorizado a repositórios privados

Falha permite que invasores manipulem o agente de um usuário por meio de um problema…

5 dias ago

Suposto 0-Day da Fortinet está à venda em cantos obscuros da web

Um exploit de dia zero, dirigido aos firewalls FortiGate da Fortinet, foi descoberto à venda…

2 meses ago

Pesquisadores descobrem a família de malware Shelby que abusa do GitHub para comando e controle

A família SHELBY mostra um exemplo preocupante de malware moderno com design modular, sofisticado e…

2 meses ago

Hackers abusam de plugins MU do WordPress para esconder código malicioso

Hackers estão explorando o diretório mu-plugins do WordPress para injetar códigos maliciosos que não aparecem…

2 meses ago

Google lança duas novas ferramentas de IA para detectar golpes conversacionais em dispositivos Android

O Google implementou uma nova funcionalidade de "Detecção de Golpes" com inteligência artificial no aplicativo…

3 meses ago

APT28 aprimora técnicas de ofuscação com trojans HTA avançados

O grupo APT28, ligado à Rússia, está utilizando técnicas avançadas de ofuscação em seus ataques…

3 meses ago