Suposta violação de dados do ‘OmniGPT’ é um curso intensivo sobre riscos de GenAI
0 minutos de leitura

Bryan Arnott
Existem aplicações de IA generativa suficientes na web para preencher uma lista da Forbes 500 quatro vezes, e esse número continua a crescer.
Com entusiastas de tecnologia sendo comuns na força de trabalho moderna, mais ferramentas de GenAI estão sendo incorporadas ao ambiente corporativo semanalmente – seja com conhecimento da TI ou não.
Mas sem verdadeira visibilidade de como os usuários estão interagindo com GenAI e quais dados estão sendo compartilhados, as organizações podem estar convidando mais riscos do que o esperado. A suposta violação de dados do OmniGPT recentemente pode servir como um exemplo dos riscos que as organizações enfrentam com GenAI e suas potenciais implicações.
O que é OmniGPT?
OmniGPT é uma plataforma de agregação de IA que permite aos usuários interagir com múltiplos modelos de IA de diferentes provedores, como o ChatGPT da OpenAI e o Gemini do Google. Ela simplifica o acesso à IA em escala e elimina a necessidade de múltiplas assinaturas, tornando-se popular entre os funcionários que experimentam tecnologias de IA.
Seus usos variam e abrangem múltiplos departamentos, com engenheiros de software potencialmente usando-a para revisar código ou equipes de contabilidade apoiando-se nela para análise financeira. Devido à sua funcionalidade ubíqua, uma ampla gama de informações potencialmente sensíveis pode ser compartilhada inadvertidamente com ela.
A violação de dados do OmniGPT: O que aconteceu?
No início de fevereiro de 2025, um ator de ameaça conhecido como "Gloomer" reivindicou a responsabilidade por uma suposta violação de dados do OmniGPT que foi inicialmente relatada pela KrakenLabs no final de janeiro de 2025.
A venda de informações como nomes de contas e números de telefone é comum nessas situações. No entanto, o que foi único na violação do OmniGPT foi o meio pelo qual esses dados foram coletados: mais de 34.000.000 mensagens entre usuários e a IA.
De acordo com Gloomer, essas mensagens continham chaves de API, credenciais de contas e arquivos que foram carregados no OmniGPT. Sem especular sobre o conteúdo desses arquivos compartilhados, ainda podemos considerar as muitas maneiras pelas quais os funcionários usam aplicações de IA generativa para entender melhor o risco imposto às organizações que tinham usuários no OmniGPT – conscientemente ou não.
As implicações da violação de dados do OmniGPT são abrangentes. A exposição de informações de contato, como endereços de e-mail e números de telefone, coloca as empresas em maior risco de ataques de phishing, e as chaves de API e credenciais de login vazadas podem alimentar a comprometimento de contas. No entanto, talvez mais importante, as interações comprometidas com o chatbot podem conter informações pessoais, financeiras ou proprietárias de negócios, levantando sérias preocupações de privacidade.
Como prevenir violações de dados de IA generativa
Independentemente de a suposta violação do OmniGPT ter ocorrido, a narrativa por trás dela ainda vale a pena ser aprendida. Embora GenAI seja um poderoso impulsionador de produtividade, os desafios de segurança e privacidade que a cercam são significativos e não podem ser ignorados. As organizações devem estar cientes desses riscos e trabalhar ativamente para preveni-los a fim de proteger o uso corporativo de aplicações de GenAI.
Prevenir violações de dados de ferramentas de IA generativa exige visibilidade completa dos seus dados – incluindo onde e como são usados – bem como precisão e controle sobre esses dados. Ser capaz de aplicar políticas de segurança e privacidade de dados na web, na nuvem e no endpoint é fundamental para proteger informações sensíveis dentro dessas aplicações.
A Forcepoint oferece soluções abrangentes de proteção de dados que podem ajudar as empresas a proteger seus usuários e dados dentro da GenAI.
Forcepoint Data Security Posture Management (DSPM) fornece melhor visibilidade dos dados através de descoberta e classificação alimentadas por IA. Isso garante que as empresas tenham controle sobre onde estão os dados sensíveis, como são usados e com quais aplicações são compartilhados.
Forcepoint Data Loss Prevention (DLP) permite que as organizações configurem e apliquem políticas sobre o uso de dados na nuvem ou na web, limitando efetivamente quais arquivos podem ser compartilhados via upload ou copiar/colar.
Forcepoint Web Security (SWG) e Cloud Access Security Broker (CASB) ajudam as organizações a controlar o acesso e as permissões para aplicações de GenAI, direcionando os usuários para ferramentas aprovadas e limitando o uso de IA sombra.
Fale com um especialista da Forcepoint hoje para saber mais sobre como sua organização pode limitar o risco de dados de aplicações de GenAI.more about how your organization can limit data risk from GenAI applications.
Bryan Arnott
Leia mais artigos de Bryan ArnottBryan Arnott é Especialista Sênior em Marketing de Conteúdo e Estrategista Digital na Forcepoint.
- Guia executivo para proteger dados na IA generativaLer o Livro Eletrônico
X-Labs
Get insight, analysis & news straight to your inbox

Ao Ponto
Cibersegurança
Um podcast que cobre as últimas tendências e tópicos no mundo da cibersegurança
Ouça Agora