14 min. de leitura
À medida que a IA Generativa revoluciona as empresas em todos os lugares, os líderes de segurança e TI se encontram em uma situação difícil. Os executivos exigem a rápida adoção de ferramentas de IA generativa para aumentar a eficiência e se manter à frente dos concorrentes. Enquanto isso, as equipes de TI e segurança devem desenvolver rapidamente uma estratégia de segurança de IA, mesmo antes de a organização entender exatamente como planeja adotar e implementar a IA Generativa.
As equipes de TI e segurança estão acostumadas a "construir o avião em pleno voo". Mas esse momento traz desafios de segurança novos e complexos. Há uma explosão de novos recursos de IA adotados por funcionários em todas as funções da empresa, tanto aprovados quanto não aprovados. Agentes de IA estão ingerindo credenciais de autenticação e interagindo autonomamente com recursos corporativos confidenciais. Dados confidenciais estão sendo compartilhados com ferramentas de IA, mesmo com estruturas de segurança e conformidade tendo dificuldades para acompanhar.
Embora demande pensamento estratégico dos líderes de segurança e TI, o problema de gerenciar o uso da IA internamente está longe de ser intransponível. O SASE (serviço de acesso seguro de borda) é uma arquitetura de rede popular baseada em nuvem que combina funções de rede e segurança em um serviço único e integrado, que fornece aos funcionários acesso seguro e eficiente à internet e a recursos corporativos, independentemente de sua localização. A arquitetura SASE pode ser estendida de forma eficaz para atender às necessidades de risco e segurança das organizações em um mundo de IA.
A plataforma SASE da Cloudflare está em uma posição privilegiada para ajudar as equipes de TI a gerenciar o uso da IA de forma segura e responsável, sem extinguir a inovação. O que diferencia a Cloudflare neste cenário é que somos um dos poucos fornecedores de SASE que atuam não só em cibersegurança, mas também em infraestrutura de IA. Isso inclui: fornecer infraestrutura de IA para desenvolvedores (por exemplo, Workers AI, AI Gateway, servidores MCP remotos, aplicativos de IA em tempo real) para proteger LLMs voltados para o público (por exemplo, Firewall for AI ou Labirinto para IA), para permitir que os criadores de conteúdo cobrem os crawlers de IA pelo acesso ao seu conteúdo, e a lista continua. Nossa experiência nesta área nos proporciona uma perspectiva única sobre como gerenciar o uso da IA dentro de uma organização. Também oferece aos nossos clientes a oportunidade de integrar diferentes componentes de nossa plataforma para criar sua infraestrutura de IA e segurança cibernética de IA.
Esta semana, estamos utilizando nossa expertise em IA para garantir que você tenha o que precisa para implementar uma estratégia de segurança de IA bem-sucedida. Como parte disso, anunciamos diversos novos recursos de gerenciamento de postura de segurança de IA (AI-SPM), incluindo:
Todos esses novos recursos de AI-SPM estão integrados diretamente na poderosa plataforma SASE da Cloudflare.
E estamos apenas começando. Nos próximos meses, você pode esperar o lançamento de recursos adicionais e valiosos de AI-SPM na plataforma da Cloudflare, à medida que continuamos investindo para tornar a Cloudflare o melhor lugar para proteger, conectar e criar com IA.
O que contém este guia de segurança de IA?
Neste guia, abordaremos as práticas recomendadas para adotar a IA generativa em sua organização usando a plataforma SASE (serviço de acesso seguro de borda) da Cloudflare. Começamos abordando como líderes de TI e segurança podem formular sua estratégia de segurança de IA. Em seguida, mostramos como implementar essa estratégia usando recursos já existentes em nossa plataforma SASE, juntamente com os novos recursos de AI-SPM que lançamos esta semana.
Este guia é dividido em três pilares principais para lidar com o acesso de funcionários (humanos) à IA: visibilidade, gerenciamento de riscos e proteção de dados, seguidos por diretrizes adicionais sobre a implantação de IA agêntica na empresa usando o MCP. Nosso objetivo é ajudar você a alinhar sua estratégia de segurança aos seus objetivos de negócios, impulsionando a adoção da IA em todos os seus projetos e equipes.
E fazemos tudo isso usando nossa plataforma SASE única, para que você não precise implantar e gerenciar uma combinação complexa de soluções pontuais e ferramentas de segurança. Na verdade, fornecemos uma visão geral de sua postura de segurança de IA em um único painel, como você pode ver aqui:
Relatório de segurança de IA na plataforma SASE da Cloudflare
Desenvolva sua estratégia de segurança de IA
A primeira etapa para proteger o uso da IA é definir o nível de tolerância ao risco de sua organização. Isso inclui identificar suas maiores preocupações de segurança com seus usuários e seus dados, juntamente com os requisitos legais e de conformidade relevantes. As questões relevantes a serem consideradas incluem:
Você possui dados confidenciais específicos que não devem ser compartilhados com certas ferramentas de IA? (Alguns exemplos incluem informações de identificação pessoal [PII], informações pessoais de saúde [PHI], dados financeiros confidenciais, segredos e credenciais, código-fonte ou outras informações comerciais proprietárias.)
Existem decisões de negócios que seus funcionários não devem tomar com assistência de IA? (Por exemplo, a Lei de IA da UE proíbe o uso de IA para avaliar ou classificar indivíduos com base em seu comportamento social, características pessoais ou traços de personalidade.)
Você está sujeito a estruturas de conformidade que exigem que você produza registros das ferramentas de IA generativa que seus funcionários usaram e, talvez, até mesmo os prompts que seus funcionários inserem nos provedores de IA? (Por exemplo, a HIPAA exige que as organizações implementem trilhas de auditoria que registram quem acessou PHI e quando; o RGPD exige o mesmo para informações de identificação pessoal; o SOC2 exige o mesmo para segredos e credenciais.)
Você tem requisitos específicos de proteção de dados que exigem que os funcionários usem a versão corporativa aprovada de um determinado provedor de IA generativa e evitem certas ferramentas de IA ou suas versões para consumidores? (As ferramentas de IA corporativas geralmente oferecem termos de serviço mais favoráveis, incluindo períodos de retenção de dados mais curtos, compartilhamento de dados mais limitado com terceiros e/ou a promessa de não usar as entradas dos usuários para treinar modelos de IA.)
Você exige que os funcionários evitem completamente o uso de certas ferramentas de IA, possivelmente porque são não confiáveis, não revisadas ou estão sediadas em uma região geográfica de risco?
Existem proteções de segurança oferecidas pelos provedores de IA aprovados de sua organização e até que ponto você planeja proteger contra configurações incorretas de ferramentas de IA que podem resultar em vazamentos de dados confidenciais?
Qual é a sua política em relação ao uso de agentes de IA autônomos? Qual é a sua estratégia para adotar o Model Context Protocol (MCP)? (O Model Context Protocol é uma forma padrão de disponibilizar informações para grandes modelos de linguagem (LLMs), semelhante à forma como funciona uma interface de programação de aplicativos (API). Ele é compatível com a IA agêntica que busca objetivos e age de forma autônoma.)
Embora quase todas as organizações tenham requisitos de conformidade relevantes que implicam o uso da IA generativa, não existe uma solução única para resolver essas questões
Algumas organizações têm mandatos para adotar amplamente ferramentas de IA de todos os tipos, enquanto outras exigem que os funcionários interajam apenas com ferramentas de IA aprovadas.
Algumas organizações estão adotando rapidamente o MCP, enquanto outras ainda não estão preparadas para que agentes interajam de forma autônoma com seus recursos corporativos.
Algumas organizações têm requisitos robustos em relação à prevenção contra perda de dados (DLP), enquanto outras ainda estão no início do processo de implantação de DLP em sua organização.
Mesmo com essa diversidade de objetivos e requisitos, o SASE da Cloudflare fornece uma plataforma flexível para a implementação da estratégia de segurança de IA de sua organização.
Crie uma base sólida para a segurança de IA
Para implementar sua estratégia de segurança de IA, primeiro você precisa de uma implantação de SASE sólida.
O SASE fornece uma plataforma unificada que consolida segurança e rede, substituindo um conjunto de soluções pontuais fragmentadas por uma plataforma única que controla a visibilidade de aplicativos, autenticação de usuários, prevenção contra perda de dados (DLP) e outras políticas de acesso à internet e acesso a recursos corporativos internos. O SASE é a base fundamental para uma estratégia de segurança de IA eficaz.
A arquitetura SASE permite que você execute sua estratégia de segurança de IA ao descobrir e inventariar as ferramentas de IA usadas por seus funcionários. Com essa visibilidade, você pode gerenciar proativamente os riscos e atender aos requisitos de conformidade, monitorando os prompts e as respostas de IA para entender quais dados estão sendo compartilhados com as ferramentas de IA. O DLP robusto permite que você verifique e bloqueie a inserção de dados confidenciais em ferramentas de IA, prevenindo o vazamento de dados e protegendo as informações mais valiosas de sua organização. Nosso gateway seguro da web (SWG) permite que você redirecione o tráfego de provedores de IA não aprovados para páginas de educação do usuário ou para provedores aprovados de IA corporativa. E nossa nova integração de ferramentas MCP em nossa plataforma SASE ajuda você a proteger a implantação de IA agêntica dentro de sua organização.
Se você está apenas começando sua jornada SASE, nosso Guia de implantação de tráfego seguro da internet é o melhor lugar para começar. Nesse guia, no entanto, vamos ignorar esses detalhes introdutórios e nos aprofundar diretamente no uso do SASE para proteger o uso da IA generativa.
Obtenha visibilidade do seu panorama de IA
Não é possível proteger aquilo que você não vê. A primeira etapa é obter visibilidade de seu panorama de IA, o que é essencial para descobrir e inventariar todas as ferramentas de IA que seus funcionários estão usando, implementando ou testando em sua organização.
A IA invisível refere-se ao uso de aplicativos de IA que não foram oficialmente aprovados pelo seu departamento de TI. A IA invisível não é um fenômeno incomum. A Salesforce descobriu que mais da metade dos trabalhadores do conhecimento pesquisados admitiram usar ferramentas de IA não aprovadas no trabalho. O uso de IA não aprovada não é necessariamente um sinal de intenção maliciosa. Muitas vezes os funcionários estão apenas tentando fazer melhor o seu trabalho. Como líder de TI ou segurança, seu objetivo deve ser descobrir a IA invisível e, em seguida, aplicar a política de segurança de IA apropriada. Existem duas maneiras eficazes de fazer isso: em linha e fora de banda.
Descubra o uso de IA pelos funcionários, em linha
A maneira mais direta de obter visibilidade é usando o Gateway seguro da web (SWG) da Cloudflare.
O SWG ajuda você a ter uma visão clara dos aplicativos de IA e chat, aprovados e não aprovados. Ao analisar o uso detectado, você obterá insights sobre quais aplicativos de IA estão sendo usados em sua organização. Este conhecimento é essencial para a criação de políticas que suportem ferramentas aprovadas e bloqueiem ou controlem as arriscadas. Esse recurso requer que você implemente o cliente WARP no modo proxy de Gateway nos dispositivos de seus usuários finais.
Você pode analisar o uso de aplicativos de IA de sua empresa usando nossa nova Biblioteca de aplicativos e painéis de TI invisível . Essas ferramentas permitem que você:
Analise o tráfego de dispositivos de usuários para entender quantos usuários interagem com um aplicativo específico ao longo do tempo.
Indique o status do aplicativo (por exemplo, Aprovado, Não aprovado) dentro de sua organização e use isso como entrada para diversas políticas de SWG que controlam o acesso a aplicativos com esse status.
Automatize a avaliação de aplicativos SaaS e de Gen AI em escala com as nossas pontuações de confiança de aplicativos da Cloudflare, que serão lançadas em breve.
Painel de controle de TI invisível mostrando a utilização de aplicativos com diferentes status (Aprovado, Não Aprovado, Em Análise, Não Analisado).
Descubra o uso de IA pelos funcionários, fora de banda
Mesmo que sua organização não use um cliente de dispositivo, você ainda pode obter dados valiosos sobre o uso da IA oculta se usar as integrações da Cloudflare do agente de segurança de acesso à nuvem (CASB) com serviços como Google Workspace, Microsoft 365 ou GitHub.
O CASB da Cloudflare fornece detalhes de alta fidelidade sobre seus ambientes SaaS, incluindo visibilidade de dados confidenciais e atividades suspeitas de usuários. Ao integrar o CASB ao seu provedor de SSO, você pode verificar se seus usuários se autenticaram em aplicativos de IA de terceiros, proporcionando uma visão clara e não invasiva do uso de aplicativos em toda a sua organização.
Uma integração API CASB com o Google Workspace, mostrando as descobertas filtradas para integrações de terceiros. As descobertas revelam múltiplas integrações de LLMs.
Implemente uma estrutura de gerenciamento de riscos de IA
Agora que você tem visibilidade do seu panorama de IA, a próxima etapa é gerenciar proativamente esse risco. A plataforma SASE da Cloudflare permite monitorar prompts e respostas de IA, aplicar políticas de segurança granulares, orientar usuários sobre comportamento seguro e evitar configurações incorretas em seus provedores de IA corporativos.
Detecte e monitore prompts e respostas de IA
Se você tiver a descriptografia TLS ativada em sua plataforma SASE, poderá obter insights novos e poderosos sobre como seus funcionários estão usando a IA com nosso novo recurso de proteção para prompts de IA.
A proteção para prompts de IA oferece visibilidade dos prompts e respostas exatos das interações de seus funcionários com aplicativos de IA compatíveis. Isso permite que você vá além de simplesmente saber quais ferramentas estão sendo usadas e fornece insights sobre exatamente que tipo de informação está sendo compartilhada.
Esse recurso também funciona com perfis de DLP para detectar dados confidenciais nos prompts. Você também pode escolher se deseja bloquear a ação ou simplesmente monitorá-la.
Entrada de log para um prompt detectado usando a proteção para prompts de IA.
Crie políticas de segurança de IA granulares
Depois que suas ferramentas de monitoramento fornecerem uma compreensão clara do uso da IA, você poderá começar a criar políticas de segurança para atingir seus objetivos. O Cloudflare Gateway permite que você crie políticas com base em categorias de aplicativos, status de aprovação de aplicativos, usuários, grupos de usuários e status do dispositivo. Por exemplo, você pode:
criar políticas para permitir explicitamente aplicativos de IA aprovados e bloquear aplicativos de IA não aprovados;
criar políticas para redirecionar usuários de aplicativos de IA não aprovados para um aplicativo de IA aprovado;
limitar o acesso a determinados aplicativos a usuários ou grupos específicos com posturas específicas de segurança do dispositivo;
criar políticas para permitir a captura imediata de prompts (com proteção para prompts de IA) para grupos específicos de usuários de alto risco, como prestadores de serviços ou novos funcionários, sem afetar o restante da organização; e
colocar determinados aplicativos atrás do isolamento do navegador remoto (RBI), para impedir que os usuários finais carreguem arquivos ou colem dados no aplicativo.
Seletor de política de status de aplicativos do Gateway
Todas essas políticas podem ser escritas no criador de políticas unificado do Cloudflare Gateway, facilitando a implantação de sua estratégia de segurança de IA em toda a organização.
Controle o acesso a LLMs internos
Você pode usar o Cloudflare Access para controlar o acesso de seus funcionários aos LLMs internos de sua organização, incluindo quaisquer modelos proprietários que você treinar internamente e/ou modelos que sua organização executa no Cloudflare Workers AI.
O Cloudflare Access permite controlar o acesso a esses LLMs usando políticas detalhadas, garantindo que os usuários recebam acesso com base em sua identidade, grupo de usuários, postura do dispositivo e outros sinais contextuais. Por exemplo, você pode usar o Cloudflare Access para escrever uma política que garanta que apenas determinados cientistas de dados em sua organização possam acessar um modelo do Workers AI que é treinado em determinados tipos de dados de clientes.
Gerencie a postura de segurança de provedores de IA de terceiros
Ao definir quais ferramentas de IA são aprovadas, você pode desenvolver controles de segurança funcionais para um uso consistente. A Cloudflare agora oferece suporte a integrações de API CASB com ferramentas populares de IA como OpenAI (ChatGPT), Anthropic (Claude) e Google Gemini. Essas integrações "fora de banda" fornecem visibilidade imediata sobre como os usuários estão interagindo com as ferramentas de IA aprovadas, permitindo que você relate as descobertas do gerenciamento de postura, incluindo:
Configurações incorretas relacionadas às configurações de compartilhamento.
Práticas recomendadas para gerenciamento de chaves de API.
Correspondências de perfil DLP em anexos enviados.
Recursos de IA mais arriscados (por exemplo, navegação na web e execução de código autônomos) que estão ativados
A integração API CASB da OpenAI exibe recursos mais arriscados ativados, riscos de postura de segurança, como credenciais de administradores não utilizadas, e um anexo carregado com uma correspondência de perfil DLP.
Adicione proteção de dados
A proteção de dados robusta é o pilar final que protege o acesso de seus funcionários à IA.
Nossa plataforma SASE há muito tempo oferece suporte a ferramentas de prevenção contra perda de dados (DLP) que verificam e bloqueiam a entrada de dados confidenciais em ferramentas de IA, para evitar vazamentos de dados e proteger as informações mais valiosas de sua organização. Você pode criar políticas que detectam dados confidenciais enquanto se adaptam aos padrões de tráfego específicos da organização e usar o criador de políticas unificado do Cloudflare Gateway para aplicá-las às interações de seus usuários com ferramentas de IA ou outros aplicativos. Por exemplo, você pode criar uma política de DLP que detecta e bloqueia o carregamento de um número de seguro social (SSN), número de telefone ou endereço.
Como parte do nosso novo recurso de proteção para prompts de IA, agora você também pode obter uma compreensão semântica das interações de seus usuários com provedores de IA compatíveis. Os prompts são classificados em linha em tópicos significativos e de alto nível, que incluem informações de identificação pessoal, credenciais e segredos, código-fonte, informações financeiras, violação de código/código malicioso e injeção de prompts/jailbreak. Em seguida, você pode criar políticas granulares em linha com base nessas classificações de tópicos de alto nível. Por exemplo, você pode criar uma política que impeça que um funcionário que não seja do RH envie um prompt com a intenção de receber informações de identificação pessoal da resposta, ao mesmo tempo em que permite que a equipe de RH o faça durante um ciclo de planejamento de remuneração.
Nosso novo recurso de proteção para prompts de IA permite que você aplique regras de DLP inteligentes e específicas para o usuário, capacitando suas equipes a realizar o trabalho, ao mesmo tempo em que fortalece sua postura de segurança. Para usar nosso recurso DLP mais avançado, você precisará habilitar a descriptografia TLS para inspecionar o tráfego.
A política acima bloqueia todos os prompts do ChatGPT que podem receber informações de identificação pessoal de volta na resposta para funcionários dos grupos de usuários de engenharia, marketing, produto e finanças .
MCP (Model Context Protocol) é um padrão de IA emergente, onde os servidores MCP atuam como uma camada de tradução para agentes de IA, permitindo que eles se comuniquem com APIs públicas e privadas, compreendam conjuntos de dados e executem ações. Como esses servidores são um ponto de entrada principal para os agentes de IA interagirem e manipularem seus dados, eles são um novo e crítico ativo de segurança para sua equipe de segurança gerenciar.
A Cloudflare já oferece um conjunto robusto de ferramentas para a implantação de servidores MCP remotos, um servidor baseado em nuvem que atua como uma ponte entre os dados e as ferramentas de um usuário e vários aplicativos de IA. Mas agora nossos clientes estão pedindo ajuda para proteger suas implantações corporativas de MCP.
É por isso que estamos tornando os controles de segurança do MCP uma parte essencial da nossa plataforma SASE.
Controle a autorização do MCP
Os servidores MCP normalmente usam o OAuth para autorização, onde o servidor herda as permissões do usuário que o autoriza. Embora isso esteja de acordo com o princípio do menor privilégio para o usuário, pode levar à proliferação de autorizações , em que o agente acumula um número excessivo de permissões ao longo do tempo. Isso faz do agente um alvo de alto valor para invasores.
O Cloudflare Access agora ajuda você a gerenciar a proliferação de autorizações aplicando os princípios de Zero Trust ao acesso ao servidor MCP. Um modelo Zero Trust pressupõe que nenhum usuário, dispositivo ou rede seja implicitamente confiável. Portanto, cada solicitação é continuamente verificada. Essa abordagem garante a autenticação e o gerenciamento seguros desses ativos críticos à medida que sua empresa adota fluxos de trabalho mais agênticos.
Centralize o gerenciamento de servidores MCP
O portal de servidores MCP da Cloudflare é um novo recurso na plataforma SASE da Cloudflare que centraliza o gerenciamento, a segurança e a observação dos servidores MCP de uma organização.
O portal de servidores MCP permite que você registre todos os seus servidores MCP na Cloudflare e forneça aos seus usuários finais um endpoint único e unificado do portal para configurar em seus clientes MCP. Essa abordagem simplifica a experiência do usuário, pois elimina a necessidade de configurar uma conexão individual entre cada cliente e servidor MCP. Isso também significa que novos servidores MCP se tornam dinamicamente disponíveis para os usuários sempre que são adicionados ao portal.
Além desses aprimoramentos de usabilidade, o portal de servidores MCP aborda os riscos de segurança significativos associados ao MCP na empresa. A abordagem atual de implantações de MCP descentralizada cria um emaranhado de conexões um-para-um não gerenciadas que são difíceis de proteger. A falta de controles centralizados cria uma variedade de riscos, incluindo injeção de prompts, injeção de ferramenta (onde código malicioso faz parte do próprio servidor MCP), ataques à cadeia de suprimentos e vazamento de dados.
Os portais de servidores MCP resolvem isso por meio do roteamento de todo o tráfego MCP pela Cloudflare, permitindo a aplicação centralizada de políticas, visibilidade e registro de logs abrangentes, e uma experiência de usuário otimizada com base no princípio do menor privilégio. Os administradores podem analisar e aprovar os servidores MCP antes de disponibilizá-los, e os usuários recebem apenas os servidores e as ferramentas que estão autorizados a usar, o que impede o uso de servidores de terceiros não verificados ou maliciosos.
Um portal de servidores MCP no painel da Cloudflare
Todos esses recursos são apenas o começo de nosso roteiro de segurança para MCP, à medida que continuamos aprimorando nosso suporte à infraestrutura e aos controles de segurança de MCP em toda a plataforma Cloudflare.
À medida que as organizações desenvolvem e implantam rapidamente suas estratégias de segurança de IA, a plataforma SASE da Cloudflare está posicionada de forma ideal para implementar políticas que equilibram a produtividade com os controles de dados e segurança.
Nosso SASE oferece um conjunto completo de recursos para proteger as interações dos funcionários com a IA. Alguns desses recursos estão profundamente integrados em nosso gateway seguro da web (SWG), incluindo a capacidade de escrever políticas de acesso refinadas, obter visibilidade da TI invisível e examinar as interações com ferramentas de IA usando a proteção para prompts de IA. Além desses controles em linha, nosso CASB oferece visibilidade e controle usando integrações de APIs fora de banda. Nosso produto Cloudflare Access pode aplicar os princípios Zero Trust e, ao mesmo tempo, proteger o acesso dos funcionários a LLMs corporativos hospedados no Workers AI ou em outro lugar. Integramos, recentemente, controles para proteger o MCP que também podem ser usados com a plataforma servidor MCP remoto da Cloudflare.
E todos esses recursos são integrados diretamente ao painel unificado do SASE da Cloudflare, fornecendo uma plataforma unificada para que você implemente sua estratégia de segurança de IA. Você pode até obter uma visão geral completa de todos os seus controles AI-SPM usando nosso painel de visão geral do AI-SPM recém-lançado.
Relatório de segurança de IA mostrando a utilização de aplicativos de IA.
Como um dos poucos fornecedores de SASE que também oferecem infraestrutura de IA, a plataforma SASE da Cloudflare também pode ser implementada em conjunto com produtos de nossas plataformas de segurança para desenvolvedores e aplicativos para implementar holisticamente sua estratégia de segurança de IA juntamente com sua estratégia de infraestrutura de IA (usando, por exemplo, Workers AI, AI Gateway, servidores MCP remotos, aplicativos de IA em tempo real, Firewall for AI, Labirinto para IA, ou pagamento por varredura).
Garantir que a IA seja escalável, segura e protegida é uma extensão natural da missão da Cloudflare, visto que grande parte de nosso sucesso depende de uma internet segura. À medida que a adoção da IA continua a acelerar, também se intensifica nossa missão de fornecer um conjunto de controles líder de mercado para o gerenciamento da postura de segurança de IA (AI-SPM). Saiba mais sobre como a Cloudflare ajuda a proteger a IA ou comece a explorar nossos novos recursos de AI-SPM no painel SASE da Cloudflare hoje mesmo!