ChatGPT 和 Bard 这类的生成式人工智能迅速普及,
但大型语言模型使组织面临数据外泄或泄露的风险。
面向生成式人工智能的安全访问和强大 DLP
Forcepoint 能够在任何设备上为生成式人工智能提供行业领先的数据安全和访问控制,
使用户能够在没有任何风险的情况下最大程度地发挥其优势。
Data-First SASE 是数据安全的基础
安全访问服务边缘 (SASE) 简化了访问控制和连接,为异地办公的员工(包括人工智能用户)提供更好的安全保障。
Forcepoint 的 Data-First SASE 架构通过全面实施的策略保护所有设备上的敏感数据,使安全保障更进一步。这样,组织可以充满信心地将生成式人工智能与全面的实时可见性集成在一起。


下一代影子 IT 风险
ChatGPT 和 Bard 可以超高速运行财务分析,为软件开发人员创建示例代码。但这些应用程序从与其共享的数据中学习,可能会造成数据泄露或外泄。
使用 Forcepoint,您的员工可以在安全的前提下从生成式人工智能中受益,同时您还可以:
- 控制谁可以使用生成式人工智能。
- 防止敏感文件被上传。
- 防止敏感信息被粘贴。

利用面向 ChatGPT 和 Bard 的 DLP 阻止数据泄漏
发现组织的敏感数据并对其进行分类。
利用 1,600+ 种立即可用的策略和分类器防止数据泄露。
防止敏感信息被复制和粘贴到 Web 浏览器。
使用统一策略管理,避免因生成式人工智能导致的数据泄露。

利用 Forcepoint ONE 实现人工智能可见性和控制
根据用户、群组和其他标准限制对人工智能的访问。
指导访问者使用经过批准的人工智能应用程序并对他们进行重定向。
以安全方式管理数千种人工智能 SaaS 应用程序的使用。
根据人工智能网站类别,全面覆盖新兴工具。
SSE 平台深入了解 Forcepoint ONE
常见问题
生成式人工智能有哪些安全风险?
生成式人工智能会对数据安全构成多种威胁。这些威胁包括数据泄露、数据外泄和数据隐私法违法行为。
ChatGPT 和 Bard 等生成式人工智能应用程序是从用户输入的信息中学习的大型语言模型。例如,如果用户正在查看尚未公开的合并和收购活动目标的相关信息,其他用户进行的后续搜索可能就会暴露这些信息。
如果软件工程师计划使用生成式人工智能调试专有软件代码,那么该知识产权将面临进入公共领域的风险,甚至会被竞争对手使用。与此类似,如果工程师计划使用生成式人工智能编写代码,代码可能会包含恶意软件,为攻击者提供一个进入公司系统的后门。
最后,HIPAA 或 GDPR 等数据隐私法要求组织严密保护个人数据。使用生成式人工智能进行与个人身份信息 (PII) 相关的任何操作,例如起草有关客户查询的电子邮件回复,可能会使公司面临不合规的风险,因为这些信息可能会被泄露或滥用。
生成式人工智能被恶意使用的例子有哪些?
生成式人工智能可能会被用于编写恶意软件和恶意内容,进行网络钓鱼和鱼叉式网络钓鱼攻击。ChatGPT 等生成式人工智能供应商也面临数据外泄的风险,使攻击者能够访问来自用户的敏感数据。
生成式人工智能被用于开发恶意软件的一个例子是 Forcepoint 的 Aaron Mulgrew。Mulgrew 能够让 ChatGPT 编写恶意代码,尽管 ChatGPT 已经为了避免这种情况而制定了防护措施。
如何保护生成式人工智能中的敏感数据?
生成式人工智能数据安全需要实时访问控制和强大的数据控制。
在 Forcepoint ONE SSE 等平台上,组织可以向已获得使用许可的有限员工群体提供生成式人工智能工具的访问权限。这些策略可以在托管和非托管设备上实施,为公司提供全面控制。
借助 Forcepoint DLP,ChatGPT 和 Bard 用户可与平台共享的信息将受到限制,防止数据意外泄露。这包括防止社会保障号码等敏感信息被粘贴到应用程序。
生成式人工智能对网络安全的威胁形势有何影响?
网络安全威胁形势在不断演变。虽然生成式人工智能是一种新的风险,但现有技术可以减轻这种风险。
生成式人工智能最容易成为数据泄露或数据外泄的另一种途径,与企业日常使用的任何其他 SaaS 应用程序没有太大的不同。如果员工在生成式人工智能中使用敏感数据,这些数据外泄或滥用可能会影响公司的安全态势。
将 ChatGPT 和 Bard 等生成式人工智能工具视为影子 IT 来应对是朝着正确方向迈出的第一步。定义哪些人可以使用这些应用程序,构建允许这些群体访问这些工具并阻止其他人访问的策略。 此外,还需要实施强大的数据控制,确保敏感数据不会泄露到组织外部。
什么是大型语言模型?它们会对数据构成哪些安全风险?
ChatGPT 等生成式人工智能应用程序是基于大型语言模型而构建和训练的。这些算法模型使平台能够从大型数据库中获取数据并从中学习,为它们提供用户希望人工智能聊天机器人应该提供的知识、上下文和准确度。
但正因生成式人工智能是基于大型语言模型而构建的,它会持续从输入信息中学习。它不断学习上下文,并将其应用于与它交互的新信息,确保答案的时效性和相关性。
这会对您的业务构成重大风险。与人工智能聊天机器人分享专有或敏感信息会带来两种风险途径。一种是应用程序将该信息视为公开信息,并在未来被提示时分享它。另一种是生成式人工智能工具本身背后的公司遭到入侵,与其共享的信息也遭到泄露。
生成式 AI 是否会使用我们的数据来训练其模型?
在默认情况下,我们假设 ChatGPT 和 Bard 等生成式 AI 应用程序可能会使用您输入的数据来改进其模型。但是,您需要仔细核查您使用的具体平台。
收集这些数据的同时还会收集许多其他信息,如您正在使用的设备、访问的位置以及与您的账户相关的任何详细信息。通常可以在设置中关闭应用程序训练数据的功能,具体因供应商而异。
这是与 AI 共享敏感信息的其中一个主要风险。如果不采取适当的预防措施,与应用程序共享公司的敏感信息,如即将推出的产品的上市策略,可能会导致此信息实际上遭到公开。
Forcepoint 数据安全解决方案,通过将数据访问权限仅限于接受过应用程序安全使用培训的用户,或通过阻止将信息粘贴到该应用程序中,可帮助防止上述情形。
如果提供商遭到入侵,导致我们的数据被盗该怎么办?
我们必须像对待数字供应链中的任何其他第三方供应商一样对待生成式 AI 应用程序。如果平台数据外泄,那么您输入的信息就可能面临风险。正因如此,公司必须围绕生成式 AI 制定严格的可接受使用策略,确保数据不会意外面临风险。
数据隐私和监管要求如何适用于生成式 AI?
所有组织均有责任遵守隐私法规。在向生成式 AI 应用程序输入数据时,个人可能会分享 PII、PHI 及其他类型的受监管信息。.
与生成式 AI 应用程序共享私人信息是一种数据泄漏的形式,属于隐私法规监管范围。为了保持合规,组织必须部署强大的数据安全工具,防止此类信息被共享。
我们是否需要针对生成式 AI 制定全新的数据安全策略?
所有公司均应审查员工是否已经或可能与生成式 AI 进行交互,这些交互会带来哪些类型的风险,以及组织如何防止无权限的用户访问敏感信息并与生成式 AI 共享此类信息。
与任何其他 SaaS 应用程序一样,公司应确保它们可以充分监控用户对生成式 AI 的访问,并控制他们交互的数据。在大多数情况下,这涉及按工作角色、设备或位置进行 URL 过滤,还涉及数据安全策略,以防任何违规行为。
与专家讨论如何保障 ChatGPT、Bard 和生成式人工智能工具的安全性
