ChatGPT 與 Bard 這類生成式 AI 迅速蔚為風潮,
然而大型語言模型卻讓組織面臨資料入侵或洩漏風險。

生成式 AI 的安全存取和強大 DLP

Forcepoint 針對生成式 AI,在任何裝置提供的資料安全措施與存取控制方式領先業界,
讓使用者不必涉險,就能其效益發揮得淋漓盡致。

資料安全措施
無所不在

雲端和網路
領先業界的資料安全措施

集中式原則
執行

精心策劃龐大
生成式 AI 應用程式的存取方式

安全可靠的
擴充性

利用 AWS 大型公有雲技術平台的
靈活彈性成長茁壯

資料安全措施就從 Data-first SASE 開始

Secure Access Service Edge (SASE) 簡化了存取控制與連線方式,為工作地點無所不在的員工(包括 AI 使用者)提供更強大的防護。

Forcepoint 的 Data-first SASE 架構統一執行原則,保護任何裝置上的敏感資料,讓安全措施更上層樓。因此,組織可以信心十足地整合生成式 AI 與完整即時的可見度。

使用 DLP 與 Forcepoint ONE 保護 ChatGPT 的資料。
使用 DLP 與 SSE 管理 ChatGPT 和 Bard 的存取權,並且保護資料安全無虞。

新一代影子 IT 風險

ChatGPT 和 Bard 可以超速執行財務分析,為軟體開發者編寫範例程式碼。然而,應用程式是透過與他們共用的資料學習,因此有可能造成資料洩漏或入侵。

Forcepoint 讓員工安全享有生成式 AI 的效益,而您則可:

  • 控制使用生成式 AI 的對象。
  • 防止上傳敏感檔案。
  • 將貼上敏感資訊這個動作封鎖。
使用 Forcepoint 封鎖敏感的上傳

使用適用於 ChatGPT 與 Bard 的 DLP 防止資料外洩

發現全組織的敏感資料並加以分類。

利用 1,700 多個隨裝即用的原則與分類器,防止資料遺失。

封鎖將敏感資訊複製貼上至網頁瀏覽器的動作。

使用統一原則管理,控制資料從生成式 AI 遺失。

Forcepoint ONE 結合 Forcepoint DLP,可保護 ChatGPT 的存取權,確保資料安全無虞。

使用 Forcepoint ONE 實現 AI 的可見性與控管

根據使用者、群組和其他標準,限制存取 AI 的權限。

指導訪客使用核准的 AI 應用程式,並且將他們重新導向。

安全管理龐大 AI SaaS 應用程式的使用方式。

利用以 AI 網站類別為基礎的全體覆蓋,涵蓋新興工具。

閱讀瞭解適用於 ChatGPT 與 Bard 等的 DLP

Unlock Productivity with ChatGPT and Forcepoint Data Security
Gartner®: 4 Ways Generative AI Will Impact CISOs and Their Teams report

常見問題集

 

生成式 AI 有哪些安全風險?

生成式 AI 對資料安全構成多種威脅。這些威脅包括資料洩漏、資料入侵,以及不遵守資料隱私權法。

ChatGPT 與 Bard 這類生成式 AI 應用程式都是 LLM,透過使用者輸入的資訊學習。舉例來說,如果使用者正在瀏覽關於併購活動目標的未公開資訊,那麼其他使用者的後續搜尋可能會揭示該資訊。

如果軟體工程師打算使用生成式 AI 為專有的軟體程式碼除錯,那麼智慧財產就有淪為公共領域之虞,或者是雪上加霜,落入競爭對手之手。同樣地,如果工程師打算用生成式 AI 編寫程式碼,那麼它就有可能包含惡意軟體,而且可能為攻擊者提供進入公司系統的後門。

最後,HIPAA 或 GDPR 這類資料隱私權法律,要求組織嚴密監控個人資料。利用生成式 AI 處理與個人識別資訊(PII)相關的任何工作,例如草擬關於客戶疑問的電子郵件回覆,可能使公司陷入不合規的風險,因為這類資訊可能洩漏或遭濫用。

生成式 AI 遭到惡意使用有哪些例子?

生成式 AI 可用於編寫惡意軟體,以及網路釣魚和魚叉式網路釣魚攻擊用的詐騙內容。此外,ChatGPT 這類生成式 AI 供應商也面臨資料入侵的風險,因此攻擊者可以存取使用者的敏感資料。

Forcepoint 的 Aaron Mulgrew 有一個使用生成式 AI 編寫惡意軟體的例子。儘管 ChatGPT 已經有防止這種情況發生的安全措施,但 Mulgrew 還是成功讓 ChatGPT 編寫了惡意程式碼

您如何保護生成式 AI 中的敏感資料?

生成式 AI 資料安全措施,需要即時存取管理搭配強大的資料控管。

使用 Forcepoint ONE SSE 這類平台,組織可以將存取生成式 AI 工具的權限,提供給獲得核准可以使用這些工具的有限員工。這些原則可以實作於管理型和非管理型裝置,為公司提供廣泛的控管方式。

有了 Forcepoint DLP,ChatGPT 和 Bard 使用者與平台分享的資訊將受到限制,以防資料意外洩漏。限制範圍包括,防止將社會安全號碼這類敏感資訊貼上至應用程式。

生成式 AI 如何影響網路安全的威脅情境?

網路安全威脅情境瞬息萬變,雖然生成式 AI 依舊屬於新風險,不過現有技術能夠降低風險。

生成式 AI 最大的風險在於,淪為資料洩漏或資料入侵的另一個途徑,與企業日常使用的任何其他 SaaS 應用程式差異不大。如果員工正使用敏感資料處理敏感資料,那麼資料入侵或濫用這類資料,可能會影響公司的安全態勢。

將 ChatGPT 與 Bard 這類生成式 AI 工具視為影子 IT,是邁向正確方向的第一步。定義誰才能使用應用程式,並且建立原則,讓這些群組可以存取工具,同時防範不應存取工具的人。此外,引進強大的資料控管方式,確保敏感資料留在組織。

大型語言模型是什麼,它們對資料構成哪些安全風險?

ChatGPT 這類生成式 AI 應用程式,使用大型語言模型建立及訓練。這些演算法模型讓平台能夠從大型資料庫擷取及學習,為平台提供的知識、內容與正確性,符合使用者對 AI 聊天機器人的期待。

然而,由於生成式 AI 建置於大型語言模型,因此它會持續從饋送至模型的資訊學習。它會不斷學習,持續將內容套用至互動的新資訊,因此它能一直提供兼具時效與相關性的答案。

這對您的業務構成了重大風險。與 AI 聊天機器人分享專有或敏感資訊時,兩個風險途徑隨之而來。其一是,應用程式將該資訊視為公共知識,而且日後收到提示時,便會分享這項資訊。第二個疑慮則是,推出生成式 AI 工具的公司本身遭到入侵時,與工具分享的資訊隨即外洩。

 

生成式 AI 是否會用我們的資料訓練模型?

在預設狀態下,操作時應假設 ChatGPT 和 Bard 這類生成式 AI 應用程式可能會用您輸入的資料改善模型。然而,您不妨再與您使用的特定平台確認。

這份資料收集時連帶還包含其他大量資訊,例如您使用的裝置、存取裝置的地點,以及與帳戶相關的任何詳細資料。視供應商而定,應用程式使用資料訓練的功能,通常可以在設定關閉。

這是與 AI 分享敏感資訊的主要風險之一。若未採取適當的預防措施,即與應用程式分享敏感的公司資訊,例如產品發表未來的上市策略,這可能導致這項資訊曝光。

Forcepoint 資料安全措施可限制權限,只允許訓練有素可安全使用應用程式的使用者存取,或是阻擋將資訊貼至應用程式的行為,協助防範這類情況。

 

如果供應商遭到入侵,我們的資料遭竊呢?

生成式 AI 應用程式必須視同數位供應鏈的其他任何第三方供應商。如果平台發生資料外洩,那麼您輸入的資料就可能面臨風險。因此,公司必須針對生成式 AI 制定嚴格的合規使用原則,確保資料不會意外面臨風險。

 

資料隱私權與法規要求如何套用於生成式 AI?

所有組織都有責任遵守隱私權法規。將資料輸入生成式 AI 應用程式時,個人有可能分享 PII、PHI 和其他受監管的資訊類型。

與生成式 AI 應用程式分享私人資訊屬於資料外洩的一種形式,且受隱私權法規約束。組織為了符合法規,必須備妥強大的資料安全工具,防範分享這類資訊的行為。

 

我們是否需要針對生成式 AI 制定新的資料安全原則?

所有公司都應審視員工現行或可能與生成式 AI 互動的方式、那些互動構成的風險類型,以及組織可如何防範資格不符的使用者存取敏感資訊,並與生成式 AI 分享。

企業務必全面掌握使用者存取生成式 AI 的情況,並且控管使用者互動的資料,情況與任何其他 SaaS 應用程式相似。掌握及控管方式多半涉及依照職務、裝置或地點進行 URL 篩選,並且需要防範任何法規遵循違規情事的資料安全原則。

 

與專家討論如何保護 ChatGPT、Bard 與生成式 AI 工具