ChatGPTやBardなどの生成AIの人気が急速に高まっていますが、
大規模言語モデルは組織をデータ漏洩のリスクにさらします。

生成AIのための安全なアクセスと強固なDLP

Forcepointは、生成AI向けにあらゆるデバイスに対して業界をリードするデータセキュリティとアクセス制御を提供しており、
ユーザーはリスクを伴わずにメリットを最大限に活用することができます。

あらゆる場所で
データセキュリティを確保

クラウドやウェブ全体で
業界をリードするデータセキュリティを確保

一元化された
ポリシーの施行

数千におよぶ生成AIアプリケーションへの
アクセスを制御

信頼できるスケーラビリティ

AWSハイパースケーラーをベースにした
プラットフォームの拡張性で成長

Data-First SASEから始まるデータセキュリティ

Secure Access Service Edge (SASE) では、アクセス制御と接続を簡素化することで、任意の場所で作業する従業員を (AIユーザーも含めて) 安全に保護します。

ForcepointのData-First SASEアーキテクチャではこれを更に一歩推し進めており、あらゆるデバイス上の機密データを保護するためのポリシーを例外なく全体に適用します。その結果、組織はリアルタイムで完全に可視化された生成AIを自信を持って統合できるようになります。

DLPとForcepoint ONEを使用すれば、ChatGPT上のデータを保護することができます。
DLPとSSEを使用して、ChatGPTやBard内のデータへのアクセスを管理して、データを保護することができます。

シャドーITにおける次世代のリスク

ChatGPTとBardでは、超高速で財務分析を実行したり、ソフトウェア開発者向けにサンプルコードを作成したりすることができます。 しかしながら、アプリケーションは共有されているデータから学習しているため、データ漏洩や違反の可能性も生まれます。

Forcepointでは、従業員が安全に生成AIの恩恵を受けられるようにする一方

  • 生成AIの使用者を管理します。
  • 機密ファイルのアップロードを防止します。
  • 機密情報の貼り付けをブロックします。
Forcepointで機密性の高いアップロードをブロック

ChatGPTおよびBard向けのDLPでデータ漏洩を防止

組織全体に存在する機密データを検出して分類します。

1,700を超える直ぐに利用できるポリシーと分類子を活用して、データ損失を防止します。

ウェブブラウザへの機密情報のコピーおよび貼り付けをブロックします。

統合されたポリシー管理を使用して、生成AIを通じてデータ損失を管理します。

Forcepoint ONEをForcepoint DLPと組み合わせることで、ChatGPT上へのアクセスを保護し、データを保護することができます。

Forcepoint ONEでAIを可視化して管理

ユーザー、グループおよびその他の基準に基づいて、AIへのアクセスを制限します。

ユーザーに対して、承認されたAIアプリケーションの使用を指導して、リダイレクトします。

数千におよぶAI SaaSアプリケーションの使用を安全に管理します。

AIウェブサイトのカテゴリに基づいて、新しいツールを包括的にカバーします。

SSEプラットフォームForcepoint ONEについて

ChatGPT、Bardなど向けのDLPについて読む 

Unlock Productivity with ChatGPT and Forcepoint Data Security
Gartner®: 4 Ways Generative AI Will Impact CISOs and Their Teams report

よくある質問

 

生成AIにおけるセキュリティリスクとは何ですか?

生成AIは、データのセキュリティに対していくつかの脅威をもたらします。 これには、データ漏洩、データ侵害、データプライバシー法に対する違反などが含まれます。

ChatGPTやBardなどの生成AIアプリケーションは、ユーザーが入力する情報から学習するLLM(大規模言語モデル)です。 例えば、あるユーザーがまだ公開されていない合併や買収の対象に関する情報を確認していたとすると、その後で、他のユーザーが検索をした時にその情報が表示される場合があります。

ソフトウェアエンジニアが、生成AIを使用して自社のソフトウェアコードをデバッグした場合には、その知的財産が公共にさらされるリスクがあり、さらに悪い場合には、競合他社に見られる可能性もあります。 同様に、エンジニアが生成AIを使用してコードを作成した場合、マルウェアを含ませてしまう可能性があり、攻撃者に企業のシステムへのバックドアを提供する恐れがあります。

また、HIPAAやGDPRなどのデータプライバシー法では、組織が個人データを厳密に保護することが義務付けられています。 お客様からの問い合わせに対する電子メールでの応答の草案など、個人を特定できる情報 (PII) に関連した事項に生成AIを使用すると、その情報が漏洩したり悪用される可能性があるため、コンプライアンス違反のリスクにさらされる恐れがあります。

生成AIが悪用される例は何ですか?

フィッシング攻撃やスピアフィッシング攻撃のためのマルウェアコンテンツやスプールコンテンツを作成するために、生成AIが使用される可能性があります。ChatGPTなどの生成AIベンダーもデータ漏洩のリスクにさらされており、攻撃者がユーザーから提供される機密データにアクセスする恐れがあります。

生成AIがマルウェアの作成に使用される例としては、ForcepointのAaron Mulgrewが得た経験が挙げられます。Mulgrewは、ChatGPTに悪意のあるコードを作成させることに成功しました。ChatGPTには、このような事態を防ぐための保護策が講じられているにもかかわらずです。

生成AI内の機密データを保護するにはどうすればよいですか?  

生成AIのデータセキュリティには、リアルタイムのアクセス制御と堅牢なデータ管理の両方が必要となります。 

Forcepoint ONE SSEなどのプラットフォームでは、生成AIツールへのアクセスを、使用が承認されている限られた従業員グループのみに制限することができます。 これらのポリシーは、管理対象デバイスと管理されていないデバイスの両方に実装できるため、企業は幅広い管理を行うことができます。

Forcepoint DLPでは、ChatGPTおよびBardを使用するユーザーは、プラットフォームで共有できる情報が制限されており、偶発的なデータ漏洩を防止しています。 これには、社会保障番号などの機密情報をアプリケーションに貼り付ける行為を防止するなどの対策も含まれています。

生成AIは、サイバーセキュリティにおける脅威の状況にどのような影響を与えますか? 

サイバーセキュリティにおける脅威の状況は絶えまなく進化しており、生成AIは新しいリスクではありますが、それを緩和する既存のテクノロジーも存在します。

生成AIでは、データ漏洩やデータ違反のリスクが最も高く、企業で日常的に使用されている他のSaaSアプリケーションとそれほど違いはありません。 従業員が、機密データが含まれる生成AIを活用している場合、データ漏洩やデータの悪用が、企業のセキュリティ対策に影響を与える可能性があります。

ChatGPTやBardなどの生成AIツールをシャドーITとして扱うことが、正しい方向性への第一歩となります。 アプリケーションを使用できるユーザーを定義し、これらのグループがツールにアクセスできるようにするポリシーを構築することで、それ以外のユーザーが使用できないように防止します。 さらに、強力なデータ管理を導入して、機密データが組織内に確実に留まるようにします。

大規模言語モデルとは?また、データにどのようなセキュリティリスクが伴いますか?

ChatGPTなどの生成AIアプリケーションは、大規模言語モデルに基づいて構築およびトレーニングされています。 このアルゴリズムモデルを通して、プラットフォームは大規模なデータベースから情報を吸収して学習しており、ユーザーがAIチャットボットに期待する知識、コンテキスト、正確性を提供します。

しかしながら、生成AIは大規模言語モデルに基づいて構築されているため、入力された情報を継続的に吸収して学習します。 相互にやり取りする新しい情報を継続的に学習してコンテキストを適用することで、常に新鮮で関連性のある回答を提供することができます。

これは、ビジネスに重大なリスクをもたらします。 専有情報や機密情報をAIチャットボットと共有することで、リスクを伴う2つの可能性が生まれます。 1つは、アプリケーションがその情報を公開情報として認識し、将来要求されたときに共有することです。 2つ目の懸念は、生成AIツールを採用している企業自体が侵害され、その企業と共有される情報が漏洩することです。

 

生成AIは、私たちのデータを使用してモデルをトレーニングしますか?

デフォルトでは、ChatGPTやBardなどの生成AIアプリケーションは、入力されたデータを使用してモデルを改善する可能性が高いと想定して運用する必要があります。 ただし、使用する特定のプラットフォームについても再確認する必要があります。

このデータは、使用されているデバイス、アクセスしている場所、およびその他のアカウントに関連付けられた詳細など、他の多くの情報とともに収集されます。 アプリケーションがデータからトレーニングする機能は、ベンダーにもよりますが、通常は設定から無効にすることができます。

これは、機密情報をAIと共有する際の主なリスクの1つです。 製品発売に向けた今後の市場投入戦略などの機密性の高い企業情報をアプリケーションと共有すると、適切な予防策を講じていない場合、その情報が公開される可能性があります。

Forcepoint データセキュリティでは、アプリケーションを安全に使用するためのトレーニングを受けたユーザーのみがアクセスできるように制限するか、あるいはアプリケーションへの情報の貼り付けをブロックすることで、この問題を防止しています。

 

プロバイダーが侵害を受けて、私たちのデータが盗まれた場合はどうなりますか?

生成AIアプリケーションは、デジタルサプライチェーン内の他のサードパーティベンダーと同じ様に扱う必要があります。プラットフォームがデータ侵害を受けると、そのプラットフォームに入力された情報がリスクにさらされる可能性があります。 このため、企業は、生成AIに関連した厳格な許容できる使用ポリシーを構築して、データが予期せずリスクにさらされないようにする必要があります。

 

生成AIでは、データプライバシーと規制要件はどのように適用されますか?

すべての組織には、プライバシー規制を遵守する責任があります。 生成AIアプリケーションにデータを入力する際に、個人がPII、PHI、およびその他の規制されている種類の情報を共有する可能性があります。

生成AIアプリケーションでの個人情報の共有はデータ漏えいの一種であり、プライバシー規制の対象となります。組織がコンプライアンスを維持するためには、このようなタイプの情報の共有を防止する強力なデータセキュリティツールを導入する必要があります。

 

生成AIに特化した新しいデータセキュリティポリシーが必要ですか?

すべての企業が、従業員がすでにおこなっている、または今後おこなう可能性のある生成AIとのやり取り方法や、これらのやり取りからもたらされるリスクの種類、および、資格のないユーザーが生成AIで機密情報にアクセスし共有しないように防止する方法について検討する必要があります。

他のSaaSアプリケーションと同様に、企業は生成AIにアクセスするユーザーを完全に把握し、やり取りするデータを管理する必要があります。 ほとんどの場合、これには、職務、デバイスまたは場所ごとのURLフィルタリングや、あらゆるコンプライアンス違反を防止するためのデータセキュリティポリシーが必要となります。

 

ChatGPT、Bard、生成AIツールの保護についてエキスパートに相談する