ارتفعت شعبية الذكاء الاصطناعي التوليدية مثل ChatGPT و Bard بسرعة، لكن النماذج اللغوية الكبيرة
تضع المؤسسات في خطر خرق البيانات أو تسريبها.

الوصول الآمن و DLP القوي للذكاء الاصطناعي التوليدي

توفر Forcepoint أمان البيانات الرائد في المجال والتحكم في الوصول على أي جهاز للذكاء الاصطناعي التوليدي،
مما يتيح للمستخدمين تحقيق أقصى قدر من الفوائد دون التعرض للمخاطر.

أمن البيانات
في كل مكان

أمن البيانات الرائد في المجال
عبر الخدمة السحابية والويب

الإنفاذ المركزي
للسياسات

تنظيم الوصول إلى الآلاف
من تطبيقات الذكاء الاصطناعي التوليدية

قابلية التوسع
بكل ثقة

التطور مع مرونة المنصة القائمة
على AWS hyperscaler

يبدأ أمان البيانات مع Data-First SASE  

تعمل خدمة الوصول الآمن (SASE) على تبسيط التحكم في الوصول والاتصال لتوفير عمل آمن بشكل أفضل من أي مكان للموظفين - بما في ذلك مستخدمي الذكاء الاصطناعي.

تدفع بنية Data-First SASE في Forcepoint هذه الخطوة إلى الأمام من خلال فرض السياسات عالميًا لتأمين البيانات حساسة على أي جهاز. ونتيجة لذلك، يمكن للمنظمات دمج الذكاء الاصطناعي التوليدي بثقة مع الرؤية الكاملة في الوقت الفعلي.

حماية البيانات على ChatGPT باستخدام DLP و Forcepoint ONE.
إدارة الوصول والبيانات الآمنة في ChatGPT و Bard باستخدام DLP و SSE.

الجيل القادم من مخاطر تكنولوجيا المعلومات في الظل 

يمكن لـ ChatGPT و Bard تشغيل التشويه المالي في السرعة الفائقة وإنشاء رمز نموذجي لمطوري البرامج. لكن التطبيقات تتعلم من البيانات التي تتم مشاركتها معها، مما يخلق إمكانية تسرب البيانات أو خرقها.

تمكّن Forcepoint موظفيك من الاستفادة بأمان من الذكاء الاصطناعي التوليدي، في حين: 

  • التحكم في من يستخدم الذكاء الاصطناعي التوليدي. 
  • منع تحميل الملفات الحساسة. 
  • حظر لصق المعلومات الحساسة. 
حظر تحميل البيانات الحساسة باستخدام Forcepoint

إيقاف تسرب البيانات مع DLP لـ ChatGPT و Bard

اكتشاف البيانات الحساسة وتصنيفها في جميع أنحاء المنظمة.

استخدم أكثر من 1700 سياسة وأداة تصنيف متفردة لإيقاف فقدان البيانات.

حظر نسخ ولصق المعلومات الحساسة في متصفحات الويب.

استخدام إدارة السياسة الموحدة للتحكم في فقدان البيانات من خلال الذكاء الاصطناعي التوليدي.

يحمي Forcepoint ONE، إلى جانب Forcepoint DLP، الوصول إلى البيانات وتأمينها على ChatGPT.

الرؤية والتحكم في الذكاء الاصطناعي باستخدام Forcepoint ONE

تقييد الوصول إلى الذكاء الاصطناعي استنادًا إلى المستخدمين والمجموعات والمعايير الأخرى.

تدريب الزوار على استخدام تطبيقات الذكاء الاصطناعي المعتمدة وإعادة توجيهها.

إدارة الاستخدام الآمن لآلاف تطبيقات AI SaaS.

تغطية الأدوات الناشئة بتغطية شاملة تستند إلى فئة موقع الذكاء الاصطناعي.

اقرأ حول DLP لـ ChatGPT و Bard والمزيد 

Unlock Productivity with ChatGPT and Forcepoint Data Security
Gartner®: 4 Ways Generative AI Will Impact CISOs and Their Teams report

الأسئلة الشائعة

 

ما هي المخاطر الأمنية للذكاء الاصطناعي التوليدي؟  

يشكل الذكاء الاصطناعي التوليدي العديد من التهديدات لأمن البيانات. وتشمل تلك التهديدات التسرب وخرق البيانات وعدم الامتثال لقوانين خصوصية البيانات. 

تطبيقات الذكاء الاصطناعي التوليدية مثل ChatGPT و Bard هي وحدات LLM التي تتعلم من المعلومات التي يضعها المستخدمون. إذا كان المستخدم يراجع، على سبيل المثال، المعلومات حول النشاط المستهدف من الاندماج والاستحواذ الذي لم يتم نشره بعد، فقد تكشف عمليات البحث اللاحقة من المستخدمين الآخرين عن تلك المعلومات. 

إذا كان مهندس البرمجيات سيستخدم الذكاء الاصطناعي التوليدي لتصحيح شفرة البرمجيات الاحتكارية، فإن الملكية الفكرية ستكون عرضة لخطر أن تصبح ملكية عامة - أو ما هو أسوأ، ينتهي بها المطاف إلى منافس. وبالمثل، إذا كان المهندس يستخدم الذكاء الاصطناعي التوليدي لكتابة التعليمات البرمجية، فقد يحتوي على برامج ضارة يمكن أن توفر للمهاجم بابًا مستترًا في نظام الشركة. 

وأخيرًا ، تحمي قوانين خصوصية البيانات مثل HIPAA أو GDPR المنظمات البيانات الشخصية عن كثب. إن استخدام الذكاء الاصطناعي التوليدي لأي شيء يتعلق بمعلومات التعريف الشخصية (PII)، مثل صياغة رد بريد إلكتروني حول استعلام العميل، يمكن أن يعرض الشركة لخطر عدم الامتثال لأن هذه المعلومات يمكن أن يتم تسريبها أو إساءة استخدامها.

ما هي أمثلة الذكاء الاصطناعي التوليدي المستخدم بشكل ضار؟  

يمكن استخدام الذكاء الاصطناعي التوليدي لكتابة البرامج الضارة والمحتوى المفصول لهجمات التصيد الاحتيالي والتصيد الاحتيالي. كما يتعرض بائعو الذكاء الاصطناعي التوليدي مثل ChatGPT لخطر خرق البيانات، مما يمنح المهاجمين إمكانية الوصول إلى بيانات حساسة من المستخدمين. 

أحد الأمثلة على الذكاء الاصطناعي التوليدي المستخدم لإنشاء البرامج الضارة هو من آرون مالغرو في Forcepoint. كان مالغرو قادرًا على الحصول على ChatGPT لكتابة التعليمات البرمجية الضارة، على الرغم من وجود ضمانات في مكان لمنع حدوث ذلك.

كيف يمكنك حماية البيانات الحساسة في الذكاء الاصطناعي التوليدي؟  

يتطلب أمان بيانات الذكاء الاصطناعي التوليدي كلاً من التحكم في الوصول في الوقت الفعلي وضوابط قوية للبيانات.   

في منصة مثل Forcepoint ONE SSE، يمكن للمنظمات توفير الوصول إلى أدوات الذكاء الاصطناعي التوليدية لمجموعات محدودة من الموظفين الذين تمت الموافقة على استخدامها. يمكن تنفيذ هذه السياسات على كل من الأجهزة المدارة وغير المدارة، مما يمنح الشركات نطاقًا واسعًا من التحكم. 

باستخدام Forcepoint DLP، سيكون مستخدمو ChatGPT و Bard محدودين في المعلومات التي يمكنهم مشاركتها مع المنصات لمنع تسرب البيانات غير المقصود. ويشمل ذلك منع لصق معلومات حساسة، مثل أرقام الضمان الاجتماعي، في التطبيق.

كيف يؤثر الذكاء الاصطناعي التوليدي على مشهد التهديدات في الأمن السيبراني؟   

يتطور مشهد تهديدات الأمن السيبراني باستمرار، وفي حين أن الذكاء الاصطناعي التوليدي يمثل خطرًا جديدًا، فهناك تقنيات موجودة للتخفيف منه.

يعد الذكاء الاصطناعي التوليدي أكثر عرضة لخطر كونه وسيلة أخرى لتسرب البيانات أو خرق البيانات - لا يختلف كثيرًا عن أي من تطبيقات SaaS الأخرى التي تستخدمها الشركات على أساس يومي. إذا كان الموظفون يعملون من الذكاء الاصطناعي التوليدي مع بيانات حساسة، فقد يؤثر خرق البيانات أو إساءة استخدام تلك البيانات على الموقف الأمني للشركة.

تعد معالجة أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT و Bard كتقنية معلومات ظل هي الخطوة الأولى في الاتجاه الصحيح. تحديد من ينبغي أن يكون قادراً على استخدام التطبيقات وبناء السياسات التي تمكن هذه المجموعات من الوصول إلى الأدوات - ومنع أولئك الذين لا ينبغي لهم ذلك. علاوة على ذلك، إدخال ضوابط قوية على البيانات لضمان بقاء البيانات الدقيقة داخل المنظمة.

ما هي النماذج اللغوية الكبيرة وما هي المخاطر الأمنية التي تشكلها على البيانات؟

يتم بناء تطبيقات الذكاء الاصطناعي التوليدي مثل ChatGPT وتدريبها على نماذج اللغة الكبيرة. تمكن هذه النماذج الخوارزمية المنصات من استيعاب قواعد البيانات الكبيرة والتعلم منها، مما يمنحها المعرفة والسياق والدقة التي يتوقعها المستخدمون من روبوتات الدردشة للذكاء الاصطناعي.

ولكن نظرًا لأن الذكاء الاصطناعي التوليدي مبني على نماذج لغوية كبيرة، فإنه يستمر في التعلم من المعلومات التي يتم إدخالها فيه. فهو يتعلم باستمرار ويطبق السياق على المعلومات الجديدة التي يتفاعل معها، مما يتيح لإجاباتها البقاء طازجة وذات صلة.

وهذا يشكل خطرًا كبيرًا على عملك. تفتح مشاركة المعلومات الخاصة أو حساسة مع روبوت الدردشة للذكاء الاصطناعي طريقتين للمخاطر. أحدهما هو أن التطبيق يأخذ تلك المعلومات كمعرفة عامة ويشاركها عندما يطلب منها في المستقبل. الشاغل الثاني هو أن الشركة التي تقف وراء أداة الذكاء الاصطناعي التوليدي نفسها تتعرض للاختراق والمعلومات المشتركة معها.

 

هل سيستخدم الذكاء الاصطناعي التوليدي بياناتنا لتدريب النماذج؟

يجب عليك أن تعمل بشكل افتراضي على أساس أن تطبيقات الذكاء الاصطناعي التوليدي مثل ChatGPT وBard تستخدم على الأرجح البيانات التي تدخلها لتحسين النماذج. ومع ذلك، ستحتاج إلى التحقق مرة أخرى من المنصة المحددة التي تستخدمها.

ويتم جمع هذه البيانات إلى جانب مجموعة من المعلومات الأخرى، مثل الجهاز الذي تستخدمه، والمكان الذي تصل إليه منه، وأي تفاصيل مرتبطة بحسابك. ويمكن عادةً إيقاف تشغيل قدرة التطبيق على استخدام بياناتك في التدريب من الإعدادات، حسب مزود الخدمة.

وهذه إحدى المخاطر الرئيسية لمشاركة معلومات حساسة مع الذكاء الاصطناعي. إن مشاركة معلومات حساسة عن الشركة، مثل استراتيجية الانتقال إلى السوق القادمة لإطلاق المنتج، مع التطبيقات يمكن أن تجعل تلك المعلومات متاحة للجمهور بشكل فعال إذا لم يتم اتخاذ الاحتياطات المناسبة.

يساعد أمان بيانات Forcepoint في منع ذلك من خلال تقييد الوصول إلى المستخدمين المدربين على استخدام التطبيقات بأمان فقط، أو من خلال حظر لصق المعلومات في التطبيق.

 

ماذا لو تعرض مقدم الخدمة للاختراق وتعرضت بياناتنا للسرقة؟

يجب معاملة تطبيقات الذكاء الاصطناعي التوليدي مثل أي مورد خارجي آخر في سلسلة التوريد الرقمية. إذا تعرضت المنصة لاختراق للبيانات، فقد تكون المعلومات التي أدخلتها في خطر محتمل. لهذا السبب يجب على الشركات تطوير سياسات صارمة للاستخدام المقبول مرتبطة بالذكاء الاصطناعي التوليدي لضمان عدم تعرض البيانات للخطر بشكل غير متوقع.

 

كيف تنطبق خصوصية البيانات والمتطلبات التنظيمية على الذكاء الاصطناعي التوليدي؟

تتحمل جميع المؤسسات مسؤولية الامتثال للوائح الخصوصية. عند إدخال البيانات في تطبيقات الذكاء الاصطناعي التوليدي، هناك إمكانية للأفراد لمشاركة معلومات التعريف الشخصي والمعلومات الصحية المحمية وأنواع أخرى من المعلومات الخاضعة للتنظيم.

تعد مشاركة المعلومات الخاصة مع تطبيق الذكاء الاصطناعي التوليدي شكلاً من أشكال تسريب البيانات الذي يندرج ضمن لوائح الخصوصية. لكي تظل المؤسسات ممتثلة للسياسات، يجب أن يكون لديها أدوات قوية لأمن البيانات تمنع مشاركة هذا النوع من المعلومات.

 

هل نحتاج إلى سياسات أمان جديدة للبيانات خاصة فيما يرتبط بالذكاء الاصطناعي التوليدي؟

يجب على جميع الشركات مراجعة كيفية تفاعل موظفيها بالفعل أو كيف سيتفاعلون مع الذكاء الاصطناعي التوليدي، وأنواع المخاطر التي تشكلها هذه التفاعلات، وكيف يمكن للمؤسسة منع المستخدمين غير المؤهلين من الوصول إلى معلومات حساسة ومشاركتها مع الذكاء الاصطناعي التوليدي.

كما هو الحال بالنسبة لأي تطبيق SaaS آخر، يجب أن تضمن الشركات أن لديهم رؤية كاملة لجميع المستخدمين الذين لهم حق الوصول إلى الذكاء الاصطناعي التوليدي، فضلًا عن التحكم في البيانات التي يتفاعلون معها. في معظم الحالات، سيشمل ذلك تصفية عناوين URL حسب الدور الوظيفي أو الجهاز أو الموقع الجغرافي وسياسات أمان البيانات لمنع أي انتهاكات للامتثال.

 

التحدث إلى خبير حول تأمين أدوات ChatGPT و Bard و AI التوليدي