Generative KI wie ChatGPT und Bard haben schnell an Popularität gewonnen, aber
große Sprachmodelle setzen Unternehmen dem Risiko von Datenschutzverletzungen aus.

Sicherer Zugriff und robuste DLP für generative KI

Forcepoint bietet branchenführende Datensicherheit und Zugriffskontrolle auf jedem Gerät für generative KI,
sodass Benutzer die Vorteile ohne Risiko maximieren können.

Datensicherheit
überall

Branchenführende Datensicherheit
in der Cloud und im Web

Zentrale
Durchsetzung von Richtlinien

Kuratieren Sie den Zugriff auf Tausende
von generativen KI-Anwendungen

Zuverlässige
Skalierbarkeit

Unterstützen Sie Wachstum mithilfe der Elastizität
der Hyperscaler-Plattform von AWS

Datensicherheit beginnt mit Data-first SASE

Secure Access Service Edge (SASE) vereinfacht die Zugriffskontrolle und Konnektivität, um Mitarbeitende – einschließlich KI-Benutzer – besser zu schützen, egal wo sie arbeiten.

Die Data-first SASE-Architektur von Forcepoint treibt dies einen Schritt weiter, indem sie Richtlinien zum Schutz sensibler Daten universell auf jedem Gerät durchsetzt. Daher können Unternehmen generative KI zuverlässig mit voller Echtzeit-Sichtbarkeit integrieren.

Protect data on ChatGPT with DLP and Forcepoint ONE.
Manage access and secure data in ChatGPT and Bard with DLP and SSE.

Die nächste Generation von Schatten-IT-Risiken

ChatGPT und Bard können Finanzanalysen in Hochgeschwindigkeit ausführen und Beispielcode für Softwareentwickler erstellen. Die Anwendungen lernen jedoch aus den Daten, die mit ihnen geteilt werden, und schaffen das Potenzial für Datenlecks oder -verletzungen.

Forcepoint ermöglicht es Ihren Mitarbeitenden, sicher von generativer KI zu profitieren, während Sie:

  • kontrollieren, wer generative KI verwendet.
  • das Hochladen sensibler Dateien verhindern.
  • das Einfügen sensibler Informationen blockieren.
Block sensitive upload with Forcepoint

Stoppen Sie Datenlecks mit DLP für ChatGPT und Bard

Erkennen und klassifizieren Sie sensible Daten im gesamten Unternehmen.

Verwenden Sie über 1.700 standardmäßige Richtlinien und Klassifizierer, um Datenverlust zu verhindern.

Blockieren Sie das Kopieren und Einfügen sensibler Informationen in Webbrowsern.

Verwenden Sie eine einheitliche Richtlinienverwaltung, um Datenverlust durch generative KI zu verhindern.

Forcepoint ONE, combined with Forcepoint DLP, protect access and secure data on ChatGPT.

Transparenz und Kontrolle für KI mit Forcepoint ONE

Beschränken Sie den Zugriff auf KI basierend auf Benutzern, Gruppen und anderen Kriterien.

Coachen Sie Besucher darin, genehmigte KI-Anwendungen zu verwenden und umzuleiten.

Verwalten Sie die Nutzung tausender KI-SaaS-Anwendungen auf sichere Weise.

Schützen Sie neue Tools mit einer umfassenden Abdeckung, die auf der KI-Website-Kategorie basiert.

Lesen Sie über DLP für ChatGPT, Bard und mehr 

Unlock Productivity with ChatGPT and Forcepoint Data Security
Gartner®: 4 Ways Generative AI Will Impact CISOs and Their Teams report

Häufig gestellte Fragen

 

Was sind die Sicherheitsrisiken generativer KI?  

Generative KI stellt mehrere Bedrohungen für die Datensicherheit dar. Dazu gehören Datenlecks, Datenschutzverletzungen und die Nichteinhaltung von Datenschutzgesetzen.

Generative KI-Anwendungen wie ChatGPT und Bard sind LLMs, die aus den Informationen lernen, die Benutzer eingeben. Wenn ein Benutzer beispielsweise Informationen über das Ziel von Fusions- und Übernahmeaktivitäten überprüft, die noch nicht veröffentlicht wurden, könnten nachfolgende Suchen von anderen Benutzern diese Informationen offenbaren.

Wenn ein Softwareentwickler generative KI zum Debuggen proprietären Softwarecodes verwenden würde, wäre dieses geistige Eigentum dem Risiko ausgesetzt, gemeinfrei zu werden – oder, was noch schlimmer ist, bei einem Konkurrenten zu landen. Wenn der Softwareentwickler generative KI zum Schreiben von Code verwendet, könnte dieser Schadsoftware enthalten, die einem Angreifer eine Hintertür in das System eines Unternehmens öffnet.

Schließlich verpflichten Datenschutzgesetze wie HIPAA oder die DSGVO Unternehmen dazu, personenbezogene Daten zu schützen. Die Verwendung generativer KI für alles, was mit personenbezogenen Daten zu tun hat, wie das Verfassen einer E-Mail-Antwort auf eine Kundenanfrage, könnte das Unternehmen einem Risiko für Nichteinhaltung aussetzen, da diese Informationen durchsickern oder missbraucht werden könnten.

Was sind Beispiele für generative KI, die böswillig verwendet wird? 

Generative KI kann verwendet werden, um Schadsoftware und gefälschte Inhalte für Phishing- und Spear-Phishing-Angriffe zu schreiben. Generative KI-Anbieter wie ChatGPT sind auch einem Risiko von Datenschutzverletzungen ausgesetzt, was Angreifern Zugriff auf sensible Daten von Benutzern ermöglicht.

Ein Beispiel für generative KI, die zur Erstellung von Schadsoftware verwendet wird, stammt von Aaron Mulgrowth von Forcepoint. Mulgrow hat ChatGPT dazu gebracht, schädlichen Code zu schreiben, obwohl ChatGPT Schutzmaßnahmen hatte, um dies zu verhindern.

Wie können Sie sensible Daten in generativer KI schützen?  

Generative KI-Datensicherheit erfordert sowohl Echtzeit-Zugriffskontrolle als auch robuste Datenkontrollen. 

In einer Plattform wie Forcepoint ONE SSE können Unternehmen einer eingeschränkten Gruppen von Mitarbeitenden den Zugriff auf generative KI-Tools gewähren. Diese Richtlinien können sowohl auf verwalteten als auch nicht verwalteten Geräten implementiert werden, was Unternehmen eine umfassende Kontrolle bietet.

Mit Forcepoint DLP haben ChatGPT- und Bard-Benutzer nur begrenzte Möglichkeiten, Informationen mit den Plattformen zu teilen. Das verhindert versehentliche Datenlecks. Zum Beispiel kann verhindert werden, dass sensible Informationen wie Sozialversicherungsnummern in die Anwendung eingefügt werden.

Wie beeinflusst generative KI die Bedrohungen für die Cybersicherheit? 

Die Bedrohungen für die Cybersicherheit entwickeln sich ständig weiter, und obwohl generative KI ein neues Risiko darstellt, kann es mit vorhandenen Technologien eingeschränkt werden.

Generative KI ist am meisten gefährdet, eine weitere Möglichkeit für Datenlecks oder Datenschutzverletzungen zu sein. Darin unterscheidet sie sich nicht zu sehr von anderen SaaS-Anwendungen, die Unternehmen täglich verwenden. Wenn Mitarbeitende generative KI für sensible Daten nutzen, könnte eine Datenschutzverletzung oder ein Missbrauch dieser Daten die Sicherheitslage des Unternehmens beeinträchtigen.

Die Behandlung generativer KI-Tools wie ChatGPT und Bard als Schatten-IT ist der erste Schritt in die richtige Richtung. Definieren Sie, wer die Anwendungen verwenden kann, und erstellen Sie Richtlinien, die es diesen Gruppen ermöglichen, auf die Tools zuzugreifen – und andere davon abhalten. Führen Sie außerdem starke Datenkontrollen ein, um sicherzustellen, dass sensible Daten im Unternehmen bleiben.

Was sind große Sprachmodelle und welche Sicherheitsrisiken stellen sie für die Daten dar?

Generative KI-Anwendungen wie ChatGPT werden auf großen Sprachmodellen erstellt und trainiert. Diese algorithmischen Modelle ermöglichen es den Plattformen, große Datenbanken zu erfassen und daraus zu lernen. Sie erhalten das Wissen, den Kontext und die Genauigkeit, die Benutzer von KI-Chatbots erwarten.

Da generative KI jedoch auf großen Sprachmodellen erstellt wird, lernt sie weiterhin aus den Informationen, die in sie eingespeist werden. Sie lernt kontinuierlich dazu und wendet Kontext auf neue Informationen an, mit denen sie interagiert, sodass die Antworten frisch und relevant bleiben.

Dies stellt ein erhebliches Risiko für Ihr Unternehmen dar. Das Teilen proprietärer oder sensibler Informationen mit dem KI-Chatbot eröffnet zwei Möglichkeiten für Risiken. Zum einen nimmt die Anwendung diese Informationen als öffentliches Wissen auf und teilt sie, wenn sie in Zukunft dazu aufgefordert wird. Die zweite Sorge ist, dass das Unternehmen hinter dem generativen KI-Tool selbst Ziel eines Missbrauchs wird, und die geteilten Informationen dadurch kompromittiert werden.

 

Wird generative KI unsere Daten verwenden, um ihre Modelle zu trainieren?

Standardmäßig sollten Sie davon ausgehen, dass generative KI-Anwendungen wie ChatGPT und Bard die von Ihnen eingegebenen Daten wahrscheinlich verwenden, um ihre Modelle zu verbessern. Sie sollten jedoch die spezifische Plattform überprüfen, die Sie verwenden.

Diese Daten werden mit einer Vielzahl anderer Informationen erfasst, wie z. B. dem von Ihnen verwendeten Gerät, von wo aus Sie darauf zugreifen und allen mit Ihrem Konto verbundenen Details. Die Möglichkeit, dass die Anwendung Ihre Daten zum Training verwenden kann, kann in der Regel je nach Anbieter in den Einstellungen deaktiviert werden.

Dies ist eines der Hauptrisiken des Austauschs sensibler Informationen mit KI. Wenn sensible Unternehmensinformationen wie eine bevorstehende Markteinführungsstrategie für eine Produkteinführung mit den Anwendungen geteilt werden, können diese Informationen effektiv öffentlich verfügbar gemacht werden, wenn nicht die entsprechenden Vorsichtsmaßnahmen getroffen werden.

Forcepoint Data Security hilft, dies zu verhindern, indem der Zugriff nur auf Benutzer beschränkt wird, die für die sichere Verwendung der Anwendungen geschult sind, oder indem das Einfügen von Informationen in die Anwendung blockiert wird.

 

Was ist, wenn der Anbieter Opfer einer Datenschutzverletzung wird und unsere Daten gestohlen werden?

Generative KI-Anwendungen müssen in der digitalen Wertschöpfungskette wie jeder andere Drittanbieter behandelt werden. Wenn die Plattform eine Datenschutzverletzung erleidet, könnten die von Ihnen eingegebenen Informationen einem Risiko ausgesetzt sein. Aus diesem Grund müssen Unternehmen strenge Richtlinien für die akzeptable Nutzung generativer KI entwickeln, um sicherzustellen, dass Daten nicht unerwartet einem Risiko ausgesetzt werden.

 

Wie gelten Datenschutz und regulatorische Anforderungen für generative KI?

Alle Unternehmen sind für die Einhaltung der Datenschutzbestimmungen verantwortlich. Bei der Eingabe von Daten in generative KI-Anwendungen besteht das Potenzial für Einzelpersonen, personenbezogene Daten, persönliche Gesundheitsdaten und andere Arten von Informationen zu teilen, die reguliert sind.

Das Teilen privater Informationen mit einer generativen KI-Anwendung ist eine Form des Herausschleusens von Daten, die unter die Datenschutzbestimmungen fällt. Damit Unternehmen die Vorschriften einhalten können, müssen sie über starke Datensicherheitstools verfügen, die verhindern, dass diese Art von Informationen geteilt werden.

 

Brauchen wir neue Datensicherheitsrichtlinien, die speziell für generative KI gelten?

Alle Unternehmen sollten überprüfen, wie ihre Mitarbeiter bereits mit generativer KI interagieren oder das in Zukunft tun könnten, welche Arten von Risiken diese Interaktionen darstellen und wie das Unternehmen verhindern kann, dass unberechtigte Benutzer auf sensible Informationen zugreifen und diese mit mit generativer KI teilen.

Wie jede andere SaaS-Anwendung sollten Unternehmen sicherstellen, dass sie vollständige Transparenz über den Zugriff der Benutzer auf generative KI und die Kontrolle über die Daten haben, mit denen die Benutzer interagieren. In den meisten Fällen umfasst dies eine URL-Filterung nach Aufgabenrolle, Gerät oder Standort sowie Datensicherheitsrichtlinien, um Compliance-Verstöße zu verhindern.

 

Sprechen Sie mit einem Experten über die Sicherheit von ChatGPT, Bard und generative KI-Tools