theNet von CLOUDFLARE

Sollten Sie Ihrem Team die Nutzung von KI verbieten?

Die Vorteile und Risiken von LLMs prüfen


Unternehmen suchen immer nach Möglichkeiten, ihre Effizienz und Produktivität zu steigern, und viele versprechen sich viel vom Einsatz KI-basierter großer Sprachmodelle (LLMs) wie ChatGPT, um Inhalte zu generieren, mit Kunden zu chatten und sogar Software zu entwickeln. Aber viele große Unternehmen haben festgestellt, dass sie gezwungen sind, ihre Mitarbeitenden vom Einsatz dieser Technologien abzuhalten. Die Frage ist, ob andere Unternehmen in ihren Branchen diesem Beispiel folgen werden.

Warum KI verbieten? Der Grund: Dienste mit generativer KI verwenden Dateneingaben für weiteres Training und geben diese Daten in vielen Fällen später an Dritte weiter. Für Unternehmen, die sensible Daten besitzen oder verarbeiten, urheberrechtlich geschütztes geistiges Eigentum besitzen, in stark regulierten Branchen tätig sind oder Closed-Source-Software erstellen, könnte ein solches Datenleck katastrophale Folgen haben.

Diese Tools bieten aber auch enorme Vorteile. Wie können CISO also entscheiden, ob sie ChatGPT und Co. erlauben oder verbieten sollten? Dabei muss man vor allem bedenken, dass ein solches Verbot unter Umständen nicht nur die Produktivität der Mitarbeitenden beschneidet, sondern auch schwer durchsetzbar ist und leicht umgangen werden kann.



Warum sind ChatGPT und andere KI-Tools nicht sicher?

Da die Mitarbeitenden ChatGPT und andere LLMs als Arbeitserleichterung und Effizienzsteigerung wahrnehmen, nutzen sie diese möglicherweise in einer Weise, bei der sie unwissentlich Datenlecks verursachen.

Wie alle KI-Modelle ist ChatGPT darauf ausgelegt, bessere Ergebnisse zu liefern, je mehr Daten ihm zur Verfügung stehen. Unbeabsichtigte Datenlecks sind dabei nicht zwangsläufig ein Fehler, da diese Tools nicht als sichere Datentresore konzipiert wurden. Ähnlich wie beim Teilen vertraulicher Informationen auf Social-Media-Plattformen wie LinkedIn oder Instagram wäre dies unsicher, da auch diese Anwendungen nicht dafür entwickelt wurden, private Daten zu schützen.

Dennoch berücksichtigen viele Menschen diese Schwachstellen nicht, wenn sie KI-Modelle am Arbeitsplatz einsetzen. In einer Studie wurde festgestellt, dass Angestellte regulierte vertrauliche Informationen oder geistiges Eigentum in diese Tools kopieren. In einem anderen Fall haben Entwickler von Samsung versehentlich vertrauliche Daten geleakt, nachdem sie diese in ChatGPT hochgeladen hatten, was dazu führte, dass Samsung die Nutzung von ChatGPT durch Mitarbeitende einschränkte.

Wie bei jeder Software enthalten LLMs häufig Fehler, von denen einige zu Datenlecks führen können. Vor einigen Jahren gab OpenAI bekannt, dass ein Fehler dazu geführt hatte, dass Teile von Nutzergesprächen mit ChatGPT anderen Nutzern angezeigt wurden.

Und schließlich gibt es im Zusammenhang mit diesen Tools Bedenken hinsichtlich der Einhaltung von Compliance- und regulatorischer Anforderungen und gesetzlichen Bestimmungen. Es gibt keine Garantien dafür, wie die Daten gehandhabt werden, und die Weitergabe von Daten könnte dazu führen, dass ein Unternehmen die Compliance mit den Datensicherheitsbestimmungen nicht mehr einhält. Wie bei jeder externen Anwendung können Leaks oder mangelnde Transparenz in Bezug auf die Verarbeitung der Daten zu einem Verstoß gegen die Datenschutz-Grundverordnung (DSGVO) oder andere Vorschriften führen. Die Weitergabe von Daten an ein LLM unterbricht außerdem für die Einhaltung der Vorschriften erforderlichen Audit Trail.



Die Verbote: Wer und warum

Angesichts der Risiken sind mehrere große Unternehmen dazu übergegangen, ihre Mitarbeitenden von der Nutzung von LLMs ganz abzuhalten.

Amazon hat ChatGPT verboten, nachdem das Unternehmen ChatGPT-Antworten entdeckt hatte, die internen Amazon-Daten zu ähneln schienen. Apple hat die interne Nutzung von ChatGPT und Copilot, einem automatisierten Codierungstool von GitHub, untersagt, weil man befürchtet, dass die Tools sensible Informationen leaken könnten.

Die Finanzbranche ist beim Einschränken der Nutzung von LLMs besonders proaktiv vorgegangen. JPMorganChase verhängte strenge Beschränkungen für die interne Nutzung von ChatGPT, aus Sorge vor möglichen Lecks geschützter Finanzinformationen, die zu Verstößen gegen nationale und branchenspezifische Datenvorschriften führen könnten. Große Finanzinstitute wie Bank of America, Citigroup und Deutsche Bank folgten diesem Beispiel.

Schließlich hat auch Samsung ChatGPT für längere Zeit verboten. Das Unternehmen hob das Verbot mehrfach auf und führte es später erneut ein.

Ausgehend von diesen und anderen Beispielen haben Unternehmen, die ihren Angestellten die Nutzung generativer KI verbieten oder diese einschränken, vor allem folgende Gründen:

  • Direktes Leaken von internen Daten

  • Bedenken hinsichtlich der Art und Weise, wie LLMs Dateneingaben speichern, verarbeiten und nutzen, um ihren Algorithmus und ihre Reaktionsfähigkeit zu verbessern, was zu einer Nachahmung privater interner Daten und zu einer unbeabsichtigten Verbreitung von Wettbewerbsinformationen führen kann

  • Bedenken hinsichtlich der fehlenden Protokollierung, wie LLMs regulierte Daten verarbeiten



Schwierigkeiten beim Verbot

Selbst wenn ein Unternehmen beschließt, die Verwendung von LLMs zu verbieten oder einzuschränken, könnte sich die Durchsetzung als nahezu unmöglich erweisen.

Das Festlegen eines Sicherheitsstandards bedeutet nicht, dass interne Nutzer diesen Standard auch einhalten oder überhaupt von der Regel wissen. Unternehmen haben bereits Schwierigkeiten, die Nutzung unsicherer privater Geräte für Remote-Arbeit zu verhindern oder den Einsatz nicht autorisierter SaaS-Anwendungen aufgrund der Verbreitung von Cloud-Diensten zu stoppen. Während die Nutzung nicht genehmigter Anwendungen als „Schatten-IT“ bezeichnet wird, spricht man bei einer möglichen Situation unter einem LLM-Verbot inzwischen von „Schatten-KI“.

Die Sicherheitsabteilung kann bestimmte Apps verbieten, indem sie die IP-Adressen oder URLs dieser Tools sperrt, aber natürlich sind diese Beschränkungen nicht vollkommen wirksam. Auf privaten Geräten sind unter Umständen nicht die richtigen Sicherheits-Clients installiert; Firmengeräte können in unternehmensfremden Netzwerken verwendet werden. Entschlossene Nutzer könnten sogar ein VPN verwenden, um Firewall-Regeln zu umgehen und auf verbotene Tools zuzugreifen.


Eine Alternative zum Verbot: Data Loss Prevention

Was man mit Sicherheit über ChatGPT und ähnliche Dienste sagen kann, ist, dass diese Tools ungeheuer beliebt sind. Ein Verbot kann helfen, die Nutzung und das damit verbundene Datenleck einzudämmen. Aber CISOs sollten davon ausgehen, dass ihre Angestellten diese Dienste nutzen, sei es auf einem Firmen- oder einem Privatgerät. Zu diesem Zweck sollten sie unbedingt den Einsatz einer Lösung zum Data Loss Prevention (DLP) in Erwägung ziehen.

DLP-Lösungen nutzen verschiedene Methoden, um sensible Daten zu erkennen und zu verhindern, dass sie eine geschützte Umgebung verlassen. Zu diesen Methoden gehören Musterabgleich, Keyword-Abgleich, Dateihash-Abgleich und Daten-Fingerprinting. Für die Vermeidung von Datenlecks durch KI-Tools ist jedoch vor allem die Möglichkeit entscheidend, Kopieren und Einfügen, Uploads sowie Tastatureingaben einzuschränken.

DLP-Lösungen (in Verbindung mit einer Browserisolierung) sollten in der Lage sein, das Kopieren und Einfügen von Daten durch Mitarbeiter zu verhindern und sie daran zu hindern, sensible Daten in jegliche Web-Apps, einschließlich LLMs, einzugeben. DLP kann auch das Hochladen von Daten blockieren, bestimmte Tastatureingaben anhalten und vertrauliche Daten in ausgehenden HTTP-Anfragen erkennen.

Unternehmen können sich dafür entscheiden, die Nutzung generativer KI zu verbieten – oder auch nicht. Selbst diejenigen, die ein Verbot aussprechen, sind möglicherweise nicht in der Lage, ihre Nutzung vollständig zu unterbinden. Für Organisationen in beiden Situationen bietet DLP jedoch eine Alternative sowohl zu uneingeschränkter KI-Nutzung als auch zu einem KI-Verbot


Sollten Unternehmen ihren Mitarbeitenden die Nutzung von ChatGPT verbieten?

DLP ist natürlich keine Garantie dafür, dass keine Daten hochgeladen werden. Insgesamt müssen CISOs die Vor- und Nachteile der Nutzung von ChatGPT und anderen LLMs abwägen, wobei ihre Schlussfolgerungen je nach Branche unterschiedlich ausfallen werden. In stark regulierten Branchen wie dem Bankwesen kann das Hochladen von Inhalten in LLMs von vornherein ausgeschlossen sein. In anderen Branchen könnten CISOs den Einsatz von KI von Fall zu Fall bewerten – oder ihn einfach frei zulassen.

Doch jedes Unternehmen hat sensible Daten zu schützen, und DLP kann dazu beitragen, diese Daten aus LLM-Datenbanken herauszuhalten. Aufgrund der großen Bedeutung von Datenschutz in der heutigen digitalen Umgebung bietet Cloudflare DLP an – als Teil der Cloudflare AI Security Suite –, um das Risiko der Offenlegung von Daten und Code zu reduzieren, selbst bei zunehmender Nutzung generativer KI-Tools am Arbeitsplatz.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.


Vertiefung des Themas.

Holen Sie sich das Whitepaper „ SaaS-Anwendungen jetzt einfacher schützen“ und erfahren Sie, wie Unternehmen mit Cloudflare ihre Anwendungen und Daten mit einem Zero Trust-Ansatz schützen können.





Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Warum große Sprachmodelle (LLMs) Daten in Gefahr bringen

  • Mehrere globale Unternehmen haben die interne Nutzung von ChatGPT und anderen generativen KI-Tools verboten

  • Wie Data Loss Prevention (DLP) den Einsatz von KI sicher machen kann


Verwandte Ressourcen

Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!