DER FAKTOR SICHERHEIT

Daten-Leaks verhindern: Wie Ihre Mitarbeiter ChatGPT sicher nutzen

Lesedauer 7 Min.

Das Interesse an künstlicher Intelligenz (KI) nimmt immer mehr zu, vor allem in den letzten Monaten. Textbasierte und andere KI-Tools sind für viele Angestellte längst Teil ihrer täglichen Arbeit geworden und helfen, viel Zeit und Aufwand zu sparen. Um die Vorteile der neuen Technologie sicher zu nutzen und die Sicherheit von Unternehmensdaten nicht zu gefährden, sollten Ihre Mitarbeiter jedoch einige Verhaltensregeln kennen. Wir erklären Ihnen, welche.

KI-Chatbots helfen uns bei der Ideenfindung, beim Zusammenfassen oder Umformulieren von Texten oder sogar dabei, die Grundlagen einer Unternehmensstrategie aufzustellen oder Programmcode von Fehlern zu befreien. Bei der Nutzung von KI sollten wir jedoch eines nie vergessen: Die Daten, die wir in die Tools eingeben, gehören mit Drücken des „Senden“-Buttons nicht länger uns.

Eine der größten Herausforderungen bei der Nutzung von LLMs (Large Language Models) wie ChatGPT ist die Tatsache, dass wir mit der Nutzung potenziell sensible Daten an große, internationale Konzerne weitergeben. Die Modelle werden mit großen Mengen Textdaten trainiert, um die Anfragen der Nutzer effektiv zu verarbeiten und einen passenden Output zu generieren. Das Problem: Jedes Mal, wenn wir mit dem Chatbot interagieren, um uns von der KI helfen zu lassen, teilen wir womöglich ungewollt Daten über uns selbst oder unser Unternehmen.

Mit Eingabe unserer Anfrage („Prompt“) in den Chatbot werden die eingegebenen Daten öffentlich. Das heißt zwar nicht zwangsläufig, dass die eingegebenen Informationen als Grundlage für die Beantwortung von Anfragen anderer Nutzer verwendet werden. Dennoch können der Anbieter des Bots oder assoziierte Unternehmen potenziell Zugriff auf die Daten bekommen und sie für die Weiterentwicklung ihrer Technologie verwenden. 

Erst kürzlich führte OpenAI, Herausgeber von unter anderem ChatGPT, die Möglichkeit ein, den Chatverlauf bei ChatGPT zu deaktivieren. So lässt sich verhindern, dass die eingegebenen Daten für Training und Verbesserung weiterer Sprachmodelle genutzt werden. Anwender erhalten so mehr Verfügungsgewalt über ihre Daten. Für Ihre Mitarbeiter, die ChatGPT nutzen wollen, heißt das: Vor der Verwendung von ChatGPT sollten sie immer zuallererst den Chatverlauf deaktivieren.

Aber selbst ohne Chatverlauf werden die eingegebenen Informationen auf den Servern des Chatbot-Anbieters gespeichert und somit potenziell für Hacker oder andere nicht autorisierte Personen zugänglich. Auch Fehler in der Software können dazu führen, dass Fremde Zugriff auf Daten bekommen, die nicht für ihre Augen bestimmt sind.

ChatGPT ist zweifelsohne extrem nützlich, auch im Arbeitsalltag. Die Frage ist nur, wie Ihre Mitarbeiter diese Software und andere Plattformen sicher nutzen können, ohne möglicherweise hochsensible Daten preiszugeben. Werfen wir einen Blick auf typische Fehler bei der Nutzung von KI-Tools und wie sie sich vermeiden lassen.

Eingabe sensibler Kundendaten

Ein häufiger Fehler bei der Nutzung von LLMs ist die Eingabe von Daten – zum Beispiel Kundendaten – die nicht in fremde Hände gehören. Wie genau sieht das aus? Stellen Sie sich vor, ein Arzt füttert den Chatbot mit Namen und Symptomen von Patienten, um sich von der KI einen Arztbrief für die Krankenversicherung des Patienten schreiben zu lassen. Oder wie wäre es mit dem Marketingmitarbeiter, der Kundendaten aus internen Datenbanken eingibt, um sich automatisiert Newsletter erstellen zu lassen, die besonders gut auf einzelne Kunden zugeschnitten sind?

Vermitteln Sie Ihren Mitarbeitern unbedingt, wie wichtig es ist, Anfragen an ChatGPT zu anonymisieren, um dem Datenschutz Rechnung zu tragen. Die Informationen, die eingegeben werden, müssen unbedingt frei sein von sensiblen Daten wie Namen, Adressen oder Kontodetails. Am besten ist es, wenn sie die Daten nicht nur verfremden, sondern gänzlich darauf verzichten, personenbezogene Angaben in den Chat einzugeben und stattdessen allgemeine Anfragen zu stellen.

Upload interner Dokumente

Mit KI-Tools können schnell große Mengen an Daten und Informationen zusammengefasst werden. Manuskripte, Präsentationen oder Berichte lassen sich so viel schneller und einfacher erstellen. Das Problem: Der Upload von Dokumenten in Tools wie ChatGPT kann den Schutz sensibler Kundendaten oder vertraulicher Unternehmensinformationen gefährden. Sicher ist es verlockend, die Dokumente einfach in den Chat zu kopieren und sich eine Zusammenfassung oder einen Entwurf für Präsentationsfolien ausgeben zu lassen. Ein sicherer Umgang mit Daten ist das jedoch nicht.

Dabei geht es nicht nur um wichtige Unterlagen wie Strategiepapiere zur zukünftigen Ausrichtung des Unternehmens. Auch weniger wichtig erscheinende Dokumente wie das Protokoll einer Besprechung können wertvolles Unternehmenswissen nach außen tragen.

Hier helfen strikte Richtlinien zum Umgang mit sensiblen Dokumenten und die Einschränkung der Zugriffsrechte nach dem „Need-to-know“-Prinzip (Kenntnis nur wenn nötig). Mitarbeiter müssen verpflichtet werden, Dokumente eingehend zu prüfen, bevor sie sie dem Chatbot füttern, um eine Zusammenfassung oder ähnliche Hilfe einzufordern. So ist sichergestellt, dass sensible Informationen, z.B. Namen, Kontaktdaten, Verkaufszahlen oder

Cashflow-Daten aus dem Dokument entfernt oder so abgeändert werden, dass kein Rückschluss mehr auf das Unternehmen möglich ist.

Eingabe von Unternehmensdaten

Stellen Sie sich vor, Sie wollen die Abläufe und Prozesse in Ihrem Unternehmen verbessern und bitten dafür ChatGPT um Hilfe. Sei es die Optimierung des Zeitmanagements oder die Aufgabenstrukturierung: Nicht selten geben Mitarbeiter hier wertvolles Wissen und andere Unternehmensdaten ein, um Unterstützung durch den Chatbot zu bekommen. Ebenso wie der Upload interner Dokumente oder die Eingabe von Kundendaten kann diese gängige aber höchst gefährliche Praxis dazu führen, dass Unbefugte Zugriff auf vertrauliche Informationen bekommen oder dass sie öffentlich werden.

 

Samsung verbietet „generative KI“, Amazon mahnt zur Vorsicht.

Anfang 2023 stellte ein Software-Entwickler bei Samsung fest, dass vertraulicher Programmcode, den er in ChatGPT eingegeben hatte, geleakt worden war. In der Folge verbot Samsung die Nutzung sogenannter „generativer KI“ im gesamten Unternehmen. Einen ähnlichen Fall gab es beim Online-Riesen Amazon: Das Unternehmen hatte festgestellt, dass einige Antworten von ChatGPT internen Daten verdächtig ähnlich waren. Das Unternehmen verbot zwar seinen Mitarbeitern nicht, entsprechende Tools zu nutzen, forderte sie aber auf, verantwortungsvoll mit ihnen und den hochgeladenen Daten umzugehen.

 

Auch hier ist die Anonymisierung und Schwärzung von Daten essenziell und sollte zur Normalität für alle Mitarbeiter werden. Die Daten, die ChatGPT gefüttert werden, dürfen keine Namen, Adressen, Konto- oder andere vertrauliche Informationen enthalten.

Um es Ihrem Team leichter zu machen, sicher mit KI-Chatbots zu arbeiten, können Sie vorgefertigte Prompt-Vorlagen zur Verfügung stellen, die von allen Mitarbeitern genutzt werden können. Eine solche sichere Vorlage wäre zum Beispiel: „Stell dir vor, du bist [Position] in [Unternehmen]. Erstelle einen verbesserten Wochen-Workflow für [Position] mit Fokus auf [Aufgabe].“

KI-Tools sind längst nicht mehr die Zukunft der Arbeit, sie sind Teil unseres Alltags. Mit fortschreitender Entwicklung der künstlichen Intelligenz und des maschinellen Lernens ist es für Unternehmen unumgänglich, sich mit den Trends auseinanderzusetzen und klug damit umzugehen. Sorgen Sie dafür, dass alle Ihre Mitarbeiter – vom Datenschutzexperten bis zum IT-Generalisten – wissen, wie sie sicher mit der Technologie arbeiten, ohne vertrauliche Daten preiszugeben.