Die Integration von ChatGPT, dem von OpenAI entwickelten KI-Chatbot, in Unternehmensprozesse bietet Möglichkeiten zur Effizienzsteigerung und Innovation, birgt jedoch auch einige Sicherheitsrisiken. Unternehmen sind daher angehalten, proaktive Maßnahmen zur Sicherstellung des Datenschutzes und der Informationssicherheit bei der Nutzung des beliebten KI-Chatbots zu ergreifen.
Wir erklären praxisbezogen, was Sie beim Einsatz von ChatGPT in Ihrem Unternehmen beachten sollten.
Der Einsatz von ChatGPT im Unternehmen
Immer mehr Unternehmen streben den Einsatz von KI-Technologien an. Vor allem ChatGPT von OpenAI steht dabei im Mittelpunkt des Interesses vieler Unternehmen, die nach Wegen suchen, ihre Effizienz zu steigern und innovative Dienstleistungen anzubieten. Von der Automatisierung des Kundenservices über die Generierung von Texten und anderen Inhalten bis hin zur Unterstützung bei der Analyse großer Datenmengen bietet ChatGPT ein breites Spektrum an Einsatzmöglichkeiten.
Während die Vorteile von KI klar auf der Hand liegen, wirft der Einsatz von ChatGPT und anderen KI-Tools wichtige Fragen im Bereich des Datenschutzes auf. Vor diesem Hintergrund stehen Aufsichtsbehörden dem raschen Einsatz von KI in Geschäftsprozessen vorsichtig gegenüber und nehmen verstärkt eine prüfende Rolle ein.
Für Unternehmen bedeutet dies, dass sie bereits bei Planung und Implementierung proaktive Schritte unternehmen müssen, um Compliance mit den geltenden Datenschutzvorschriften zu gewährleisten, wenn sie KI-Technologien wie ChatGPT in ihre Abläufe integrieren möchten.
Achtung: Dies betrifft sowohl Entwickler von KI-Anwendungen (Stichwort: Privacy by Design und Privacy by Default) als auch Anwender, die nur fertige KI-Tools in ihre Prozesse aufnehmen.
ChatGPT ist in mehreren Versionen verfügbar, wobei jede Version spezifische Datenschutzherausforderungen mit sich bringt. Deshalb erläutern wir diese getrennt.
Datenschutzrechtliche Herausforderungen von ChatGPT-3.5, ChatGPT-4 und ChatGPT-4o
Die Versionen 3.5, 4 und 4o von ChatGPT sind echte Favoriten bei Unternehmen, die nach unkomplizierten KI-Lösungen für ihre geschäftlichen Prozesse suchen. Allerdings bringen gerade diese weitverbreiteten Versionen wesentliche datenschutzrechtliche Herausforderungen mit sich, die Beachtung erfordern.
Auftragsverarbeitung und technische und organisatorische Maßnahmen
Bei der Einbindung von ChatGPT-3.5, ChatGPT-4 oder ChatGPT-4o in Unternehmensprozesse ist OpenAI, der Anbieter dieser Dienste, als Auftragsverarbeiter im Sinne der Datenschutz-Grundverordnung (DSGVO) zu betrachten. Gemäß Art. 28 DSGVO ist es erforderlich, dass Unternehmen einen Auftragsverarbeitungsvertrag (AVV) mit ihren Auftragsverarbeitern abschließen, der die Rechte und Pflichten beider Parteien in Bezug auf den Datenschutz regelt.
Neben dem AVV muss der Auftragsverarbeiter gemäß Art. 32 DSGVO auch angemessene technische und organisatorische Maßnahmen (TOM) implementieren und dokumentieren, um die Sicherheit der Verarbeitung zu gewährleisten.
Derzeit stellt OpenAI für die Versionen ChatGPT-3.5, ChatGPT-4 und ChatGPT-4o weder einen AVV noch Informationen zu den implementierten TOM zur Verfügung. Ohne diese wesentlichen Dokumente ist die rechtmäßige Verarbeitung personenbezogener Daten im Sinne von Art. 4 Nr. 1 DSGVO nicht gewährleistet.
Unternehmen können diese Versionen von ChatGPT demnach nicht rechtmäßig verwenden, wenn personenbezogene Daten verarbeitet werden sollen.
Verarbeitung zu Trainingszwecken
Des Weiteren verarbeitet OpenAI Daten, die über die Versionen 3.5, 4 und 4o eingegeben werden, zu eigenen Zwecken – insbesondere für das Training der KI-Modelle. Dies bedeutet, dass die eingegebenen Daten potenziell für die Verbesserung des GPT-Modells verwendet werden können. Dies geschieht durch die Analyse und Verarbeitung der eingegebenen Texte, um Muster zu erkennen und die Antworten des Modells zu optimieren.
Die Verarbeitung von Daten zu Trainingszwecken durch KI-Anbieter, insbesondere im Hinblick auf personenbezogene Daten, birgt erhebliche datenschutzrechtliche Risiken. Dabei geht es insbesondere um die Gefahren der Profilbildung und des potenziellen Verlusts der Kontrolle über die Datenverwendung. So ist bspw. das Recht auf Löschung (Recht auf Vergessenwerden) in Bezug auf einen KI-Trainingsdatensatz kaum durchsetzbar.
OpenAI holt sich hierfür auch keine Einwilligung der User ein, bietet aber zur Berücksichtigung dieser datenschutzrechtlichen Bedenken die Möglichkeit, die Verarbeitung von Daten für Trainingszwecke zu deaktivieren. Diese Option kann unter Einstellungen -> Datenkontrollen -> „Das Modell für alle verbessern“ deaktiviert werden.
Diese Möglichkeit sollte man jedoch mit großer Vorsicht genießen, da dies keineswegs das Ende des Datenschutzrisikos bedeutet. Mit Hilfe dieser Einstellung wird die Verarbeitung zu Trainingszwecken nicht vollständig deaktiviert, sondern nur eingeschränkt, so dass die Interaktionen des Users mit ChatGPT nicht dauerhaft gespeichert werden. Stattdessen bleiben die Daten für einen begrenzten Zeitraum von bis zu 30 Tagen in den Systemen gespeichert, bevor sie gelöscht werden.
Diese Begrenzung reduziert zwar das Risiko, dass die Daten langfristig gespeichert und möglicherweise missbraucht werden, allerdings werden die Daten während dieses Zeitraums von 30 Tagen trotzdem zur Verbesserung der Modelle von ChatGPT verwendet.
Weiterhin ist es wichtig zu beachten, dass diese Einstellung nicht zwischen den verschiedenen Browsern oder Geräten synchronisiert wird. Dies bedeutet, dass die Einschränkung der Datenspeicherung nur für den spezifischen Browser oder das spezifische Gerät gilt, auf dem man die Einstellung vorgenommen hat.
Datenschutzrechtliche Einschätzung zu ChatGPT 3.5, ChatGPT-4 und ChatGPT-4o
Es ist von entscheidender Bedeutung, dass Unternehmen, die die Versionen 3.5, 4 oder 4o von ChatGPT einsetzen möchten, sich der datenschutzrechtlichen Herausforderungen bewusst sind und entsprechende Maßnahmen ergreifen, um die Verarbeitung personenbezogener Daten vollständig zu vermeiden. Die datenschutzkonforme Nutzung von ChatGPT 3.5, 4 oder 4o in Unternehmensumgebungen ist nur möglich, sofern keine personenbezogenen Daten im Sinne von Art. 4 Nr. 1 DSGVO verarbeitet und keine geschützten Geschäftsgeheimnisse preisgegeben werden.
Dies kann beispielsweise durch die Verwendung von Pseudonymen anstelle von personenbezogenen Daten erreicht werden. Zusätzlich ist es ratsam, die Datenverarbeitung für Trainingszwecke zu deaktivieren, auch wenn dies das Risiko nicht vollständig beseitigt.
Beim Hochladen von Dokumenten in Version 4 sollte zudem sichergestellt werden, dass keine personenbezogenen Daten in den Dokumenten enthalten sind, wie beispielsweise Autorennamen in Artikeln oder Empfängernamen bei Rechnungen. Falls solche Daten vorhanden sind, sollten sie vor dem Hochladen entfernt werden.
Darüber hinaus ist eine kontinuierliche Schulung der Mitarbeiter zu der datenschutzkonformen Nutzung von ChatGPT unerlässlich, um ein hohes Datenschutzniveau zu gewährleisten. Wir empfehlen zudem, eine Richtlinie zur Nutzung von KI-Tools zu erstellen, um sicherzustellen, dass alle Mitarbeitenden wissen, was sie im Umgang mit ChatGPT dürfen – und was nicht.
Datenschutzrechtliche Herausforderungen von ChatGPT API und Enterprise Edition
OpenAI bietet neben den Modellen GPT-3.5, GPT-4 und GPT-4o auch eine API und eine Enterprise-Edition an. Diese Editionen richten sich vor allem an Unternehmen, die maßgeschneiderte KI-Lösungen benötigen und sich mehr Kontrolle über ihre Anwendungen wünschen. Diese Editionen bieten im Vergleich zu den Versionen 3.5, 4 und 4o gleichzeitig auch erweiterte Sicherheitsmaßnahmen.
Auftragsverarbeitung und technische und organisatorische Maßnahmen
Ein datenschutzrechtlicher Vorteil dieser Versionen besteht darin, dass OpenAI einen Auftragsverarbeitungsvertrag und Informationen zu den ergriffenen technischen und organisatorischen Maßnahmen für seine Auftraggeber bereitstellt. Dadurch erkennt OpenAI seine Rolle als Auftragsverarbeiter an und verpflichtet sich, die Daten gemäß den Weisungen seiner Kunden zu verarbeiten.
Dies umfasst die Einhaltung von Pflichten, die einem Auftragsverarbeiter nach Art. 28 DSGVO auferlegt werden sollen, wie beispielsweise die Unterstützung bei der Erfüllung der Datenschutzrechte betroffener Personen und die Gewährleistung der Sicherheit der Datenverarbeitung.
Verarbeitung zu Trainingszwecken
In diesem Zuge verpflichtet sich OpenAI auch, die Interaktionen in ChatGPT nicht zu Trainingszwecken zu nutzen. Dies wird durch spezifische Konfigurationen und Mechanismen sichergestellt, die verhindern, dass die übermittelten Daten in den Trainingsprozess einfließen.
Datensicherheit und SOC-2-Zertifizierung
Darüber hinaus sind ChatGPT Enterprise und ChatGPT API Versionen nach SOC 2 Type II zertifiziert. Vergleichbare Zertifizierungen liegen für die anderen Versionen nicht vor. SOC 2 ist ein Sicherheitsstandard, der vom American Institute of Certified Public Accountants (AICPA) entwickelt wurde und sich auf die Gewährleistung von Sicherheit, Verfügbarkeit und Vertraulichkeit bei Unternehmen konzentriert. Während SOC-2-Zertifizierungen in den Vereinigten Staaten weit verbreitet sind, sind in Europa ISO-Zertifizierungen (vor allem: ISO 27001) häufiger anzutreffen und genießen eine größere Anerkennung.
Es ist wichtig zu beachten, dass derartige Zertifizierungen Sicherheitsmaßnahmen zwar bestätigen können, jedoch nicht unbedingt die alleinige Grundlage für Vertrauen sein sollten. Unabhängig davon sollte OpenAI angemessene Sicherheitsmaßnahmen implementieren, um den Datenschutzanforderungen der Nutzer und Auftraggeber gerecht zu werden. Europäische Unternehmen, die die Dienste von OpenAI nutzen möchten, sollten daher eine unabhängige Prüfung der technischen und organisatorischen Maßnahmen (TOM) von OpenAI nicht vernachlässigen.
Datenschutzrechtliche Einschätzung zu ChatGPT API und Enterprise Edition
Unter Berücksichtigung dieser Aspekte wäre die Nutzung der API und Enterprise Editionen von ChatGPT mit personenbezogenen Daten grundsätzlich möglich, vorausgesetzt, der Datenschutzbeauftragte des Unternehmens hat den Auftragsverarbeitungsvertrag von OpenAI samt den technischen und organisatorischen Maßnahmen auf Konformität geprüft und für ausreichend im Hinblick auf die beabsichtigte Verarbeitung befunden.
Dennoch ist es wichtig, dass das Unternehmen auch bei der Verwendung dieser ChatGPT-Versionen angemessene Vorkehrungen trifft. Dazu gehört beispielsweise die Implementierung einer KI-Richtlinie, die den Mitarbeitern klare Anweisungen zur sicheren Nutzung von ChatGPT gibt, einschließlich der Vermeidung der Offenlegung besonderer Kategorien personenbezogener Daten oder sensiblen Geschäftsgeheimnissen während der Interaktionen.
Problematik Drittlandtransfer beim Einsatz von ChatGPT
Da OpenAI ein US-amerikanisches Unternehmen mit Sitz in Kalifornien ist, müssen sich Unternehmen, die OpenAI einsetzen möchten, Gedanken bezüglich des entstehenden Drittlandtransfers machen. Für den Transfer personenbezogener Daten in die USA und andere Drittstaaten muss im Empfängerland tatsächlich (und nicht nur auf dem Papier) ein dem europäischen entsprechendes Datenschutzniveau vorliegen.
Da OpenAI nicht nach dem EU-U.S. Data Privacy Framework zertifiziert ist, ist das US-Unternehmen gezwungen, alternative Methoden zu nutzen, um ein angemessenes Datenschutzniveau bei der Übermittlung personenbezogener Daten in die USA sicherzustellen. OpenAI stützt sich auf die Standardvertragsklauseln der Europäischen Kommission.
Es ist jedoch kritisch zu bemerken, dass dadurch das mit Drittlandtransfers verbundene Risiko möglicherweise nicht vollständig ausgeräumt ist. Deshalb sollten Unternehmen gründlich evaluieren, ob der Einsatz von OpenAI-Diensten unter Berücksichtigung der Datenschutzanforderungen und rechtlichen Rahmenbedingungen gerechtfertigt ist. Zusätzliche Schutzmaßnahmen könnten erforderlich sein, um den Datenschutz und die Einhaltung der gesetzlichen Vorgaben zu gewährleisten.
Um dem entgegenzuwirken, hat OpenAI angekündigt, dass Nutzer, die ihren Wohnsitz im EWR oder in der Schweiz haben, eine Vertragsbeziehung mit OpenAI Ireland Ltd. eingehen – und nicht mit dem Mutterkonzern in Kalifornien. Trotz dieser Änderung auf Ebene der Vertragsgestaltung bleibt die Herausforderung des Datentransfers in Drittländer bestehen. Ein europäischer Vertragspartner schützt nicht zwingend vor unrechtmäßigen Verarbeitungen durch US-Behörden.
Multifaktor-Authentifizierung bei ChatGPT
OpenAI hat mittlerweile die Multifaktor-Authentifizierung (MFA) für alle seine Dienste eingeführt. Diese kann jeder Nutzer unter Einstellungen -> Sicherheit -> Multifaktor-Authentifizierung aktivieren.
Diese zusätzliche Sicherheitsebene schützt Konten besser vor unbefugtem Zugriff, indem sie neben den üblichen Anmeldedaten einen zweiten Authentifizierungsfaktor erfordert. Dies bedeutet, dass selbst wenn ein Passwort gestohlen wird, der Angreifer ohne den zweiten Faktor keinen Zugriff erhält.
Dieser zweite Faktor wird durch eine Authentifizierungs-App generiert, die einen zeitbasierten Einmalcode (TOTP) liefert. Sollte der Zugriff auf die Authentifizierungsmethode verloren gehen, kann der Zugang durch einen bei der Einrichtung bereitgestellten Wiederherstellungscode oder einen an die E-Mail-Adresse gesendeten Code wiederhergestellt werden.
Die Einführung der MFA bei ChatGPT ist ein positiver Schritt zur Erhöhung der Sicherheit und schützt Benutzerkonten vor gängigen Bedrohungen wie Phishing und Brute-Force-Angriffen. Nutzern von OpenAI-Diensten wird dringend empfohlen, diese Funktion zu aktivieren, um die Sicherheit ihrer Konten zu erhöhen.
Fazit: ChatGPT-Nutzung im Unternehmen ist eingeschränkt möglich
Unternehmen können (und sollten) die Potenziale von KI-Technologien wie ChatGPT nutzen, um ihre Prozesse zu optimieren. Datenschutz und Informationssicherheit sollten hierbei nicht als Hindernis angesehen werden, sondern als integrale Bestandteile, die von Anfang an berücksichtigt werden müssen.
Es gibt verschiedene Möglichkeiten, KI-Technologien datenschutzfreundlich in Unternehmensprozesse zu integrieren. Die frühzeitige Einbindung des Datenschutzbeauftragten ist dafür entscheidend. Er kann beraten, welche Maßnahmen erforderlich sind, um Sicherheitsrisiken zu minimieren und sicherzustellen, dass KI-Projekte im Einklang mit den geltenden Vorschriften umgesetzt werden.