orgaMAX Blog | Mehr Wissen für Ihren Büroalltag

ChatGPT & Co. im Geschäftsalltag: Es drohen rechtliche Fallen

Geschrieben von orgaMAX Redaktionsteam | 26.10.23 10:01

ChatGPT und andere auf Künstlicher Intelligenz beruhende Produkte kommen längst auch in Unternehmen und bei Selbstständigen zum Einsatz. Ganz unproblematisch sind die intelligenten Sprachmodelle im Geschäftsalltag allerdings nicht. Das liegt nicht nur in den inhaltlichen Fehlern, die immer wieder auftauchen. Die Nutzung der KI-Chatbots ist je nach Einsatz auch mit rechtlichen Risiken verbunden.

Chatbots als Alltagshelfer im Unternehmen: Nützlich, aber nicht risikolos

Es sind längst nicht mehr nur Schüler, die von ChatGPT ihre Hausaufgaben erledigen lassen. Das Tool kommt auch in Unternehmen laufend zum Einsatz.

  • Eine „Prompt“ genannte Aufforderung oder Frage genügt, und man erhält von KI-basierten Chat-Bots fertige Texte für E-Mails, Präsentationen, Unternehmensberichte, optimierte Artikelbeschreibungen oder ausformulierte Ideen- und Konzeptpapiere – ohne dass man selbst tippen oder recherchieren muss.
  • Alternativ kann man dem Tool eigene Entwürfe vorlegen, die es verbessert, einem Faktencheck unterzieht, sprachlich für bestimmte Zielgruppen anpasst oder in eine Fremdsprache übersetzt.
  • Eine weitere Stärke von ChatGPT ist das Ordnen, Strukturieren und Berechnen von Daten: Der Bot liefert fertig ausgearbeitete Einsatz- oder Ablaufpläne, erstellt Auswertungen und Kennzahlen-Analysen oder produziert und prüft Computer-Code.
  • Außerdem lässt sich die Technologie von ChatGPT in Form eigener Chatbots zum Beispiel in den Kundenservice einbinden. Sie beantwortet dann beispielsweise Service-Anfragen oder gibt Produkt-Infos auf Grundlage der eigenen Datenbanken. Zur Einbindung werden bereits eine Reihe an Baukasten-Systemen angeboten. Dienstleister übernehmen die Integration für überschaubare Beträge. Allerdings fallen dann nutzungsabhängige Kosten an, die durchaus beträchtlich sein können.

Für größere Unternehmen bietet OpenAI, das Unternehmen hinter ChatGPT, seit einiger Zeit eine Enterprise-Variante, bei der die Künstliche Intelligenz auf den individuellen Bedarf trainiert wird.

Interaktives Sprachmodell auf Basis maschinellen Lernens

Sprachmodelle auf Basis von Deep Learning werden anhand großer Textmengen darauf geschult, Sprache kontextabhängig zu analysieren und zu produzieren. Deshalb wirkt es so, als könnten die Algorithmen Spracheingaben wirklich im Kontext verstehen, so wie Menschen das tun, und wohlformulierte Antworten geben, die inhaltlich gut passen.

Tatsächlich hat das System nur „gelernt“, kontextabhängig das zu „sagen“ oder zu „verstehen“, was statistisch gemäß den Trainingsvorgaben zu erwarten ist, das allerdings auf Grundlage einer sehr umfangreichen Datenbasis als Trainingsgrundlage. Häufig passen die Ergebnisse der intelligenten automatischen Sprachverarbeitung verblüffend gut: Spontan ist es in der Regel kaum möglich, den Output solcher Systeme von echter menschlicher Sprache zu unterscheiden. Risiko- und fehlerfrei macht das ihre Nutzung allerdings nicht.

Derzeit geht die Entwicklung rasant weiter. ChatGPT soll eine Web-Suchfunktionalität und eine Bild-Erkennung erhalten und mit dem Sprechen beginnen. Parallel dazu übernehmen Suchmaschinen den neuen Ansatz. So arbeitet Microsofts Bing mit einer eigenen Variante der OpenAI-Technologie, GPT-4. Google nutzt das hauseigene KI-System Bard.

Stets möglich: inhaltliche Fehler

Wenn man mit KI-Sprachtools arbeitet, wird schnell klar, dass die Ergebnisse keineswegs fehlerfrei sind. In ihrem Output tauchen immer wieder sachliche Fehler auf. Das kann nicht nur zu Peinlichkeiten führen. Wenn in Antworten auf Kundenfragen, in Produktbeschreibungen oder Unternehmensberichten unrichtige Angaben auftauchen, ist das Unternehmen mit Haftungs- und Gewährleistungsfragen konfrontiert.

  • Beim eigenen Gebrauch des Tools lassen sich sachliche und inhaltliche Fehler durch systematisches Prüfen des ChatGPT-Resultats zwar vermeiden. Das lässt allerdings den Bequemlichkeits- und Zeitvorteil des Tools schrumpfen.
  • Gibt ein vom Unternehmen eingesetzter Chat-Bot mit ChatGPT-Technologie fehlerhafte Antworten, ist das Problem größer, zumal der kalifornische Betreiber keine Gewähr für fehlerfreien Output übernimmt und auf die Möglichkeit von Fehlern hinweist. In der Regel dürfte die Haftung beim Unternehmen liegen, dass den Chat-Bot einsetzt. Wie groß das Risiko der Haftung ist, hängt von den konkreten Umständen ab: Den möglichen Schäden etwa und der Frage, ob die Verantwortung sich aus einem Vertrag oder aus Gesetzen ergibt.

Datenschutz

Die Eingabe eigener Texte, Informationen oder Code-Zeilen in ChatGPT zur Optimierung, Prüfung oder Übersetzung kann datenschutzrechtlich riskant sein, und zwar immer dann, wenn das eigene Material personenbezogene Daten enthält.

  • Man sollte grundsätzlich stets davon ausgehen, dass Daten, die man in einen KI-Chatbot eingibt, von diesem gespeichert und möglicherweise für eigene Zwecke genutzt werden, etwa zum weiteren Training der App. Bei ChatGPT lässt sich die Verwendung und Speicherung der eigenen Prompts nach Angaben des Anbieters zwar durch entsprechende Einstellungen unterbinden. In seiner (englischsprachigen) Datenschutzerklärung behält sich das US-Unternehmens aber eine recht weitgehende Nutzung vor, darunter auch die Weitergabe an Dritte.
  • Zudem macht es darauf aufmerksam, dass die Daten in den USA gespeichert und verarbeitet werden. OpenAI hat zwar einen Datenschutzbeauftragten für die EU mit Sitz in Irland benannt. Auf die Einhaltung aller Vorgaben der DSGVO legt es sich offenbar jedoch nicht fest. Die italienischen Datenschutzbehörden hatten die Nutzung von ChatGPT sogar eine Zeit lang untersagt, dann aber wieder zugelassen.
  • Wer ChatGPT und ähnliche Tools etwa zur Auswertung von Kundendaten, zur Erstellung von Geschäftskorrespondenz oder als Support-Bot für Kunden nutzt, benötigt bei der Eingabe personenbezogener Daten wohl grundsätzlich die Einwilligung der Betroffenen. Das macht die Anwendung für viele praktische Anwendungsfälle im Unternehmen wenig praktikabel. Wer will schon eine datenschutzrechtliche Einverständniserklärung abgeben, bevor er eine Frage nach einem Produkt stellt? Ohne Einwilligung wird eine solche Nutzung wohl schnell zum DSGVO-Verstoß. Das gilt ganz besonders, wenn es um sensible und besonders geschützte Daten geht, etwa mit Bezug zur Gesundheit oder zu persönlichen Finanzen.
  • In jedem Fall ist die juristische Diskussion um die Einordnung von ChatGPT nicht einmal ansatzweise abgeschlossen. So ist auch weiterhin unklar, ob und in welcher Form ein Auftragsverarbeitungsvertrag mit OpenAI abgeschossen werden muss, wenn das Tool Daten Dritter verarbeitet. In der kostenlosen Basis-Version scheint dies gar nicht möglich. Manche Juristen wie Rechtsanwalt Dr. Daniel Huber sehen in der Nutzung einen Fall gemeinsamer Verantwortlichkeit von Anwender und OpenAI, so dass ein Auftragsverarbeitungsvertrag nicht genügt.

Geschäftsgeheimnisse

Ein ähnliches Problem wie beim Datenschutz besteht auch in Bezug auf Interna, die nicht preisgegeben werden dürfen, etwa vertrauliche Kooperationspläne oder Geschäftsgeheimnisse. In solchen Fällen verpflichten oft Vertragsklauseln oder Verschwiegenheitserklärungen zur Vertraulichkeit gegenüber Dritten.

Die Vertraulichkeit ist jedoch nicht gewährleistet, wenn die Marketingtexte für ein geplantes Produkt mit ChatGPT optimiert werden und die Spezifikationen auf diese Art im Pool der Trainingsdaten von OpenAI landen.

Marken- und Wettbewerbsrecht

Das Marken- und Wettbewerbsrecht setzt Grenzen. So darf man beispielsweise fremde Markennamen nicht zur Beschreibung eigener Produkte verwenden („wie Marke X“). Auch unangemessene, sachlich nicht belegbare Aussagen oder Vergleiche sind unzulässig („beliebter und angenehmer als das Produkt Y“). Dazu kommen viele weitere Vorgaben, beispielsweise Einschränkungen aus dem Lebensmittel- und Arzneimittelwerberecht, wonach Lebensmittel nicht mit Heilversprechen beworben werden dürfen („Z essen und gesund bleiben“).

Man kann nicht davon ausgehen, dass ChatGPT solche rechtlichen Rahmenbedingungen beachtet, wenn er bei der Erstellung von Werbeaussagen oder Marketing-Material eingesetzt wird. Wer nicht aufpasst, handelt sich mit den so erstellen Slogans und Werbetexten eine Abmahnung ein. Wie die Gerichte in solchen Fällen urteilen, muss sich noch zeigen.

Persönlichkeitsrecht

Die Betreiber der KI-Sprachmodelle geben sich große Mühe, damit ihre Tools keine Beleidigungen oder diskriminierenden Äußerungen produzieren. Das hat allerdings nicht immer funktioniert, wie die Vergangenheit zeigt. Zwei Beispiele:

  • ChatGPT setzte einen US-amerikanischen Juraprofessor auf eine Liste von Rechtswissenschaftlern, denen sexuelle Belästigung vorgeworfen wird. Das Problem: Es gab im Fall dieses Mannes keine derartigen Vorwürfe, der Fall war frei erfunden. ChatGPT nannte sogar einen ebenfalls fiktiven Artikel der Washington Post als Beleg.
  • Forscher am Allen Institute brachten ChatGPT mit eher einfachen Manipulationen dazu, trotz der eingebauter Sicherheitsvorkehrungen rassistische Texte zu produzieren.

Dass ChatGPT diskriminierende und extremistische Aussagen oder Verleumdungen produziert, ist kein ständiges Phänomen. Durch einfache Prompts erhält man derartige Botschaften jedenfalls nicht. Stattdessen gibt das Tool einen Warnhinweis aus. Außerdem setzt OpenAI, so wie auch Google, Moderatorenteams und Filter ein, um bösartige Kommentare möglichst zu verhindern.

Komplett ausschließen lassen problematische Botschaften sich trotzdem nicht. Sollte es dazu kommen, steht schnell die Verletzung von Persönlichkeitsrechten durch Beleidigungen oder Benachteiligungen im Raum. Wo zwischen dem Hersteller, dem Unternehmen, das den Chat-Bot einbindet und dessen Nutzer dann die juristische Verantwortung liegt, ist derzeit noch völlig ungeklärt.

Urheberrecht

Kompliziert kann es auch beim Thema Urheberrecht werden. Auch in diesem Punkt hat die juristische Diskussion um ChatGPT erst begonnen.

  • Da ein Algorithmus keine Urheberrechte an von ihm erstellten Texten oder Code erwerben kann, auch nicht für seinen Autor oder den Anbieter der Software, kann ChatGPT kein Copyright auf die von dem Sprachmodell ausgegebenen Produkte beanspruchen. Dasselbe gilt allerdings für Nutzer, die diese Texte veröffentlichen oder in anderer Form verwenden. Unternehmen, die von ChatGPT generiert Texte oder Bezeichnungen veröffentlichen, können nicht gegen Konkurrenten vorgehen, die diese einfach übernehmen.
  • Da ChatGPT sich ein einfaches Nutzungsrecht an allen von ihm erstellten Texten und den dort eingegebenen Prompts vorbehält, darf man den Chat-Bot nur mit Werken füttern, an denen man selbst über ein einfaches Nutzungsrecht hinaus auch das Recht zur Weiterlizenzierung hält.
  • Ein weiterer Gesichtspunkt ist die Frage, ob OpenAI selbst Urheberrechte verletzt, weil die unzähligen Texte, die als Trainingsmaterial für ChatGPT gedient haben, zu einem großen Teil von Dritten stammten. Aus diesem Grund laufen in den USA bereits mehrere Verfahren gegen die Software-Firma, darunter eine von namhaften Schriftstellern. Sollte das Produkt die Urheberrechte verletzen, würde das auch für diejenigen gelten, die von ihm produzierte Texte veröffentlichen.

Was kommen könnte: Wasserzeichen-Pflicht und strenge Anforderungen

Noch gibt es keine gesetzliche Pflicht, die Produkte künstlicher Intelligenz klar zu kennzeichnen und damit von menschlichen Werken unterscheidbar zu machen. Eine solche Regelung wird aber von vielen Experten diskutiert und könnte in absehbarer Zeit Gesetz werden. Schon deshalb sollten Unternehmen im Nachhinein nachvollziehen können, welche von ihnen genutzte Slogans, Pläne, Texte, Bilder oder Software-Codes durch KI generiert wurden.

Derzeit werden auf europäischer Ebene zwei Regelwerke vorbereitet, die sich direkt auf Tools wie ChatGPT auswirken werden.

  • Das eine ist die geplante KI-Verordnung der EU. Sie würde KI-basierte Sprachmodelle als Hochrisiko-Anwendung einstufen, für die besondere Transparenzanforderungen und Sicherheitsvorschriften gelten.
  • Als zweite Regelung wird an einer europäische KI-Haftungsrichtlinie Sie soll die Betreiber von KI-Angeboten in die Pflicht nehmen.

Was bisher fehlt, sind Gerichtsurteile zu Tools wie ChatGPT, die die Einsatzmöglichkeiten abstecken. Man kann wohl davon ausgehen, dass sich dies schon in naher Zukunft ändern, über die vermutliche Richtung der Rechtsprechung in solchen Fragen lässt sich jedoch nur spekulieren.

Sinnvolle Punkte, um die ChatGPT-Nutzung im Unternehmen zu regeln

  • Um die Nutzung von ChatGPT und vergleichbaren Werkzeugen von vornherein auf eine klare Grundlage zu stellen, sollte ein Firmen-Konto bei ChatGPT angelegt werden. Wenn Mitarbeiter ihre privaten Zugänge verwenden, hat das Unternehmen keinerlei Kontrolle.
  • Außerdem empfiehlt sich zumindest für Unternehmen ab mittlerer Größe das Ausarbeiten einer Leitlinie, die die Dos and Don’ts festlegt. Dabei sollte auch der Datenschutzbeauftragte einbezogen sein sowie, falls vorhanden, der Betriebsrat.
    Die Richtlinie sollte beispielsweise thematisieren, für welche Zwecke ChatGPT und vergleichbare Tools genutzt werden dürfen und für welche nicht, wer den Zugang verwaltet und welche Daten, Texte und Codes dort eingegeben werden dürfen.
  • Ein dritter Punkt besteht darin, die Unternehmens-Policy arbeitsrechtlich verbindlich vorzugeben. Das kann beispielsweise über eine explizite, verbindliche Anweisung, durch eine Betriebsvereinbarung oder sogar durch eine arbeitsvertragliche Klausel. Ein kostenloses Muster dafür bietet die Anwaltskanzlei Siebert an.
  • Selbstständige und kleine Unternehmen benötigen zwar keine ausformulierte Policy. Sie sollten sich aber Gedanken darüber machen, wie sie den Umgang mit ChatGPT handhaben wollen.

Viele neue Möglichkeiten – aber keine risikolose neue Welt

ChatGPT und andere intelligente Chat-Bots bieten eine Vielzahl neuer Möglichkeiten. Ohne rechtliche Risiken sind sie nicht. Das liegt nicht etwa daran, dass die Anbieter – im Fall von ChatGPT das gemeinnützige Unternehmen OpenAI und dessen kommerzielle Tochtergesellschaft – unseriös wären. Doch die Technologie ist derart neu und so schnell gekommen, dass längst nicht alle praktischen Auswirkungen absehbar ist.

Viele Fragen rund um den Einsatz von KI im Geschäftsumfeld sind völlig ungeklärt. Die rechtliche Einordnung hinkt hinterher. Ein Großteil der rechtlichen Fragen ist momentan offen. Es empfiehlt sich, gerade die geschäftliche Nutzung überlegt anzugehen.

 

Lektüretipps

Weiterführende Informationen zu Steuer- und Buchführungsthemen finden Sie im orgaMAX-Blog und im Newsletter-Archiv: