Ein Überblick - 25. Juli 2024

Generative KI – rechtliche Herausforderungen

Generative künstliche Intelligenz hat innerhalb kürzester Zeit eine rasante Entwicklung durchlaufen und stellt damit auch Juristen vor neue Herausforderungen. Im Urheberrecht, Datenschutz oder Haftungsrecht müssen Antworten gefunden werden, um einen sicheren und verantwortungsvollen Umgang mit der neuen Technologie zu gewährleisten.

Eine der bemerkenswertesten rechtlichen Erkenntnisse bei der Einführung generativer künstlicher Intelligenz (KI) ist, dass die Ergebnisse von bekannten KI-Systemen wie ChatGPT oder Midjourney in der Regel nicht urheberrechtlich geschützt sind. Der Grund dafür liegt in der Definition des Urheberrechts, das den Schutz von Werken auf persönliche geistige Schöpfungen beschränkt. Ein geschütztes Werk muss zwingend das Ergebnis menschlicher Kreativität sein – was bei KI eben nicht der Fall ist.
Denn bei der Nutzung von KI gibt die Anwenderin oder der Anwender nur eine grobe Richtung vor, während der eigentliche kreative Akt von der KI ausgeht. Auch das U.S. Copyright bestätigte diese Sichtweise im Februar 2023 am Beispiel eines mit Midjourney erstellten Comics. Zwar sei die Bildgeschichte als Kombination von Bildern, Text und Anordnung geschützt. Für die erzeugten Bilder gelte dies aber nicht, da sie nicht auf menschlicher Kreativität beruhten. Ähnlich entschied im April 2024 auch das Stadtgericht Prag und sprach einer Kreation von DALL-E den urheberrechtlichen Schutz ab.

Urheberrecht: Fluch und Segen

Diese juristische Einschätzung erweist sich für die Ersteller von KI-Inhalten als Fluch und Segen zugleich. Einerseits können die Bilder oder Texte frei und uneingeschränkt genutzt werden, ohne dass Rechte übertragen und vergütet werden müssen. Andererseits kann aber auch jeder andere die generierten Inhalte kopieren und frei verwenden. Ein rechtlicher Schutz besteht nicht, KI-Inhalte sind so etwas wie digitales Freiwild. Rechtlich problematisch ist zudem der Umgang mit hybriden Werken, die zum Teil von KI, aber auch von Menschen verfasste Inhalte enthalten. Da die künstliche Intelligenz zukünftig in vielen Angeboten stecken wird, werden solche hybriden Werke eher die Regel als die Ausnahme sein. Die rechtliche Bewertung solcher Ergebnisse bleibt eine offene Frage. Wenn der Beitrag der KI gering ist, wie beispielsweise bei der Korrektur von Rechtschreibfehlern, bleibt der urheberrechtliche Schutz bestehen. Text- oder Codeabschnitte, die überwiegend von einem Computer generiert werden, sind dagegen eindeutig nicht urheberrechtlich geschützt. Die Beurteilung wird problematisch, wenn der Beitrag von Mensch und Maschine ungefähr gleich groß ist.

Personenbezogene Daten schützen

Vom strengen Regime der Datenschutzgrundverordnung erfasst ist die Verarbeitung personenbezogener Daten bei der Nutzung von KI-Systemen. Dazu gehören bereits die bei der Registrierung und Anmeldung erhobenen Informationen wie E-Mail-Adressen oder IP-Adressen.
Auch in den Prompts können personenbezogene Daten von Kunden, Kollegen oder Partnern enthalten sein. Bei der Bild-KI zählt dazu auch das Hochladen von Bildern, auf denen Personen zu sehen sind. Diese Informationen werden bei vielen Anbietern während der Nutzung auf amerikanische Server übertragen und dort für das KI-Training weiterverwendet, was ein zusätzliches datenschutzrechtliches Problem darstellt.
Gute und praxisnahe Hinweise für die Umsetzung bietet die Checkliste für den Einsatz von LLM-basierten Chatbots des Hamburgischen Datenschutzbeauftragten. Entscheidend dürfte der Hinweis sein, auf die Ein- und Ausgabe personenbezogener Daten möglichst zu verzichten und dies auch durch entsprechende Einstellungen der Software abzusichern.

Wer trägt die Verantwortung für Fehler der KI?

Unternehmen, die KI-Dienste zur Leistungserbringung für ihre Kunden einsetzen, stehen in Haftungsfragen auch vor rechtlichen Herausforderungen. Vieles spricht dafür, dass der Anwender zunächst für Fehlleistungen der KI gegenüber seinen Kunden einstehen muss. Ein Haftungsrisiko besteht vor allem bei Fehlinformationen durch KI-Systeme, die gegenüber Kunden oder Partnern agieren, zum Beispiel in Callcentern oder Kundenchats.
Einen der weltweit ersten Fälle in diesem Kontext hatte ein kanadisches Gericht Mitte Februar 2024 zu entscheiden. In diesem Verfahren hatte die Fluggesellschaft Air Canada versucht, den von ihr eingesetzten Chatbot, der falsche Informationen weitergegeben hatte, als eigenständigen Agenten darzustellen, für den sie keine Haftung übernehmen wollte. Dieser Argumentation folgte das Gericht jedoch nicht. Nach Ansicht der Richter war die Fluggesellschaft für die Fehlinformation verantwortlich und daher schadenersatzpflichtig. Darüber hinaus habe es das Unternehmen versäumt, angemessene Maßnahmen zu ergreifen, um die Richtigkeit der KI-Antworten sicherzustellen. Es spricht viel dafür, dass die hiesigen Richter in vergleichbaren Fällen ähnlich entscheiden würden.
Die Information des Kunden über den Einsatz von KI-Diensten und insbesondere über die damit verbundenen Risiken kann eine wesentliche Rolle spielen, um diese Risiken zu minimieren. So kann zum Beispiel in einem Vertrag oder in AGB ausdrücklich darauf hingewiesen werden, dass einige Leistungen durch KI erbracht werden und diese Ergebnisse nicht durch menschliche Mitarbeiter des Dienstleisters kontrolliert werden. Dies könnte die Haftungssituation zugunsten des Unternehmens beeinflussen.

Transparente Kennzeichnungspflichten

Obwohl eine Kennzeichnung von KI-generierten Inhalten zur Schaffung von Transparenz beitragen könnte, gibt es derzeit aus rechtlicher Sicht noch keine derartigen Verpflichtungen. Eine Ende 2023 veröffentlichte Rüge des Deutschen Presserats an eine Zeitschrift, die nicht gekennzeichnete KI-generierte Inhalte veröffentlicht hatte, unterstreicht aber die Bedeutung und die möglichen Folgen mangelnder Transparenz. Gerügt wurde, dass ein Magazin von Midjourney generierte Essensfotos ohne jeden Hinweis als Originalfotos präsentiert hatte.
Der AI Act führt solche Kennzeichnungspflichten für KI-generierte Inhalte ein, um deren künstliche Herkunft transparent zu machen. Dies gilt sowohl für visuelle und auditive Medien als auch für Texte, vor allem wenn diese realistische Darstellungen enthalten, die ohne Kennzeichnung irreführend sein könnten. Die Vorschriften verlangen, dass solche Inhalte als künstlich erzeugt oder verändert gekennzeichnet werden. Die Kennzeichnung muss bei der ersten Interaktion mit dem Nutzer deutlich sein. Eine Ausnahme besteht nur dann, wenn die Inhalte von Menschen überprüft werden oder unter Ausnahmen wie Kunst und Satire fallen.

Fazit: viele offene Fragen

Die rasante Entwicklung der generativen KI stellt das Recht vor große Herausforderungen. In einigen Bereichen müssen noch Antworten gefunden werden, um einen sicheren und verantwortungsvollen Umgang mit der neuen Technologie zu gewährleisten. Während das Urheberrecht die Ergebnisse der KI in der Regel nicht schützt, sind beim Datenschutz und bei der Haftung strenge Regeln zu beachten. Die Europäische Union hat mit dem AI Act einen ersten Schritt zur Regulierung von KI-Systemen gemacht. Kennzeichnungspflichten sollen künftig für mehr Transparenz sorgen. Unternehmen und Anwender sollten die rechtlichen Entwicklungen der generativen KI daher aufmerksam verfolgen, um Risiken zu vermeiden und Chancen zu nutzen.

MEHR DAZU

finden Sie unter go.datev.de/ki

Zum Autor

JH
Joerg Heidrich

Fachanwalt für IT-Recht und Partner der Kanzlei Heidrich Rechtsanwälte, die unter anderem die Website ki-kanzlei.de betreibt.

Weitere Artikel des Autors