KI und Recht: »Data Mining ist grundsätzlich erlaubt – auch für kommerzielle Zwecke«
War das Trainieren von KI-Modellen wie Stable Diffusion und Co. rechtlich ok? Wie sieht es mit dem Urheberrecht aus? Was sollten Kreative jetzt tun? Wir fragten Rechtsanwältin Eva Gabriel-Jürgens.
Bei der zur Zeit in den USA anhängigen Klage gegen Stable AI, Midjourney und DeviantArt argumentieren die Kläger:innen, dass die streitgegenständliche KI Stable Diffusion neue Bilder wie eine Collage aus den gescannten Werken zusammensetzt. Das stelle eine Verletzung von Urheberrechten dar. Nach meinem Verständnis funktioniert die KI allerdings so, dass sie die digitalen oder digitalisierten Bilder und die dazugehörigen Textbeschreibungen in der Trainingsphase lediglich analysiert, um daraus Informationen, insbesondere Muster oder Merkmale zu erlernen. So lernt die KI aus einer Vielzahl von Bildern zum Beispiel, dass zum Begriff »Kirsche« die Merkmale »rund« und »rot« gehören. Darüber hinaus wird eine Unmenge an weiteren Merkmalen gespeichert, die mögliche Darstellungsformen von Kirschen, sowie die Unterscheidung von anderen roten, runden Dingen möglich macht.
Die KI lernt also die Beziehung zwischen Bildinhalten und Sprache zu verstehen und verarbeitet diese Informationen, indem sie Cluster bildet, einen sogenannten latenten Raum, in dem all diese Merkmale und Muster zusammengetragen werden. Auf Basis dieser Algorithmen werden dann, abhängig von den Textbefehlen der KI-Nutzerinnen, neue Bilder erzeugt. Somit handelt es sich nicht um eine Kopie der ursprünglichen Bilder, sondern um die Umrechnung von gelernten Mustern in Pixel.
Warum ist diese Unterscheidung wichtig?
Es mag kleinkariert erscheinen, das so aufzudröseln, aber technisch wäre letzteres Vorgehen eher unter Data Mining zu subsumieren – und das ist erlaubt, sowohl in den USA unter der Fair-Use-Doktrin, als auch nach der Europäischen DSM-Richtlinie, die in Deutschland im §44b Urheberrechtgesetz umgesetzt wurde. Letzterer besagt, dass Text- und Data-Mining vergütungsfrei für kommerzielle Anwendungen gestattet ist – auch, um künstliche Intelligenz zu trainieren. Die EU möchte damit Innovationen im Bereich KI fördern. Nach meiner Interpretation des Rechts müsste dieses Gesetz auch im Falle von KI-Bildgeneratoren anwendbar sein. Aber sicher weiß man das erst, wenn die Gerichte darüber urteilen, am besten höchstrichterlich.
Haben solche Klagen wie in den USA Ihrer Meinung eine Chance?
Ich kann den Ausgang der Klage in den USA nicht vorhersagen, halte sie aber nicht für sonderlich aussichtsreich. Letztlich geht es um die Frage, inwieweit urheberrechtliche Werke der Allgemeinheit zur Verfügung stehen sollten, um öffentliche Bildung und das Schaffen von Kultur zu ermöglichen – also als Quelle der Inspiration oder für Lehr- und Forschungszwecke. Das ist es, was die Fair-Use-Doktrin und die DSM-Richtlinie garantieren sollen. Der Grundgedanke ist, dass alle das Recht haben, sich von bereits bestehenden Werken inspirieren zu lassen. Allerdings gibt es derzeit noch keine Unterscheidung, ob dieses Recht gleichermaßen für Menschen und Maschinen gilt – wobei auch fraglich ist, ob der Begriff »Inspiration« für eine automatisierte Verarbeitung durch eine KI überhaupt passend ist.
Bedeutet das, dass sich Designer:innen und Künstler:innen nicht wehren können?
Nicht ganz: §44b UrhG besagt, dass Urheber:innen die Möglichkeit haben, der Nutzung ihrer Werke im Rahmen von Data Mining vorab zu widersprechen. Für online zugängliche Werke gilt allerdings, dass dieser sogenannte Nutzungsvorbehalt in maschinenlesbarer Form erfolgen muss. Das heißt, er muss automatisch von einer KI, die Datensätze durchforstet, erkannt werden. Wie das ausgestaltet sein kann oder muss, ist eine Frage, die letztlich die Gerichte entscheiden müssen. Nach der Gesetzesbegründung soll der Data Miner die Beweislast dafür tragen, dass ein wirksamer Nutzungsvorbehalt zum Zeitpunkt des Text- und Data-Mining fehlt. Das Problem dabei: Da die Urheber:innen meist gar nicht wussten, dass ihre Werke verwendet werden, hatten sie keine Veranlassung, an ihre Werke einen Nutzungsvorbehalt anzubringen. Dazu kommt, dass die Urheber:innen im Zweifel nur schwer beweisen können, dass ihre Werke verwendet wurden, wenn der Data Miner nicht offen legt, welche Datensätze genutzt wurden.
Wie bringt man denn einen Nutzungsvorbehalt überhaupt an?
Man kann auf der eigenen Website, zum Beispiel in den AGB, natürlich den Hinweis veröffentlichen, dass man die Nutzung seiner Werke für Data Mining verbietet. In dem Moment, wo mein Bild aber kopiert wird – und das ist digital ja sehr einfach, zum Beispiel per Screenshot –, wäre schon kein Nutzungsvorbehalt mehr zu erkennen. Eine andere Möglichkeit wären Wasserzeichen, die so in das Bild integriert werden, dass sie auch in einem Screenshot auslesbar wären. Ich bin allerdings keine Programmiererin und weiß nicht, ob es noch andere technische Alternativen gäbe.
Gibt es denn einen Kompromiss, den Sie sich vorstellen könnten?
Getty Images versucht derzeit einen Kompromiss mit ihrer Klage gegen Stable AI in Großbritannien. Der Bildagentur geht es laut eigener Aussage in erster Linie darum, eine faire Kompensation zu verhandeln. Die Klage bezieht sich darauf, dass die KI-Entwickler gegen die Nutzungsbedingungen von Getty Images verstoßen hätten, als sie deren Inhalte ungefragt für das KI-Training verwendeten. Es könnte also eine Möglichkeit sein, Data Mining vertraglich auszuschließen – oder eben eine Entschädigung zu verlangen.
Aus Sicht der Urheber:innen wäre es allerdings schöner, wenn es eine Opt-in-Funktion gäbe – wenn man also grundsätzlich gefragt werden müsste, ob die eigenen Bilder verwendet werden dürfen. So ist das deutsche Urheberrecht auch eigentlich angelegt: Alles, was nicht explizit erlaubt ist, ist grundsätzlich verboten. Die Nutzungsrechte liegen originär immer bei den Urheber:innen und müssen nur in Ausnahmefällen nicht angefragt werden. Diese Ausnahmefälle sind solche, bei denen der Gesetzgeber befunden hat, dass die Interessen der Allgemeinheit überwiegen – etwa, weil man Kultur voranbringen möchte. Das ist das Schlupfloch für Data Mining und KI-Training.
Shutterstock hat eine eigene KI entwickelt, die mit den Bildern der Plattform trainiert wurde, und verspricht den Urheber:innen eine Kompensation. Was halten Sie davon?
Für Bildnutzer:innen hat dieses Modell den Vorteil, dass sie eine gewisse Sicherheit bekommen. Wenn sie über Shutterstock ein KI-generiertes Bild anfertigen und lizenzieren lassen, haben sie einen Vertragspartner, den sie in Haftung nehmen können, falls dieses Bild doch Rechte Dritter, wie Urheberrechte, verletzen sollte, weil es einem echten Kunstwerk zu ähnlich sieht. Es ist also ein sichererer Weg, KI-generierte Bilder zu nutzen.
Für die Urheber:innen ist das nach wie vor problematisch. Selbst wenn ihnen eine Kompensation angeboten würde, kann ich mir nicht vorstellen, dass sie Summen bekommen werden, die den eventuellen Ausfall ihrer Aufträge durch KI auffangen können.
Was können Kreative denn jetzt tun?
Wenn sie nicht möchten, dass ihre Arbeiten zu Trainingszwecken genutzt werden, rate ich ihnen, ihre Werke so schnell wie möglich mit einem Nutzungsvorbehalt zu versehen. Außerdem können sie auf der Plattform https://haveibeentrained.com nachschauen, ob ihre Werke bereits zum KI-Training verwendet wurden und dort über einen Link das Opt-Out für die Verwendung durch Stable Diffusion V3 erklären.
Zudem können sie auf politischer Ebene Druck ausüben, wenn sie sich zusammenschließen und eine Lobby bilden. Proteste wie das Entfernen der eigenen Werke von Plattformen oder deren Ersetzen durch »No AI«-Schriftzüge erzeugen Aufmerksamkeit und schmälern die Anwendbarkeit der Datenbanken. So können sie versuchen, Forderungen gegenüber den Betreibern durchsetzen, wie etwa eine Kennzeichnungspflicht für KI-Kunst einzuführen oder den KI-Output pro Nutzer-Anfrage zu begrenzen. Und sie können Bildagenturen den Vorrang geben, die sich für ihre Rechte einsetzen – die also einen Opt-out anbieten, Data Mining vertraglich verbieten oder KI-Werke ganz ablehnen.
Auf der anderen Seite können Kreative die KI-Generatoren natürlich auch als Hilfsmittel einsetzen, um eigene Werke zu schaffen. Um an diesen Urheberrechte zu erlangen, müssten sie aber selbst schöpferisch tätig werden, das heißt einen wesentlichen kreativen Beitrag leisten, beispielsweise indem sie die KI-Outputs so künstlerisch bearbeiten, dass ein eigenes, neues Werk entsteht.
Von der Nutzungsperspektive betrachtet: Lassen sich KI-generierte Bilder gefahrlos zu kommerziellen Zwecken verwenden, etwa in Anzeigenmotiven?
Im Moment ist es so, dass eine KI keine Urheberrechte haben kann, weil Maschinen nicht rechtsfähig sind. Wenn es keinen Urheber gibt, ist ein Werk gemeinfrei. Jede:r kann damit machen, was sie oder er will. Problematisch ist allerdings, dass die KI von bestehenden Werken gelernt hat. So kann es sein, dass sie ein Bild erschafft, dass einem bereits vorhandenen extrem ähnlich sieht. Das könnte als Plagiat eingestuft werden, das eine Urheberrechtsverletzung darstellt. Ich würde also davon abraten, KI-generierte Bilder in kommerziellen Werbekampagnen zu verwenden. Das könnte sehr teuer werden, wenn damit Urheberrechte verletzt werden – oder auch Persönlichkeitsrechte, wenn abgebildete Personen echten Menschen zu ähnlich sehen.
Bei der Frage, ob an KI-Werken Urheberrechte bestehen, ist außerdem abzugrenzen, in welchen Fällen eine KI tatsächlich autonom, also ohne wesentlichen Anteil eines Menschen etwas erschafft, und wo KI nur als Hilfsmittel von einem Menschen eingesetzt wird. Dabei wird auch diskutiert, inwiefern den KI-Nutzer:innen durch ihre Text-Eingaben Urheberrechte entstehen können.
Was erwarten Sie, wie es bei dem Thema weitergeht?
Die beiden zurzeit anhängigen Gerichtsverfahren in den USA und Großbritannien entfalten zwar keine direkte Wirkung in Deutschland, sind aber dennoch sehr interessant, um eine Tendenz im Umgang der Akteure erkennen zu lassen. Bei dem Gerichtsprozess in Großbritannien kann es gut sein, dass sich die Parteien einigen werden – diesen Wunsch hat zumindest Getty schon angedeutet. Sollte eine Einigung erzielt werden, muss man schauen, ob die Betreiber der KI-Bildgeneratoren sich darauf einlassen, grundsätzlich Kompensationen zu bezahlen, oder ob dieser Fall als Ausnahme betrachtet wird, weil hier die Nutzungsbedingungen von Getty beim Training missachtet wurden.
Die Gerichte müssen generell entscheiden, inwieweit die freie Nutzung von Werken angesichts der technischen Entwicklungen gerechtfertigt ist – und ab welchem Punkt die Rechte der Urheber:innen zu sehr beeinträchtigt werden.
Außerdem muss geklärt werden, welche Rechte an den KI-Werken bestehen und ob einzelnen Akteuren Rechte wie beispielsweise Leistungsschutzrechte zuerkannt werden. Im Gegensatz zum Urheberrecht betrifft das Leistungsschutzrecht nicht die originäre Schöpfung eines Werkes, sondern dessen Herstellung oder Darbietung. Es ist insofern ein Investitionsschutz. Denkbar wäre beispielsweise, dass den Entwickler:innen oder Betreiber:innen von KIs solche Rechte zuerkannt werden.
Persönlich glaube ich, dass eine echte kreative Schöpfung eines Menschen immer ihren Wert behält und nicht durch eine KI ersetzt werden kann. Rechtlich wird jede technische Fortentwicklung neue Fragen aufwerfen.
Mehr zum Thema Bildrecht
Am 10. und 11. Mai gibt Eva Gabriel-Jürgens in unser PAGE Academy ein Webinar zum Thema »Bildrecht«. Darin wird es auch einen Exkurs zu KI geben. Schnell anmelden – die Plätze sind begrenzt!
Weiterlesen zum Thema KI und Design
Wir bemühen uns, stets über die neuesten Entwicklungen rund um KI und Design zu berichten. Zum Einstieg in das Thema haben wir einige Artikel zusammengestellt. Bitte beachtet dabei, dass sich die Lage fast wöchentlich ändert und einige der Inhalte nicht mehr aktuell sein könnten.