PAGE online

Forschungsprojekt: Den eigenen Bildstil gegen KI-Imitation schützen

An der University of Chicago testeten über 1000 Artists ein neues Programm, das Artworks für KI unlesbar machen soll

Hier sieht man in drei reihen originale Bilder der Künstler:innen, einen Zielstyle und die Ergebnisse der KI
Glaze setzt in den Originalbildern von Artists Störmarker, die der KI einen anderen Bildstil suggerieren. So wird der originale Bildstil der Künstler:innen geschützt.

Mit der laufenden Klage gegen Stability Ai und einigen Berichten von KI-Modellen, die den Stil bekannter Künstler:innen imitieren, ist die Unsicherheit unter Kreativen greifbar.

Aber heißt das nun, dass aus Furcht um Data Mining nichts mehr online geteilt werden sollte? Eine Forschungsgruppe der University of Chicago hat genau dafür einen neuen Lösungsansatz entwickelt.

Vor Creative AI verhüllt

Glaze ist ein Programm von Shawn Shan, Jenna Cryan, Emily Wenger, Haitao Zheng, Rana Hanocka, Ben Y. Zhao aus dem Computer Science Bereich der University of Chicago. Sie haben gemeinsam eine Methode entwickelt, um sogenannte »Style Mimickery«, also die Imitation eines bestimmten Bildstils auf Basis von urheberrechtlich geschützten Werken zu verhindern.

Dabei bauen Kreative vor der Veröffentlichung – etwa auf Social Media – mit Glaze in ihre Arbeiten kleine, fast unsichtbare Störer ein, die verhindern, dass die KI den Bildstil exakt kopieren kann. Diese »Cloaks« verfälschen stilbildende Punkte im Bild sodass sie für die KI unlesbar werden, oder auf einen gemeinfreien Stil hinweisen, die gängige Creative Als bereits gelernt hat – wie Kubismus, Van Goghs Ölstil oder Expressionismus.

Bei der Bildgenerierung mischt die KI dann diese falschen Hinweise mit dem tatsächlichen Bild. So wird zum Beispiel verhindert, dass Dritte eine KI mit Bildbeispielen von Künstler:innen »füttern« können, um deren Stil nachzuahmen.

Links sieht man zwei Originalbilder der Künstlerin Karla Ortiz, rechts die Version mit kleinen Störern, die wirken wie ein leichtes rauschen
Links sieht man die originalen Artworks, rechts die verschleierten Versionen mit einer relativ starken Störung. Aber schon geringe Veränderungen – die für Betrachter:innen fast unsichtbar sind – helfen dabei, den Bildstil zu schützen.

Artworks trotzdem auf Social Media teilen!

Ihr Verfahren testeten die Forscher:innen an einer Gruppe von über 1000 Kreativen aus unterschiedlichen Bereichen der Branche und mit historischen Kunstwerken in  Stable Diffusion und DALLE mega. Darunter auch Werke der Künstlerin Karla Ortiz, die Teil einer Klage gegen mehrere Creative AI Unternehmen ist.

Dabei erzielte schon ein geringfügiger Einsatz der Störelemente große Unterschiede zwischen den ursprünglichen Bildstilen der Künstler:innen und den generierten Bildern der KI. Interessanterweise wären aber auch mehr als ein Drittel der Befragten bereit dazu, ihre Bilder sichtbar zu stören, wenn sie das vor Style Mimickery schützen würde.

Die Forschungsgruppe arbeitet aktuell daran, ihr Programm für Windows und Mac aufzurüsten, um es anschließend Kreativen zur Verfügung zu stellen. Wir halten euch auf dem Laufenden!

Eine Zusammenstellung an Bildern die zeigen, wie die Cloaking Technologie die ursprünglichen Bilder davor schützt, in der Ki genau repliziert zu werden

Weiterlesen zum Thema KI und Design

Wir bemühen uns, stets über die neuesten Entwicklungen rund um KI und Design zu berichten. Zum Einstieg in das Thema haben wir einige Artikel zusammengestellt. Bitte beachtet dabei, dass sich die Lage fast wöchentlich ändert und einige der Inhalte nicht mehr aktuell sein könnten.

Produkt: Download PAGE - Kreative Recherche – Inspiration durch Information - kostenlos
Download PAGE - Kreative Recherche – Inspiration durch Information - kostenlos
Die Recherchemethoden und -tools von Kolle Rebbe, Zeichen & Wunder und Co

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte dich auch interessieren