Seit rund drei Wochen testet Art Directrice Julie Wieland die neuen, generativen KI-Modelle von Adobe. Wir durften ihr über die Schulter schauen.
Julie Wieland gehört zu den technikaffinen Grafikdesignerinnen, die weiß, wie sich KIs im Joballtag schlagen und welche Aufgaben man ihnen überlassen kann.
Die Autodidaktin in HTML und Adobe-Softwares machte ihren B.A. in Kommunikationsdesign vor fast zehn Jahren an der Berliner Technischen Hochschule. Seitdem entwickelt sie Webdesigns, Brandings oder Packaging Designs, zunächst festangestellt in Agenturen und Start-Ups, seit 2021 als freiberufliche Art Direktorin.
Keine Angst vor neuen Tools und Techniken
»Ich interessiere mich schon immer für Technik und neue Tools und anstatt mir den Kopf zu zerbrechen, ob sie mir den Job streitig machen könnten, versuche ich, sie für mich zu nutzen und mir meine Arbeit zu erleichtern«, so Wieland.
Dass Grafikdesigner:innen bald ihre Jobs los sein werden, weil nun jedermann mit KIs Bilder generieren kann, glaubt sie nicht. »Die Arbeit von Grafidesigner:innnen ist viel zu komplex, da sind ganz andere kreative Jobs gefährdet, beispielsweise Produktfotografie, Modeling oder Illustration«, erklärt Wieland.
Firefly Beta: Text-zu-Bild und Text-Effekte
Die Beta Version der Firefly KI-Modelle ist zur Zeit über die Adobe-Website im Browser zu erreichen. Dort stehen Nutzer:innen in Deutschland zur Zeit zwei Funktionen zur Verfügung: ein Text-zu-Bild-Modell sowie ein Modell, um Texte gezielt mit künstlich generierten Layern zu modifizieren. Diese lassen sich dann mit transparentem Hintergrund exportieren und bequem weiterverarbeiten.
»Für private Einlandungs- oder Grußkarten ein tolles Tool, das Spaß macht und einem viel mühselige Arbeit abnimmt, wenn man Texte auf diese Weise dekorieren will«, erklärt die Wieland. Wenn sie sich für eine der beiden Funktionen entscheiden müsste, »würde ich aber sofort das Text-zu-Bild-Modell wählen, dafür habe ich im Job wirklich Verwendung«, so Wieland.
Firefly bietet Einsteigern ein einfach zu erlernendes Interface. »Vieles, was man in Tools wie DALL-E oder Midjourney prompten muss, lässt sich hier einfach über Auswahlmenüs vorher einstellen«, zeigt uns Wieland. Ihr Firefly-Prompt muss weitaus weniger Anweisungen enthalten als andere Tools benötigen, um Lichter zu setzen oder Stimmungen zu erzeugen. »Die Ergebnisse sind völlig okay, vielleicht nicht ganz so cinematografisch, aber gut«, so die Designerin.
Firefly für Moodboards, Mock-ups und Briefings
Erfrischend pragmatisch und gezielt ist Wielands Ansatz, wenn sie eine Text-zu-Bild-KI wie Firefly in den Arbeitsprozess integriert. »Ich frage mich nicht, wie crazy kann ich mit der KI gehen, sondern wie realistisch. Ich nutze Synthografien oft anstelle von Stockbildern in Moodboards, weil es mir das endlose Suchen nach einem geeigneten Motiven erspart. Ich generiere mithilfe einer KI lieber schnell meine eigenen Visuals«, so Wieland.
Auch ganz individuelle Mock-ups, etwa für Packaging-Designs oder visuelle Briefings erstellt sie sich durch sehr gezielte Prompts selbst: »Statt einem Fotografen in Worten zu erklären, wie ich mir das Licht, die Pose, die Perspektive vorstelle, kann ich ihm mithilfe von KI zusätzlich ein visuelles Briefing erstellen«, erklärt die Designerin.
Das beugt enerseits Missverständnissen vor, andereseits kommen Artdirektor:innen die schnellen, relativ zuverlässigen Bildgeneratoren in der heutigen asap-Kultur zupass.
Prompts: Diktatorisch, spezifisch und ausführlich
Firefly und andere Text-zu-Bild-KIs sind vor allem praktische Helfer, wenn man genau weiß, was man möchte. »Ich prompte sehr diktatorisch und gebe dem jeweiligen Modell genaue Instruktionen, beispielsweise von wo welches Licht einfallen soll, um gewünschte Schatten zu erzielen«, erklärt Wieland. So bestimmt sie auch akribisch Spiegelungen oder Reflexionen, Tageszeiten, Wetterbedingungen, Interieur oder Landschaften.
Bis vor kurzem investierte sie noch Zeit in die Postproduktion der KI-generierten Bilder mit Photoshop. Unrealistische Hände waren ein ständiges Problem, das man retuschieren musste, doch neue Modelle bringen fast fehlerlose Ergebnisse hervor, so dass sie auch hier effektiver arbeiten kann.
»Diese neue Qualität birgt allerdings auch Gefahren, die wir von Deep Fakes kennen. Meine Mutter hätte das Bild vom Papst im Puffer-Coat wahrscheinlich auch erst einmal für echt gehalten. Gerade Menschen außerhalb unserer Technikblase können mithilfe von KIs immer einfacher manipuliert werden«, so Wieland.
Wieland weiß auf jeden Fall, für welche Projekte sie Firefly neben den anderen Tools einsetzen wird. »Wenn es nicht zu artsy sein soll, sondern eher in einem business oder commercial Look, würde ich Firefly einsetzen, auch wegen der Rechtesicherheit«, so Wieland.
Die Ästhetik des Firefly-Modells ist naturgemäß recht stocky, weil das KI-Modell unter anderem auf Adobe-Stock-Bildern trainiert wurde. Das ist gleichzeitig ein wesentlicher Vorteil des Modells, denn die damit generierten Bilder können praktisch keine Urheber- oder Markenrechte verletzen.
»Auch Diversität lässt sich damit super abbilden. Es ist einfach, männliche, weibliche, junge und alte Personen, Weiße und POCs vor immer demselben Hintergrund zu generieren oder andersherum; verschiedenste Hintergründe für das immer gleiche Model«, erklärt Wieland. Als Producer:in sei man mit einem solchen Tool sehr viel unabhängiger, beispielsweise von Wetterbedingungen oder Budgets.
»Wie gesagt, schafft die KI unsere Jobs nicht ab, sie schafft aber neue Jobs, etwa für Prompt Engineering. Studiengänge gibt es dafür noch nicht und Menschen, die neue Tools schneller lernen als andere, haben größeren Einfluss auf deren Entwicklung«, so Wieland.
In diesem Sinne weiterhin einen guten Beta-Test. Wir erwarten gespannt, wann und wie die KI-Modelle Einzug in die CreativeCloud-Apps erhalten.
PAGE Logo
Wer einen Blick auf das letzte PAGE-Cover mit dem früheren Logo werfen möchte, findet die Ausgabe 05.2014 in unserem Shop. Adobe veröffentlichte die Vortice ein Jahr später im Frühjahr 2015 – ob Miguel Sousa PAGE-Fan und das eine Hommage war?
Julie Wieland
Bild: Copyright 2020. All rights reserved.
Julie Wieland ist multidisziplinäre Grafikdesignerin und beschäftigt sich seit 2022 intensiv mit KI in der Gestaltung. Sie ist in Luxemburg geboren, lebt und arbeitet nach vielen Jahren in Berlin inzwischen in Stuttgart. Während der Pandemie meisterte sie nicht nur den Sprung zur Vollzeit-Freelancerin und -Creator, sondern entdeckte auch TikTok als praktische Plattform für Grafikdesigner:innen. Darüber berichten wir auch in der aktuellen PAGE 04.23. ab Seite 26ff.
Wir berichten regelmäßig über neue Entwicklungen rund um KI und Design. Hier haben wir einige Artikel aus den letzten Monaten für euch zusammengestellt. Bitte beachtet dabei, dass sich die Lage fast wöchentlich ändert und manche Inhalte nicht mehr aktuell sein können.
Es ist spannend zu sehen, wie KI in den kreativen Prozess integriert wird, wie Julie Wielands Einsatz der neuen generativen KI-Modelle von Adobe zeigt. Als autodidaktische Designerin mit fundierten HTML- und Adobe-Kenntnissen ist sie bestens gerüstet, um das Potenzial von KI in der täglichen Arbeit zu erkunden. Es wird interessant sein zu sehen, wie KI die Zukunft des Designs prägen wird und wie Kreative wie Julie diese Technologie nutzen können, um ihre Arbeit zu verbessern.
Es ist spannend zu sehen, wie KI in den kreativen Prozess integriert wird, wie Julie Wielands Einsatz der neuen generativen KI-Modelle von Adobe zeigt. Als autodidaktische Designerin mit fundierten HTML- und Adobe-Kenntnissen ist sie bestens gerüstet, um das Potenzial von KI in der täglichen Arbeit zu erkunden. Es wird interessant sein zu sehen, wie KI die Zukunft des Designs prägen wird und wie Kreative wie Julie diese Technologie nutzen können, um ihre Arbeit zu verbessern.