Ausprobiert: Adobe Firefly Boards
Konzeption mit KI-Assistenz von Firefly, ChatGPT und Flux – alles in einem Tool. Wir testen die Neuentwicklung von Adobe
Schritt 1: Moodboarding & Remix
Referenzfotos für Fotostyle und Interieur sammeln wir aus verschiedenen Quellen, wie etwa Pexels und Adobe Stock, das über ein Suchfeld direkt in Firefly eingebunden ist. Diese Bildwelt lässt sich zudem durch KI erweitern, Fotos remixen oder als Style- und Kompositionsreferenz nutzen.

Auffallend ist dabei, dass beim Remixen Firefly oftmals nicht ganz den Vibe trifft. Die Bilder nehmen schnell ein Stock-Aussehen an und der spezifische Stil geht verloren. Sehr treffsicher ist dagegen die Variante, ein bestimmtes Bild als Referenz für die Komposition und ein anderes für den Stil zu verwenden. Der Prompt kann zusätzlich helfen zu definieren, welche Aspekte übernommen werden sollen.

Schritt 2: Anordnung & Kollaboration
Für Typografie und Logoentwicklung verlassen wir uns auf Adobe Fonts und die eigene Designausbildung. Referenzen sammeln wir auf unserem Board, um sie mit dem fiktiven Kunden abzustimmen.
Praktisch sind die von Adobe integrierten Tools, um schnell aus dem typischen Bilderchaos ein geordnetes Raster oder Artboards anzulegen. Dazu einfach alle gewünschten Bilder markieren und mit »Collect Items«, »Arrange« oder »Align« arbeiten.
Anschließend können alle Beteiligten Kommentare hinterlassen, die sich entweder auf das gesamte Board beziehen, oder mit einem farbigen Pin direkt am jeweiligen Asset verankert werden.

Schritt 3: Assets verknüpfen
Wenn der Prozess weiter fortgeschritten ist, und es erste Assets – wie etwa Logoentwürfe oder Farbswatches – gibt, die in anderen Adobe-Tools entstanden sind, lassen sich diese ganz einfach per Drag and Drop oder aus der Cloud auf das Board einfügen.
Dort sind die Dateien dann verknüpft – fast wie ein Smart Objekt – und aktualisieren sich bei jedem Öffnen des Boards. Aus Boards heraus lassen sich verlinkte Dateien im jeweiligen Programm und in Adobe Express öffnen, oder entlinken, um einzelne Projektstände abzubilden.
Schritt 4: Individualisierte Bildwelt
Wohl am meisten beeindruckt hat uns Boards in Kombination mit anderen Adobetools, wie etwa der 3D-modelling Software Project Neo. Entsprechend des Konzepts sollten die Produktfotos, die auch auf Social Media und in Kampagnen genutzt werden, einen künstlerischen Stil haben.
In Project Neo modellierten wir deshalb rudimentär die Komposition, die wir uns für die Fotos vorstellten, und generierten in Boards mit einer Kombination aus diesen Kompositionsreferenzen und verschiedenen Stilreferenzen aus unserem Moodboard aus Schritt 1 eine Reihe an Produktshots.
Diese können so bereits als Proof of Concept, oder zum Briefing für eine:n Fotograf:in genutzt werden. Wir gehen aber noch einen Schritt weiter, und entwickeln daraus individualisierte Mockups, um mögliche Packaging- und Brandingoptionen auszutesten.

Schritt 5: Mockups
Für unsere personalisierten Mockups arbeiten wir mit den zuvor generierten Produktshots. Dazu duplizieren wir die Bilder und bearbeiten sie mit Generative Fill direkt in Firefly Boards, bis sie zu unseren Vorstellungen passen.
Anschließend laden wir die Bilder herunter und ziehen sie in Adobe Illustrator. Dort können wir ganz einfach unsere Vektorassets mit der Model-Funktion in der richtigen Perspektive auf unsere selbst generierten Basisbilder ziehen, Größe, Farben und Texte editieren.
So limitieren wir uns nicht auf vorgefertigte Mockups, sondern können erst einmal mit verschiedenen Ideen experimentieren. Wer allerdings ein bestimmtes Mockup nutzen möchte, kann dieses als Kompositionsreferenz verwenden und mit dem gewünschten Stil ausgeben. Mit etwas Fingerspitzengefühl lässt sich die Mockup-Datei dann in Photoshop entsprechend anpassen.

Schritt 6: Präsentation & Motion
Zum Abschluss bereiten wir den Entwurf mit Bildwelt, Logo und Mockups zur Präsentation auf. Dazu lassen sich Assets mit den verschiedenen Anordnungstools sammeln, Texte ergänzen und Größen anpassen.
Mit Firefly Video (in das Generierungsfeld unten integriert) versetzen wir dann noch einige unserer Stills in Bewegung. Hier fällt auf, dass Firefly unsere Logoskizze akkurat übernimmt, wenn sie mit in den Endframe integriert ist.
Präsentieren lassen sich die Entwürfe anschließend über den Sharing-Button direkt aus dem Board, mittels eines Downloads oder via Adobe Express.


Was Boards noch besser machen kann
Alles in Allem ist Boards eine spannende Ergänzung zur Creative Cloud und integriert Firefly an genau der Stelle im Prozess, in der wir KI sehen wollen: der Exploration. Allerdings sind einige Features in der Beta noch nicht ganz rund.
Es fehlt an Tastenkombinationen, wie wir sie aus den anderen Adobetools gewohnt sind. Gruppierungen und Skalierung der Assets funktioniert auf dem Board nicht immer, und bei der Remix-Funktion zeigen sich ganz deutlich die Grenzen der Firefly-KI, die vorrangig Farben und Motive aus den Referenzbildern mischt, den Stil aber verwässert.
Farben sind schwierig im Handling, da das Eyedropper-Tool nicht immer funktioniert. Farbfelder und Bibliotheken, die sich aus der Cloud laden lassen wären hier eine gute Lösung.
Was uns an Firefly Boards gefallen hat
In unseren Tests wurde schnell klar, dass Boards vor allem in Kombination mit anderen Adobetools glänzt. Besonders beeindruckt hat uns die Kombination aus Project Neo und Boards, um schnell Referenzkompositionen für ein etwaiges Fotoshooting zu generieren – hier hat eine einzige Stilreferenz wirklich konsistente Ergebnisse erzeugt, ohne dass wir zusätzlich noch viel Prompten mussten.
Ebenfalls überzeugen die vielen kleinen, wohldurchdachten Features, wie die automatische Anordnung von Bildreferenzen zu sauberen Moodboards, die viel Zeit und Nerven sparen.
Wichtig dabei: wer Boards für Kundenpräsentationen und Kollaboration verwendet, muss klar kommunizieren und abwägen, wie final die Entwürfe schon sein können. Denn was auf den Boards bereits »fertig« aussieht, könnte in Realität deutlich schwieriger umsetzbar sein.



Firefly Boards ist in der Public Beta und mit einigen neuen Features versehen, die wir so noch nicht von Adobe kennen: darunter erstmals die Integration von Adobe-fremden KI Modellen, (fast) endloser Zeichenfläche und neuen Kollaborationstools.

