2024 war das mit Abstand der beliebteste Tools-Artikel: Wir haben für euch geprüft, was das gehypte Midjourney Character Reference Feature tatsächlich kann.
Konsistente Charaktere in Midjourney zu erzeugen, brauchte bisher immer einen Workaround. Während einige Kreative mittlerweile auf Face Swap zurückgreifen, setzten andere auf Image Blending und aufwändige Prompts.
Mit Midjourneys neuem Character Reference Feature (–cref) soll die konsistente Abbildung eines Charakters künftig auch in dem Tool selbst möglich sein. Wir haben getestet und zeigen euch, wie –cref funktioniert, und wann Photoshop vielleicht die besseren Ergebnisse liefert.
So benutzt ihr –cref
Kurz gesagt, ist –cref ein Befehl, der im Prompt eine Bild-URL als Referenz für eine Person definiert. Das Referenzbild kann entweder bereits mit Midjourney erstellt worden sein, oder aus anderen Quellen stammen, muss dann aber erst in Discord hochgeladen werden. Das geht über das + Symbol in der Textleiste, in der regulär der Prompt eingegeben wird.
Die Bild-URL erhaltet ihr, indem ihr das gewünschte Bild anklickt und in der Detailansicht via Rechtsklick »Bildadresse kopieren« anwählt. Diese fügt ihr anschließend hinter eurem Prompt und dem Befehl –cref mit einem Leerzeichen ein (–cref url).
So lässt sich derselbe Charakter etwa in verschiedenen Posen, oder auch in ganz anderen Szenen und Stilen prompten, ohne dass Details zum Aussehen wiederholt werden müssen.
Im ersten Schritt generieren wir unseren Character: eine junge Frau mit pinkem Bob, Brille und Sommersprossen in einem grünen Overall mit pinken Stiefeln. Anschließend können wir die Bild URL per Rechtsklick kopieren
Problem: Detailtreue
So ganz zuverlässig funktioniert das Tool allerdings noch nicht. Während etwa Kleidung, Haare und Accessoires wie eine Brille konstant abgebildet werden, sind die Gesichtszüge unserer generierten Testperson immer erkennbar unterschiedlich. So fehlen mal die Sommersprossen, die Gesichtsform oder die Lippen unterscheiden sich vom Original, oder wir entdecken KI-typische Fehler in der Körperhaltung.
Für ein internes Storyboard könnte –cref dennoch bereits reichen. Wenn aber beispielsweise prominente Persönlichkeiten gezeigt werden sollen, wäre Midjourney wohl nur als grobe Skizze oder Vorstufe für Photoshop geeignet – allerdings auch nur, wenn Menschen oder humanoide Charaktere gezeigt werden sollen. Für Tiere oder Fabelwesen eignet sich –cref noch nicht, und produziert eher gruselige Ergebnisse im Versuch, sich der Referenz anzunähern.
Links haben wir getestet, wie sich unser Character in einer anderen Pose macht. Dabei fallen die Inkonsistenzen in den Gesichtszügen auf. Das Outfit und die Haare werden allerdings gut übernommen. Ähnlich verhält es sich in einer komplexeren Szene. Dabei gehen aber noch mehr Details verloren
Troubleshooting und Feintuning mit –cw
Wer den ursprünglichen Charakter auch mal in verschiedener Kleidung oder in einem anderen Setting zeigen möchte, kann mit dem zusätzlichen Befehl Character Weight (–cw) experimentieren.
Dieses steuert die Genauigkeit, mit der sich –cref an die Vorlage hält. Per default ist dabei ein Wert von 100 eingestellt, bei dem Haare, Kleidung und Gesicht so getreu wie möglich übernommen werden. Bei einem –cw Wert von 0 übernimmt Midjourney nur das Gesicht.
In unserem Beispiel haben wir mit –cw50 etwa die Möglichkeit, die Kleidung unseres Characters deutlich zu verändern, während ohne Angabe (also mit –cw100) die Kleidung und das Aussehen exakt in unseren gewünschten Stil übersetzt werden.
Der Parameter –cw (Character Weight) steuert, wie genau Midjourney sich an die Referenz hält. Per default liegt der Wert bei 100 (Haare, Gesicht und Kleidung werden übernommen). Bei geringeren Werten lassen sich Kleidung und andere Details im Prompt verändern
Zwei Charaktere einsetzen mit vary(region)
Wer sich jetzt fragt, ob Midjourney auch zwei konsistente Charaktere im selben Bild produzieren kann, wird leider enttäuscht. Es gibt zwar die Möglichkeit, mehrere Character Referenzen einzusetzen, indem man verschiedene URLs hinter den Befehl setzt, doch das produziert eine Mischung aus allem Input.
Es gibt aber einen kleinen Workaround in Midjourney, um zwei Charaktere in einer Szene zusammenzubringen. Dazu prompten wir zunächst das gewünschte Bild mit unserer ersten Referenz und einer Platzhalterperson. Dieses bearbeiten wir anschließend mit vary(region), markieren den Platzhalter und geben im Prompt dann die Referenz für einen zweiten Character an, den wir zuvor bereits generiert hatten.
Dabei braucht es etwas Feingefühl im Prompt und einige Iterationen, doch mit etwas Übung können sich die Ergebnisse sehen lassen.
Wir starten mit einem generierten Bild, in dem wir zwei Characters prompten. Eine der Frauen ersetzen wir anschließend mit vary(region) durch eine anderen Character Reference. So lassen sich zwei zuvor definierte Characters in einem Bild zeigen
Was halten wir von –cref?
Auf den ersten Blick eröffnet das neue Feature einige Möglichkeiten im Workflow: konsistente Charaktere, die an einer Stelle im Team geprompted und ganz ähnlich wie die Style-Referenz /tune ganz einfach via Link weitergegeben und angewendet werden kann.
Gerade in Storyboards oder Konzepten für Kampagnen-Fotoshootings ist das enorm nützlich und kann auch in Briefing-Situationen oder in der Kundenpräsentation helfen.
Doch für den Output eignet sich das Feature unserer Meinung nach noch nicht. Dazu sind die Ergebnisse noch nicht präzise genug, und der Zeitaufwand zu hoch. So mussten wir für unseren zweiten Character mehrfach die Haarfarbe im Prompt spezifizieren, da sie in der Style Reference offenbar nicht definiert war.
Details wie die Farbe der Schuhe gingen verloren und je komplexer die Bildkomposition oder der gewünschte Stil, desto ungenauer war die Übersetzung des Characters in das neue Bild.
Doch –cref steht ja auch noch ganz am Anfang. Wir werden sehen, wie Midjourney das Feature weiterentwickelt. Aber genug von uns – habt ihr –cref schon getestet?
Creating Community ++ RANKING: Top-50-Kreativagenturen ++ English Special: Dada Projects ++ AI: Spiel ohne Grenzen ++ Branding für BayWa Mobility Charging ++ 30 Days of UX + Step by Step ++ UX: Barrierefrei in 3 Monaten ++ PAGE Community-Rat ++ From Creative to Design Manager ++ EXTRA: PAGE Booklet »Job & Karriere«