PAGE online

Ausprobiert: Konsistente Charaktere mit Midjourney –cref

2024 war das mit Abstand der beliebteste Tools-Artikel: Wir haben für euch geprüft, was das gehypte Midjourney Character Reference Feature tatsächlich kann.

Zwei Bilder: Links ein Bild einer jungen Frau mit pinken Haaren. Rechts das Bild in einem knalligen Pop Art Stil mit leicht anderer PoseKonsistente Charaktere in Midjourney zu erzeugen, brauchte bisher immer einen Workaround. Während einige Kreative mittlerweile auf Face Swap zurückgreifen, setzten andere auf Image Blending und aufwändige Prompts.

Mit Midjourneys neuem Character Reference Feature (–cref) soll die konsistente Abbildung eines Charakters künftig auch in dem Tool selbst möglich sein. Wir haben getestet und zeigen euch, wie –cref funktioniert, und wann Photoshop vielleicht die besseren Ergebnisse liefert.

So benutzt ihr –cref

Kurz gesagt, ist –cref ein Befehl, der im Prompt eine Bild-URL als Referenz für eine Person definiert. Das Referenzbild kann entweder bereits mit Midjourney erstellt worden sein, oder aus anderen Quellen stammen, muss dann aber erst in Discord hochgeladen werden. Das geht über das + Symbol in der Textleiste, in der regulär der Prompt eingegeben wird.

Die Bild-URL erhaltet ihr, indem ihr das gewünschte Bild anklickt und in der Detailansicht via Rechtsklick »Bildadresse kopieren« anwählt. Diese fügt ihr anschließend hinter eurem Prompt und dem Befehl –cref mit einem Leerzeichen ein (–cref url).

So lässt sich derselbe Charakter etwa in verschiedenen Posen, oder auch in ganz anderen Szenen und Stilen prompten, ohne dass Details zum Aussehen wiederholt werden müssen.

Zwei Bilder: Links das Portrait einer jungen Frau mit pinken Haaren und grünem Overall. Rechts dasselbe Bild mit einem Menü, in dem »Bildadresse kopieren« angewählt ist
Im ersten Schritt generieren wir unseren Character: eine junge Frau mit pinkem Bob, Brille und Sommersprossen in einem grünen Overall mit pinken Stiefeln. Anschließend können wir die Bild URL per Rechtsklick kopieren

Problem: Detailtreue

So ganz zuverlässig funktioniert das Tool allerdings noch nicht. Während etwa Kleidung, Haare und Accessoires wie eine Brille konstant abgebildet werden, sind die Gesichtszüge unserer generierten Testperson immer erkennbar unterschiedlich. So fehlen mal die Sommersprossen, die Gesichtsform oder die Lippen unterscheiden sich vom Original, oder wir entdecken KI-typische Fehler in der Körperhaltung.

Für ein internes Storyboard könnte –cref dennoch bereits reichen. Wenn aber beispielsweise prominente Persönlichkeiten gezeigt werden sollen, wäre Midjourney wohl nur als grobe Skizze oder Vorstufe für Photoshop geeignet – allerdings auch nur, wenn Menschen oder humanoide Charaktere gezeigt werden sollen. Für Tiere oder Fabelwesen eignet sich –cref noch nicht, und produziert eher gruselige Ergebnisse im Versuch, sich der Referenz anzunähern.

Zwei Bilder: links ein Bild der Frau mit den pinken Haaren in vier verschiedenen Ausführungen. Jedes Gesicht ist dabei leicht anders. Rechts ein Bild derselben Frau die auf einer Schaukel vor einem blauen Himmel schwebt
Links haben wir getestet, wie sich unser Character in einer anderen Pose macht. Dabei fallen die Inkonsistenzen in den Gesichtszügen auf. Das Outfit und die Haare werden allerdings gut übernommen.
Ähnlich verhält es sich in einer komplexeren Szene. Dabei gehen aber noch mehr Details verloren

Troubleshooting und Feintuning mit –cw

Wer den ursprünglichen Charakter auch mal in verschiedener Kleidung oder in einem anderen Setting zeigen möchte, kann mit dem zusätzlichen Befehl Character Weight (–cw) experimentieren.

Dieses steuert die Genauigkeit, mit der sich –cref an die Vorlage hält. Per default ist dabei ein Wert von 100 eingestellt, bei dem Haare, Kleidung und Gesicht so getreu wie möglich übernommen werden. Bei einem –cw Wert von 0 übernimmt Midjourney nur das Gesicht.

In unserem Beispiel haben wir mit –cw50 etwa die Möglichkeit, die Kleidung unseres Characters deutlich zu verändern, während ohne Angabe (also mit –cw100) die Kleidung und das Aussehen exakt in unseren gewünschten Stil übersetzt werden.

Zwei Bilder: Links die Frau mit den pinken Haaren in einem barocken Kleid vor einem ornamentalen Hintergrund. Rechts dieselbe Frau aber in einem anderen Illustrationsstil mit futuristischem Licht und in ihrem gewohnten Overall
Der Parameter –cw (Character Weight) steuert, wie genau Midjourney sich an die Referenz hält. Per default liegt der Wert bei 100 (Haare, Gesicht und Kleidung werden übernommen). Bei geringeren Werten lassen sich Kleidung und andere Details im Prompt verändern

Zwei Charaktere einsetzen mit vary(region)

Wer sich jetzt fragt, ob Midjourney auch zwei konsistente Charaktere im selben Bild produzieren kann, wird leider enttäuscht. Es gibt zwar die Möglichkeit, mehrere Character Referenzen einzusetzen, indem man verschiedene URLs hinter den Befehl setzt, doch das produziert eine Mischung aus allem Input.

Es gibt aber einen kleinen Workaround in Midjourney, um zwei Charaktere in einer Szene zusammenzubringen. Dazu prompten wir zunächst das gewünschte Bild mit unserer ersten Referenz und einer Platzhalterperson. Dieses bearbeiten wir anschließend mit vary(region), markieren den Platzhalter und geben im Prompt dann die Referenz für einen zweiten Character an, den wir zuvor bereits generiert hatten.

Dabei braucht es etwas Feingefühl im Prompt und einige Iterationen, doch mit etwas Übung können sich die Ergebnisse sehen lassen.

Drei Bilder in einem Ablauf: Links zwei Frauen, die sich sehr ähnlich sehen und sich anschauen in einem Feld aus Mohn. In der Mitte ein Bearbeitungsfenster, in dem eine der Frauen markiert ist und darunter ein Feld für den Prompt. Rechts dasselbe Bild, nur ist eine der Frauen durch einen jungen Mann mit grünen Haaren, dunkler Haut und grünem Hemd ersetzt
Wir starten mit einem generierten Bild, in dem wir zwei Characters prompten. Eine der Frauen ersetzen wir anschließend mit vary(region) durch eine anderen Character Reference. So lassen sich zwei zuvor definierte Characters in einem Bild zeigen

Was halten wir von –cref?

Auf den ersten Blick eröffnet das neue Feature einige Möglichkeiten im Workflow: konsistente Charaktere, die an einer Stelle im Team geprompted und ganz ähnlich wie die Style-Referenz /tune ganz einfach via Link weitergegeben und angewendet werden kann.

Gerade in Storyboards oder Konzepten für Kampagnen-Fotoshootings ist das enorm nützlich und kann auch in Briefing-Situationen oder in der Kundenpräsentation helfen.

Doch für den Output eignet sich das Feature unserer Meinung nach noch nicht. Dazu sind die Ergebnisse noch nicht präzise genug, und der Zeitaufwand zu hoch. So mussten wir für unseren zweiten Character mehrfach die Haarfarbe im Prompt spezifizieren, da sie in der Style Reference offenbar nicht definiert war.

Details wie die Farbe der Schuhe gingen verloren und je komplexer die Bildkomposition oder der gewünschte Stil, desto ungenauer war die Übersetzung des Characters in das neue Bild.

Doch –cref steht ja auch noch ganz am Anfang. Wir werden sehen, wie Midjourney das Feature weiterentwickelt. Aber genug von uns – habt ihr –cref schon getestet?

 

Erstmals erschienen am 21. März 2024.

Produkt: PAGE Edition 2025-01
PAGE Edition 2025-01
Creating Community ++ RANKING: Top-50-Kreativagenturen ++ English Special: Dada Projects ++ AI: Spiel ohne Grenzen ++ Branding für BayWa Mobility Charging ++ 30 Days of UX + Step by Step ++ UX: Barrierefrei in 3 Monaten ++ PAGE Community-Rat ++ From Creative to Design Manager ++ EXTRA: PAGE Booklet »Job & Karriere«

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte dich auch interessieren