Making-of: Machine Dream – Identität in der digitalen Welt
Machine Dream by Kadine James x Jessica Avarello 2024 ist eine der ersten digitalen Fashion-Installationen, die ausschließlich mit AI-Tools entstand. Welche Tools sie für das immersive Erlebnis nutzten, lest ihr in unserem Making-of
Die Erzählung ist als Selbstentdeckungsreise konzipiert, in der die Choreografie den virtuellen Charakteren ermöglicht, ihre Emotionen und Transformationen durch Bewegung auszudrücken. Da digitale Avatare oft als weniger authentisch wahrgenommen werden, legte das Team großen Wert auf die Charakterisierung der digitalen Persönlichkeiten durch Detailgenauigkeit in Design, Mimik, Körpersprache und Interaktion mit der Umgebung. Die Clips aus MagicAnimate verarbeitet das Team in dem KI-Tool LensGo, um andere Stile zu generieren. Der finale Film entstand in After Effects and CapCut.
Die Tools im Überblick: Midjourney, Magnific AI, Vidnoz AI, MagicAnimate, LensGo, After Effects und CapCut – wie sie verwendet wurden, erfahrt ihr weiter unten im Artikel.
KI-Fashion-Design für die virtuelle Welt
In der digitalen Modewelt gibt es keine physischen Einschränkungen hinsichtlich Materialien und ihres Verhaltens. Das kreative Team, angeführt von Marcela Castelli, nutzte die Freiheit des digitalen Raums, um mit Texturen, Bewegungen und Formen zu experimentieren, die in der realen Welt unmöglich wären. Sie entwarfen Kleidungsstücke, die sich dynamisch verändern und auf die Emotionen der Charaktere reagieren, wodurch ein immersives Modeerlebnis entsteht.
Dabei sollten die Stücke nicht nur visuell ansprechend, sondern auch bedeutungsvoll sein, insbesondere im Kontext der queeren Community und Kultur. Sie sind inspiriert von der Vielfalt, Rebellion und Kreativität der LGBTQ+-Gemeinschaft. Elemente queerer Kunst, Geschichte und Clubkultur tauchen auf, um die Geschichten von Trotz, Stolz und Selbstexpression zu vermitteln.
Das ist gelungen und zeigt, welche Möglichkeiten Designer:innen in Zukunft mit dynamischen und sich ständig verändernden Modestücken haben. Das eröffnet Freiraum für Kreativität und eine Welt, in der Mode zu einer interaktiven und immersiven Erfahrung wird, die die Branche und Konsument:innen nachhaltig beeinflussen könnte.
KI-Toolchain und KI-Workflow
Kadine James erklärt, wie sie Midjourney, Magnific AI, Vidnoz AI, MagicAnimate, LensGo, After Effects und CapCut für ihre Installation verwendet haben.
- Erstellen von Filmmaterial in Midjourney: Um die verschiedenen Avatare auf der Grundlage eines Fotos von Kadine James zu erstellen, haben wir Midjourney verwendet. Durch die Eingabe benutzerdefinierter Eingabeaufforderungen und die Anpassung von Parametern wie Beleuchtung, Texturen und Umgebungen konnten wir hochdetaillierte Avatare erstellen. So haben wir beispielsweise verschiedene Kunststile (z. B. Cyberpunk und Surrealismus) untersucht, um die beste Lösung für Kadines digitalen Zwilling zu finden. Jede Avatar-Iteration wurde durch Variationen und Hochskalierung innerhalb von Midjourney verfeinert, um eine außerweltliche Ästhetik einzufangen. https://www.midjourney.com
- Skalierung von KI-Bildern in Magnific AIWir haben Magnific.Ai verwendet, um die Midjourney-Bilder auf eine Auflösung von mindestens 4000 x 4000 Pixel hochzuskalieren. Die KI ermöglichte es uns, die Bildqualität während der Vergrößerung beizubehalten, was für die Erhaltung von Details in Nahaufnahmen und für zukünftige Druckanwendungen von entscheidender Bedeutung war. Wir nutzten auch die Outpainting-Funktion von Magnific, um die Leinwand zu erweitern und mehr Hintergrunddetails um die Avatare herum zu erstellen. https://magnific.ai
- Vidnoz KI für die Erstellung von Avatar-KörpernVidnoz KI wurde eingesetzt, um Ganzkörper-Avatare zu generieren. Während Midjourney statische Porträts erzeugte, half Vidnoz bei der Erstellung des gesamten Körpers, indem es Kopfaufnahmen nahtlos mit realistischen oder stilisierten Körperformen verschmolz. Wir passten die Anatomie, die Körperhaltung und das Gesamterscheinungsbild an Kadines Aussehen und Ästhetik an. https://de.vidnoz.com
- Motion Design in MagicAnimateWir haben MagicAnimate, ein Open-Source-Tool, verwendet, um die statischen Avatare zu animieren. Dazu musste eine Laufzeit in Google Colab eingerichtet werden, um komplexe Animationen zu verarbeiten. Mit MagicAnimate konnten wir den Figuren natürliche Bewegungen hinzufügen – Blinzeln, subtile Handgesten und sogar Interaktionen mit der Umgebung. Wir haben die Keyframe-Tools verwendet, um Bewegungspfade zu steuern und eine flüssige Animation zu gewährleisten. https://www.magicanimate.org
- Video Style Transfer in LensGoIn LensGo haben wir verschiedene Stile wie Anime und Aquarell auf die Videoclips angewendet. Das Endergebnis verwendet eine Kombination aus Cartoon- und Manga-Stilen, die innerhalb der KI erstellt wurden. Der Stilübertragungsprozess ermöglichte es uns, die Avatare nahtlos mit diesen künstlerischen Ästhetiken zu verschmelzen, wodurch die Bilder eindringlicher und ausdrucksstärker wurden. https://lensgo.ai
- Finaler Schnitt in After Effects und CapCutFür die Postproduktion verwendeten wir After Effects, um den letzten Schliff in Form von Lichteffekten, Farbkorrekturen und visuellen Übergängen hinzuzufügen. Mit CapCut verfeinerten wir die Videobearbeitungen – insbesondere um das Timing anzupassen und einige Bildunterschriften und Effekte hinzuzufügen. Mit beiden Tools konnten wir ein ausgefeiltes Endprodukt erstellen, das fließende Übergänge zwischen den KI-generierten Assets gewährleistet und eine hohe visuelle Qualität aufweist. https://www.capcut.com