PAGE online

Making-of: Machine Dream – Identität in der digitalen Welt

Machine Dream by Kadine James x Jessica Avarello 2024 ist eine der ersten digitalen Fashion-Installationen, die ausschließlich mit AI-Tools entstand. Welche Tools sie für das immersive Erlebnis nutzten, lest ihr in unserem Making-of

Machine Dream by Kadine James x Jessica Avarello 2024Basierend auf einem transmedialen KI-Workflow erforschen Kadine James und Jessica Avarello, wie virtuelle Identitäten mit unseren Vorstellungen von uns selbst verschmelzen. Dabei sind diese digitalen Identitäten nicht statisch, sondern tanzen und bewegen sich so wie ihre physischen Vorbilder. Wo diese Grenze zwischen virtuell und real verschwimmen, schaffen die Künstler:innen anlässlich der Digital Fashion Week eine transformative Erfahrung für das Publikum.

Was sie dazu bewegt hat? Die rigiden Schönheitsideale in der traditionellen Modewelt, die verhindern, dass man die eigene Persönlichkeit in all ihren Facetten ausdrücken kann. Machine Dream will die Klischees aufbrechen und eine neue, vielfältigere Vision von Identität zeigen, die fluide ist und sich im digitalen Raum nicht nur voll entfalten, sondern physische Einschränkungen überwinden kann.

»Wir haben aus Bildern von uns selbst virtuelle Modelle und digitale Persönlichkeiten entwickelt, die konventionelle Schönheitsstandards sprengen und zeigen sollen, was man durch seine digitalen Identitäten ausleben kann. Es geht darum, sich selbst zu feiern, sich auszudrücken und dabei die Freiheit des digitalen Raums auszukosten«, erklärt Kadine James.

Alle Artikel im PAGE Impuls »Motion Design«

Überblick: Electric Dreaming: AI in Motion | Interview: Faktor Mensch im Motion Design | Ausprobiert: Animatic mit Midjourney und Pika AI| Making-of: Machine Dream | Top 15: Angesagte KI-Tools für Motion Design | Workflow: Die Lieblingstools von Motion Designer Markus Edmaier | Service: Was ist Motion Design und was sind die nächsten großen Schritte?

Konzept und Motion Design mit KI

Um eine nahtlose und transformative Erfahrung zu schaffen, wählte das Kollektiv einen Workflow mit verschiedenen KIs. Unter anderem sorgt MagicAnimate dafür, dass die Künstlerin ihren virtuellen Zwilling in Bewegung versetzen kann. »Wir wollten durch visuelle und choreografische Elemente eine kohärente und emotionale Erzählung in einem vollständig digitalen Setting entwickeln. Dabei kam es besonders darauf an, dass die Interaktionen zwischen mir und meinen digitalen Avataren fließend und immersiv wirken«, so James.

Die Erzählung ist als Selbstentdeckungsreise konzipiert, in der die Choreografie den virtuellen Charakteren ermöglicht, ihre Emotionen und Transformationen durch Bewegung auszudrücken. Da digitale Avatare oft als weniger authentisch wahrgenommen werden, legte das Team großen Wert auf die Charakterisierung der digitalen Persönlichkeiten durch Detailgenauigkeit in Design, Mimik, Körpersprache und Interaktion mit der Umgebung. Die Clips aus MagicAnimate verarbeitet das Team in dem KI-Tool LensGo, um andere Stile zu generieren. Der finale Film entstand in After Effects and CapCut.

Die Tools im Überblick: Midjourney, Magnific AI, Vidnoz AI, MagicAnimate, LensGo, After Effects und CapCut – wie sie verwendet wurden, erfahrt ihr weiter unten im Artikel.

KI-Fashion-Design für die virtuelle Welt

In der digitalen Modewelt gibt es keine physischen Einschränkungen hinsichtlich Materialien und ihres Verhaltens. Das kreative Team, angeführt von Marcela Castelli, nutzte die Freiheit des digitalen Raums, um mit Texturen, Bewegungen und Formen zu experimentieren, die in der realen Welt unmöglich wären. Sie entwarfen Kleidungsstücke, die sich dynamisch verändern und auf die Emotionen der Charaktere reagieren, wodurch ein immersives Modeerlebnis entsteht.

Dabei sollten die Stücke nicht nur visuell ansprechend, sondern auch bedeutungsvoll sein, insbesondere im Kontext der queeren Community und Kultur. Sie sind inspiriert von der Vielfalt, Rebellion und Kreativität der LGBTQ+-Gemeinschaft. Elemente queerer Kunst, Geschichte und Clubkultur tauchen auf, um die Geschichten von Trotz, Stolz und Selbstexpression zu vermitteln.

Das ist gelungen und zeigt, welche Möglichkeiten Designer:innen in Zukunft mit dynamischen und sich ständig verändernden Modestücken haben. Das eröffnet Freiraum für Kreativität und eine Welt, in der Mode zu einer interaktiven und immersiven Erfahrung wird, die die Branche und Konsument:innen nachhaltig beeinflussen könnte.

KI-Toolchain und KI-Workflow

Kadine James erklärt, wie sie Midjourney, Magnific AI, Vidnoz AI, MagicAnimate, LensGo, After Effects und CapCut für ihre Installation verwendet haben.

  1. Erstellen von Filmmaterial in Midjourney:
    Um die verschiedenen Avatare auf der Grundlage eines Fotos von Kadine James zu erstellen, haben wir Midjourney verwendet. Durch die Eingabe benutzerdefinierter Eingabeaufforderungen und die Anpassung von Parametern wie Beleuchtung, Texturen und Umgebungen konnten wir hochdetaillierte Avatare erstellen. So haben wir beispielsweise verschiedene Kunststile (z. B. Cyberpunk und Surrealismus) untersucht, um die beste Lösung für Kadines digitalen Zwilling zu finden. Jede Avatar-Iteration wurde durch Variationen und Hochskalierung innerhalb von Midjourney verfeinert, um eine außerweltliche Ästhetik einzufangen. https://www.midjourney.com
  2. Skalierung von KI-Bildern in Magnific AI
    Wir haben Magnific.Ai verwendet, um die Midjourney-Bilder auf eine Auflösung von mindestens 4000 x 4000 Pixel hochzuskalieren. Die KI ermöglichte es uns, die Bildqualität während der Vergrößerung beizubehalten, was für die Erhaltung von Details in Nahaufnahmen und für zukünftige Druckanwendungen von entscheidender Bedeutung war. Wir nutzten auch die Outpainting-Funktion von Magnific, um die Leinwand zu erweitern und mehr Hintergrunddetails um die Avatare herum zu erstellen. https://magnific.ai
  3. Vidnoz KI für die Erstellung von Avatar-Körpern
    Vidnoz KI wurde eingesetzt, um Ganzkörper-Avatare zu generieren. Während Midjourney statische Porträts erzeugte, half Vidnoz bei der Erstellung des gesamten Körpers, indem es Kopfaufnahmen nahtlos mit realistischen oder stilisierten Körperformen verschmolz. Wir passten die Anatomie, die Körperhaltung und das Gesamterscheinungsbild an Kadines Aussehen und Ästhetik an. https://de.vidnoz.com
  4. Motion Design in MagicAnimate
    Wir haben MagicAnimate, ein Open-Source-Tool, verwendet, um die statischen Avatare zu animieren. Dazu musste eine Laufzeit in Google Colab eingerichtet werden, um komplexe Animationen zu verarbeiten. Mit MagicAnimate konnten wir den Figuren natürliche Bewegungen hinzufügen – Blinzeln, subtile Handgesten und sogar Interaktionen mit der Umgebung. Wir haben die Keyframe-Tools verwendet, um Bewegungspfade zu steuern und eine flüssige Animation zu gewährleisten. https://www.magicanimate.org
  5. Video Style Transfer in LensGo
    In LensGo haben wir verschiedene Stile wie Anime und Aquarell auf die Videoclips angewendet. Das Endergebnis verwendet eine Kombination aus Cartoon- und Manga-Stilen, die innerhalb der KI erstellt wurden. Der Stilübertragungsprozess ermöglichte es uns, die Avatare nahtlos mit diesen künstlerischen Ästhetiken zu verschmelzen, wodurch die Bilder eindringlicher und ausdrucksstärker wurden. https://lensgo.ai
  6. Finaler Schnitt in After Effects und CapCut
    Für die Postproduktion verwendeten wir After Effects, um den letzten Schliff in Form von Lichteffekten, Farbkorrekturen und visuellen Übergängen hinzuzufügen. Mit CapCut verfeinerten wir die Videobearbeitungen – insbesondere um das Timing anzupassen und einige Bildunterschriften und Effekte hinzuzufügen. Mit beiden Tools konnten wir ein ausgefeiltes Endprodukt erstellen, das fließende Übergänge zwischen den KI-generierten Assets gewährleistet und eine hohe visuelle Qualität aufweist. https://www.capcut.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte dich auch interessieren