PAGE online

Ausprobiert: Animatic mit Midjourney und Pika AI

Wir testen, wie sich einfache Styleframes per KI in ein animiertes Storyboard verwandeln lassen – und wann Handarbeit gefragt ist

Dieses Animatic ist ganz mit KI entstanden. Ihr wollt wissen, wie das geht? Im Artikel liefern wir euch die Step-by-Step-Anleitung

Das Internet ist voll von KI-generiertem Content, Bildern, Filtern und sogar ganzen Videoclips. Zuletzt hat uns ein Video von AI-Artist Julian van Dieken auf Instagram zum Staunen gebracht, in dem zwei überdimensionale Hände ein scheinbar echtes Kätzchen mit lautem Knistern zerdrücken (unten). Eine kurze Recherche offenbart das KI-Tool: Pika.art.

KI-Motion-Tools können aber noch viel mehr, als nur lustige Videos zu erstellen – und mal ehrlich, von denen haben wir bereits genug gesehen. Wir testen einen AI-Workflow, den ihr tatsächlich im Alltag anwenden könnt: vom Styleframe mit Midjourney zum Animatic mit Pika für euer nächstes Motionkonzept.

 

Sieh dir diesen Beitrag auf Instagram an

 

Ein Beitrag geteilt von Julian van Dieken (@julian_ai_art)

 

Part 1: Styleframes mit Midjourney prompten

Im ersten Schritt seid ihr frei – eure Styleframes können KI-generiert, handgezeichnet oder fotografiert sein. Wir haben mit Midjourney begonnen und einige Techniken angewandt, die wir bereits vorgestellt haben. So kommt unser personalisiertes Modell mit dem Code –p 7dmw8ym zum Einsatz und wir nutzen das neue Midjourney Web Interface mit dem verbesserten Editor.

 

Bevor wir aber mit KI starten, müssen wir zunächst eine Storyline entwickeln und Szenen für unsere Styleframes festlegen. Anschließend definieren wir beim Prompten des ersten Bildes den Stil, den wir über die Use > Style Funktion von Midjourney auf unsere weiteren Bilder anwenden. Für aufwendigere Produktionen wäre ein Styletuner effizienter.

Mit dem Editor iterieren wir die Bilder so lange, bis wir zufrieden sind. Neun Bilder laden wir herunter und nehmen sie als Basis für das Animatic in Pika.

Das Midjourney Web.Interface mit einem generierten Bild im 16:9 Format, das eine Schafherde in einem romantischen Cartoon-Style zeigt

Part 2: Pika.art kennenlernen

Für die Animation unserer Styleframes testen wir Pika.art. Das Tool entwickelten zwei Stanford-Doktorandinnen, die ihr Team heute auf eine Runde an Motionexpert:innen, Filmemacher:innen und Programmierer:innen ausgeweitet haben.

Wie auch Midjourney startete Pika auf einem Discord-Server, der heute über 800.000 Mitglieder hat. Anfang des Jahres zog Pika mit der 1.0 Version in ein eigenes Webinterface um und veröffentlichte vor kurzem die 1.5 Variante. Das 1.5 Modell ist für alle kostenlos zugänglich, die vollen Funktionen zur Bearbeitung von bereits generierten Videos lassen sich allerdings nur mit dem 1.0 Modell im bezahlten Abomodell nutzen.

Das Beispiel von Julian van Dieken ist einer von vielen Pikaeffects, mit denen Bilder automatisiert animiert werden oder Szenen von Grund auf gepromptet werden können. Pika kann allerdings noch einiges mehr: von selbst entwickelten Szenen mit einer Länge vier oder mehr Sekunden bis zur individuellen Bearbeitung von bestimmten Bildstellen.

Das Interface von Pika.art begrüßt Nutzer:innen mit einer Übersicht aus bereits generierten Videos als Inspiration

 

Part 3: Prompten in Pika

Für dieses Projekt haben wir uns für die Abovariante mit Zugang zu Pika 1.0 entschieden, da wir mehr Kontrolle über den Output brauchten und zudem das Pika 1.5 Modell derzeit stark überlastet ist, wodurch die Generierung oftmals bis zu 15 Minuten dauert. Mit 1.0 liegt die Generierungszeit zwischen ein bis drei Minuten, sodass wir unsere Ergebnisse schneller iterieren können.

Wir beginnen im Pika-Interface unten links mit dem Upload unseres ersten Styleframes und der Definition des Modells unten rechts. Für die Animationen kopieren wir den Prompt aus Midjourney, der unser Bild beschreibt, direkt in die Promptleiste von Pika. So stellen wir sicher, dass die KI erkennt, was auf dem Bild sichtbar ist. Dann setzen wir Kameraanweisungen davor und passen den Prompt so an, dass er die Bewegung beschreibt.

Das Pika.art Controlpanel mit dem Prompt und einem Beispielbild

Wichtig: der Style sollte unbedingt ebenfalls weiter im Prompt stehen bleiben. In unserem Fall haben wir einen Ghibli-ähnlichen Animationsstil gewählt, der schnell die Grenzen und Möglichkeiten von Pika aufzeigt. Wenn diese Styleangabe fehlt, kann Pika manchmal etwas unvorhergesehene Ausreißer produzieren.

das pika control panel für die Kamerabewegung mit verschiedenen Icons

Anschließend können wir im Controlpanel unten rechts einen Negativprompt eingeben oder bei Generierungen ohne Basisbild das Seitenverhältnis ändern. In der 1.0 Version gibt es außerdem die Möglichkeit, die Kamerabewegung auszuwählen, Framerate, Stärke der Bewegung und Konsistenz mit dem Textprompt einzustellen, was gegenüber der 1.5 Version einen deutlichen Unterschied macht.

Und los geht der Generierungsprozess!

Das Pika Controlpanel mit verschiedenen Silbern für die Framerate, Bewegung und Pormptgenauigkeit

Part 4: Iteration und Editing

In Pika 1.0 generierte Videos können anschließend weiter bearbeitet werden. Dazu wählen wir in unserem Library-Bereich ein Video aus und klicken auf Edit. Unten im Controlpanel öffnen sich dann die Optionen. Darunter ein Inpainting-Feature und Canvas-Expand sowie Sound-Effects, die passend zu den Clips generiert werden.

Wir wählen Modify region, um Details in unserer Animation zu betonen oder Bewegungen anzupassen. Die Bearbeitungsfeatures sind allerdings etwas unberechenbar – auch hier ist wichtig, den gewünschten Style zu beschreiben, da Pika ansonsten eine andere Ästhetik generiert.

Spannend ist auch das Lipsync-Feature, in dem man Text eingeben, Stimmen generieren und das Video sehr zielsicher auf die Lippenbewegungen synchronisieren lassen kann.

Im Pika Interface ist eine Region des Bildes ausgewählt, für die ein neuer Prompt eingegeben werden kann

Part 5: Schnitt und Sound

Um unsere animierten Styleframes zu einem Animatic zusammenzusetzen, haben wir Premiere Pro verwendet, aber ihr könnt jedes Schnittprogramm nutzen, in dem ihr euch wohlfühlt.

Unsere Clips sind ganz einfach hintereinander gesetzt und in den Längen bearbeitet, um zu skizzieren, wie das Pacing einer fertigen Animation aussehen könnte. In einem nächsten Schritt könnten dann noch Sounds und Musik hinzugefügt oder generiert werden.

Besonders effektiv, um das Grundgefühl des Animatics stimmig zu machen, sind einfache Color-Grading-Schritte, mit denen etwa die Wärme der Bilder und bestimmte Farbtöne angepasst werden können.

im interface von premiere pro sind alle videoclips hintereinander angeordnet und auf verschiedene längen zugeschnitten

Learnings: Animatic mit KI

Pika.art ist nur eines von vielen Motion-AI-Tools, doch wir fanden das Webinterface angenehm intuitiv. Der Generierungsprozess ist dagegen noch nicht ganz so rund, wie wir es von reinen Bildgeneratoren wie Midjourney und Firefly gewohnt sind. Oftmals braucht es mehrere Prompt-Iterationen und Experimente mit den Parametern, um das gewünschte Ergebnis zu erzielen.

Allerdings ließ sich mit Midjourney und Pika in rund zwei Stunden ein Ergebnis produzieren, das bereits als Stylereferenz und grobes Animatic für eine aufwendigere Produktion dienen könnte.

Die Videoqualität und Koheränz mit dem Prompt ist zwar noch lange nicht produktionsreif, aber mit der Geschwindigkeit der KI-Entwicklung könnten wir bereits in wenigen Wochen die nächsten großen Fortschritte sehen. Habt ihr schon mit KI-Motion gearbeitet?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte dich auch interessieren