Wir testen, wie sich einfache Styleframes per KI in ein animiertes Storyboard verwandeln lassen – und wann Handarbeit gefragt ist
Das Internet ist voll von KI-generiertem Content, Bildern, Filtern und sogar ganzen Videoclips. Zuletzt hat uns ein Video von AI-Artist Julian van Dieken auf Instagram zum Staunen gebracht, in dem zwei überdimensionale Hände ein scheinbar echtes Kätzchen mit lautem Knistern zerdrücken (unten). Eine kurze Recherche offenbart das KI-Tool: Pika.art.
KI-Motion-Tools können aber noch viel mehr, als nur lustige Videos zu erstellen – und mal ehrlich, von denen haben wir bereits genug gesehen. Wir testen einen AI-Workflow, den ihr tatsächlich im Alltag anwenden könnt: vom Styleframe mit Midjourney zum Animatic mit Pika für euer nächstes Motionkonzept.
Im ersten Schritt seid ihr frei – eure Styleframes können KI-generiert, handgezeichnet oder fotografiert sein. Wir haben mit Midjourney begonnen und einige Techniken angewandt, die wir bereits vorgestellt haben. So kommt unser personalisiertes Modell mit dem Code –p 7dmw8ym zum Einsatz und wir nutzen das neue Midjourney Web Interface mit dem verbesserten Editor.