PAGE online

Generative Gestaltung an der Burg Giebichenstein

Was genau ist »Metaworlds«? Die Schöpfer dieser ausgesprochen opulenten Bachelorarbeit haben sich das nie gefragt.

 

Christian Freitag und Paul Kirsten gestalteten eine abstrakte, interaktive Welt und gerieten in ein spannendes Abenteuer rund um Algorithmen, vvvv, Unity und Autodesk Maya. Jüngste Auszeichnung: erster Preis beim Nachwuchswettbewerb campus des Jahrbuchs der Werbung 2015.

Auch den Eyes & Ears of Europe Junior Award 2014, den Preis im ADC Nachwuchswettbewerb 2014 und die Nominierung in der Kategorie »Beste interaktive Produktion« im August 2013 wollen wir hier nicht verschweigen – und ja, die beiden Absolventen haben sich für ihre Bachelorarbeit an großen Vorbildern orientiert. »Ästhetisch inspiriert hat uns der Surrealismus«, verrät Paul Kirsten. »Die Welten, die Künstler und Filmschaffende wie Buñuel, Dalí oder Lynch entwickelt haben, faszinieren uns, insbesondere das Mittel der Metamorphose«, erklärt Christian Freitag das Konzept der gemeinsamen Bachelorarbeit im Studiengang Multimedia|VR-Design an der Burg Giebichenstein Kunsthochschule Halle. Sie entstand im Sommersemester 2013 und gibt ein schönes Beispiel ab für ein Abschlussthema, das sich mit den Chancen und Hürden im Bereich Generative Gestaltung beschäftigt.

Aber was stellt Metaworlds denn nun dar? Sachlich betrachtet handelt es sich um eine Design- und Interaktionsstudie: Der Nutzer steuert auf dem Bildschirm eine Welt aus fantastischen gestaltwandlerischen Gebilden. Wo er eben noch durch Kristallformationen navigierte, stehen im nächsten Moment Wolkenkratzer, Kristallformationen oder komplett Abstraktes.

Um die immersiven Möglichkeiten auszuloten, experimentierten die beiden mit Steuerungen jenseits von Tastatur und Maus. »Wir sammeln innovative Eingabegeräte« gesteht Kirsten. »Unsere Arbeitsräume sind vollgestopft mit Joysticks und abgefahrenen Controllern wie der Roboterkugel Sphero, die uns unter anderem bei Kickstarter aufgefallen ist.«

Surreales Setting: In Metaworlds navigiert der User durch Welten in ständiger Metamorphose. In Aktion erinnern diese geometrischen Formen des Motivs »Twister« an die Tentakeln eines Meerestiers – Bild: Christian Freitag und Paul Kirsten / Burg Giebichenstein Kunsthochschule Halle
1/7
Das Metaworlds-Team: Christian Freitag und Paul Kirsten – Bild: Christian Freitag und Paul Kirsten / Burg Giebichenstein Kunsthochschule Halle
2/7
Die Roboterkugel Sphero gefiel den beiden Bachelor-Absolventen am besten – Bild: Christian Freitag und Paul Kirsten / Burg Giebichenstein Kunsthochschule Halle
3/7
Strahlende Sphären: Mittels Raycasting werden die Punkte, an denen die Objekte andocken sollen, markiert – Bild: Christian Freitag und Paul Kirsten / Burg Giebichenstein Kunsthochschule Halle
4/7
Weltbilder: Die Metaworlds beamen den User mit einem Klick in völlig neue Mikrokosmen, die hier eher organisch anmuten – Bild: Christian Freitag und Paul Kirsten / Burg Giebichenstein Kunsthochschule Halle
5/7
Oder so: Hier wechseln organische Naturszenerien mit urbaner Architektur – Bild: Christian Freitag und Paul Kirsten / Burg Giebichenstein Kunsthochschule Halle
6/7
Ausrichtung der Objekte: Sie Neigung im 3D-Raum orientiert sich am Verlauf des jeweiligen Strahls – Bild: Christian Freitag und Paul Kirsten / Burg Giebichenstein Kunsthochschule Halle
7/7

Am Anfang war der Metaball

Die Schöpfungsgeschichte dieser zunächst in der grafischen Entwicklungsumgebung vvvv gefertigten virtuellen Welt beginnt mit den sogenannten Metaballs – per Algorithmus errechnete, dynamische grafische Oberflächen. Das Besondere an diesen Kugeln sind ihre Eigenschaften: Bewegen sich zwei aufeinander zu, vereinen sie sich wie Wassertropfen zu einer größeren Kugel. Metaballs, auch Blobmeshes oder Blobby Models genannt, eignen sich daher besonders, um rund und organisch wirkende Oberflächen und Objekte zu modellieren. Oft kommen sie im animierten Film zum Einsatz, um Flüssigkeiten zu simulieren.

Der Metaballs-Algorithmus berechnet die Kugeln rund um einen Punkt im dreidimensionalen Raum, das sogenannte Helferobjekt, um die räumlichen Ausmaße des eigentlichen Blobmeshs zu definieren. Freitag und Kirsten verwendeten das Metaball-Script von Brian Cowan, das den Marching-Cubes-Algorithmus von William E. Lorensen und Harvey E. Cline aus dem Jahre 1987 enthält. Dieser Algorithmus rastert die sehr hochaufgelöste Punktwolke des Blobmeshs und reduziert sie auf ein in Echtzeit darstellbares 3-D-Mesh.

»Bei unseren Metaballs-Experimenten kamen wir schnell auf das Konzept einer dynamischen Weltkugel, auf der verschiedene Objekte stehen, die wiederum einen je eigenen Mikrokosmos darstellen. Also experimentierten wir damit, diese Welt zu bebauen. In der 3-D-Modelling-Software Autodesk Maya laborierten wir mit verschiedenen Formen und modellierten, texturierten und animierten Baumgruppen, Wolkenkratzer oder komplett abstrakte Gebilde.«

 

Von vvvv zu Unity

Für die technische Umsetzung eines »Metaworlds«-Prototyps kamen zwei Echtzeitumgebungen in Frage: vvvv und die Spiele-Entwicklungsumgebung Unity. In vvvv ist bereits alles für die Integration von Metaballs angelegt, daher entstanden dort die ersten Prototypen. Auch die Anbindung unterschiedlichster Controller per USB ist dank des Human-Interface-Device(HID)-Nodes und einiger Lösungen der sehr aktiven Community kein Hexenwerk.

»Allerdings kamen wir sehr schnell an den Punkt, an dem die auf dem Blobmesh verteilten Objekte komplexe Eigenschaften wie eigene Animationen, Lichter und Materialien sowie spezifische Verhaltensweisen benötigten«, resümiert Freitag. »Die Verwaltung solcher Objekte war für uns in vvvv wesentlich aufwendiger als in der objektorientierten Unity-Umgebung, sodass wir letztlich zu Unity wechselten. Dort können wir beliebig viele Sets an Objekten in gegenständlichen oder abstrakten Formen anlegen.« Unity speichert sie und ihre Eigenschaften als sogenannte Prefabs und lädt sie bei Bedarf, um sie an vordefinierten Punkten auf dem Blobmesh zu erzeugen. Zudem kann man zusätzliche Funktionen wie Animationen oder Skalierungen hinzufügen.

Für die Integration der Metaballs in Unity verwendeten Kirsten und Freitag besagtes Metaball-Script aus der Unity-Community von Brian Cowan. Cowans Script war allerdings nicht interaktiv, sondern simulierte die Metaballs in einer festgelegten Zahlenabfolge. »Wir mussten es also umstricken, um auf die Variablen von außen zugreifen zu können, damit der User die festgelegte Abfolge interaktiv und in Echtzeit verändern kann.«

 

Wenn es Wolkenkratzer regnet

Diese Prefabs verteilten und fixierten Freitag und Kirsten gleichmäßig auf ihren Weltkugeln. »Den Prozess der Verteilung und Ausrichtung von Objekten auf der dynamischen Hülle des Blobmeshs bezeichnen wir als BlobScattering – das ist unsere eigene Wortschöpfung«, so Kirsten. »Bei diesem Ansatz verteilen wir die Objekte wie aus einer im Orbit rotierenden Gießkanne auf der Oberfläche des Metaballs.«

Die »Einschläge« auf der Hülle bestimmen die Position der Objekte, die sich an einem unsichtbaren Strahl ausrichten, der vom Einschlagpunkt auf der Oberfläche wegzeigt. Mit diesem sogenannten Raycasting-Verfahren binden Freitag und Kirsten die Strahlen an das zentrale Helferobjekt des Blobmeshs. Auch die Steuerung des Blobmeshs ist an diese Hilfskörper gebunden. User können sie über das Eingabegerät steuern. Wahlweise kann man in der Unity-Physik-Engine Kraftfelder definieren, die die Blobmeshes bewegen.

Da Kirsten und Freitag die Metaworlds in der finalen Installation großflächig auf eine Wand projizieren wollten, stellte sich die Frage nach einem geeigneten Eingabegerät. Es sollte mehr bieten als zwei Tasten und ein Scrollrad, aber auch nicht zu kompliziert sein. »Ab drei Knöpfen muss man dem User zu viel erklären. Den Sphero-Ball beispielsweise kann man einfach in die Hand nehmen und bekommt direkt ein Feedback«, sagt Kirsten. »Allerdings konnten wir für unseren Favoriten unter den von uns getesteten innovativen Eingabegeräten lange keine Möglichkeit finden, Anwendungen auf einem PC zu steuern. Offiziell kommuniziert Sphero nur mit Android- oder iOS-Smartphones.« Die sehr performancelastige Anwendung benötigt jedoch einen Desktop-PC, nicht zuletzt für die hochaufgelöste Wiedergabe auf einer großen Projektionsfläche.

Kommilitone Felix Herbst entwickelte schließlich eine Anwendung, mit der Sphero die Sensordaten zuerst an ein Android-Smartphone schickt und dann per WLAN an den PC weiterleitet. Christian Freitag freut’s: »Die Verzögerung ist minimal und in einem geschlossenen WLAN-Netz beinahe nicht wahrnehmbar.« as

 

Produkt: PAGE 1.2019
PAGE 1.2019
Social Design ++ UX/UI Design für Kids ++ Less Design ++ Intelligente Schrift ++ Ratgeber: Papier ++ UX Design: Modal Screens ++ Plötzlich Chef

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte dich auch interessieren