Mithilfe von 3D-Scanning und -Modeling zeigt Vincent Johnson, wie die Sicht von KIs auf die Welt sein könnte. Außerdem sechs populäre Film-Beispiele, wie Maschinen die Welt wahrnehmen plus ein Seti-Extra.
KISD. Mit dem Uncanny Valley oder der Akzeptanzlücke, einem Phänomen aus der Robotik, stehen auch Animationsfilmschaffende vor einem Problem: Je realistischer oder humanoider ein Roboter oder animierte 3D-Charaktere dargestellt werden, desto unsympathischer wirken sie auf Menschen.
Diesem Problem nahm sich Vincent Johnson für seine Zwischenprüfung im Lehrgebiet Image and Motion an und überlegte, wie man die Sicht der Maschinen auf die Welt in eine visuelle Sprache übersetzen könnte, die weder realistisch noch menschlich, aber dafür umso emotionaler wirkt.
»Ich wollte in einem Kurzfilm zeigen, wie es aussehen könnte, wenn künstliche Intelligenzen mithilfe von 3D-Scanning und -Modellierung ihre Sichtweise der Realität selbst visualisieren«
LiDAR-Scans als Ausgangsbild
So erfassen beispielsweise autonom fahrende Autos oder Staubsaugerroboter den Raum über Scanner und Laser, was Johnson auf die Idee brachte, den typischen 3D-Animations-Prozess zu dekonstruieren. Statt wie üblich aus den Rohdaten von 3D-Scans ein Mesh zu erstellen, um möglichst originalgetreue Texturen darauf zu legen, griff er auf die unterste Instanz des maschinellen Sehens zurück und experimentierte mit den Rohdaten von LiDAR-Scans – den feinkörnigen Punktwolken.
»Um die Protagonisten abzubilden, habe ich mit einem iPhone 12 Pro und der Capturing-App SiteScape statische sowie mit der App Record3D bewegte Punktwolken erfasst«, berichtet Johnson. In der 3D-Grafiksoftware Houdini erzeugte er Striche auf den Punkten, die im 3D-Raum einer Richtung (Normale) folgen und für eine pointillistische Anmutung sorgen.
Kurzfilmschnitt in Blender
Anschließend kombinierte er in der Open-Source Grafiksuite Blender die Punktwolken und erstellte eine virtuelle Kamerafahrt mit Zooms und zusätzlicher Beleuchtung.
»Reconstruct yourself«, so die Aufforderung an das 3D-Modell in Johnsons Kurzfilm. Aber dieses möchte nicht menschlich aussehen und erkennt sich schließlich selbst im System Error – eine fast philosophische Story aus der KI-Perspektive.
Bevor Vincent Johnson (www.vincentjohnson.de) ein Studium begann, eignete er sich Fertigkeiten in der Medienproduktion selbst an – nun steht er auch schon kurz vor seinem Bachelorabschluss. Nebenbei arbeitet der Kölner als Motion Designer fürs »ZDF Magazin Royal«
6 populäre Filme, in denen wir durch die Augen von KIs sehen
Mit der Frage, wie Roboter und KIs unsere Welt wahrnehmen, beschäftigen sich Filmemacher bereits seit Jahrzehnten. Eines der ältesten Beispiel ist HAL 9000 aus dem Klassiker von 1968 »2001: Odyssee im Weltraum« von Stanley Kubrick – HAL konnte Lippen lesen – und in der Fortsetzung dachte er schon übers Träumen nach. Wir haben ein paar Beispiele heraus gesucht, wie Filmemacher die Sicht der Maschinen darstellen.
1. The Avengers: Age of Ultron
…give me a second…too much.
2. Nummer 5 gibt nicht auf
Activating spectro analyzer.
3. Terminator
I know now why you cry, but it’s something I can never do.
4. 2010: Das Jahr in dem wir Kontakt aufnehmen
Dr. Chandra, werde ich träumen?
5. 2001: Odyssee im Weltraum
I could see your lips move.
6. Westworld
Hold it! Draw.
https://youtu.be/5jCDQvNh85Y?t=71
Seti Extra: Träumen Androiden von elektrischen Schafen?
Den epischen Bildschirmschoner Electric Sheep, sollte man hier nicht unerwähnt lassen. Bereits seit 1999 träumen vernetzte Rechner mit der Open-Source-Software von Scott Draves in Fraktalbildern – wunderschön!