PAGE online

Wie KI-Tools die Arbeit in Agenturen effizienter und kreativer machen

Bei der Erstellung von Präsentationen, als Inspiration fürs Brainstorming oder für schnelle Storyboards: KI kann den Alltag von Kreativen enorm erleichtern. Wir zeigen, was Creative AI in Agenturen kann!

Viele KI generierte Bilder in beige aneinandergereiht in einem Feed

Für viele Arbeitsschritte im Design gibt es bereits KI-Tools, die bald Mainstream sein dürften. Mit der Veröffentlichung neuer KI-Sprachmodelle wie GPT-4, Googles Bard sowie neuer Versionen der Bild­generatoren DALL·E und Stable Diffusion wird sich die Entwicklung 2023 fortsetzen. Als Timesaver bieten sich schon heute zum Beispiel Extensions für spezielle Funktionen an, die sich in gängige Design­software integrieren lassen, etwa das Stability-Plug-­in von Chris Cantrell zur Prompt-basierten Bildgenerierung direkt in Photoshop, das Magician-Plug-in von Diagram zur Generierung von Icons, Copytexten und Bildern in Figma oder auch das Einbinden von ChatGPT als inspirierenden Schreib­assis­tenten in Google Docs. Einen ausführlichen Überblick ak­tueller Plug-ins für Kreativsoftware sowie weitere Anwendungen mit Künstlicher Intelligenz gibt es hier.

An so gut wie allen Stellen im Designprozess tes­ten Agenturen bereits den Einsatz von KI. In der Stra­tegie finden zum Beispiel generative Sprachmodelle in Form von Persona-Chatbots Verwendung. Diese er­möglichen es, über den gesamten Projektverlauf hin­weg kontinuierlich und beliebig detailliert mit der Zielgruppe zu »sprechen«. Das ist um einiges nützlicher als statische Präsentationscharts. Dass sogenannte Large Language Models (LLMs) wie GPT mit­unter auch Textabschnitte generieren, die weder wis­senschaftlich noch faktisch korrekt sind, ist für die Nutzung als Personas in der Regel unproblematisch. Für diesen Anwendungsfall eignet sich ChatGPT sehr gut. Analysetools wie der SWOT Bot gehen deutlich über GPT-3 (die KI hinter ChatGPT) hinaus, um die Nachvollziehbarkeit von Quellen und Texten zu gewährleisten (siehe Seite 101).

Creative AI in Agenturen

Gute Erfahrungen haben Agenturen auch mit dem Einsatz von generativen Bildmodellen für Filmproduktion und Pre-Production-Meetings gemacht. Sie ersparen stundenlanges Suchen bei Google, Getty Images, Pinterest und Co für die Erstellung von Mood­boards oder Briefings für Location-Scouts und Set-Designer:innen. Dadurch können sich Kreative früher auf Regie und die kreativen filmischen Entschei­dungen konzentrieren. Die meisten Bildgenerato­ren haben zwar noch Probleme mit der Kohärenz bei menschlichen Körpern – besonders bei Gesichtern und Händen. Aber Detailfehler lassen sich zum Beispiel mit Funktionen wie dem sogenannten Inpainting beheben, bei dem Teilbereiche eines Bil­des neu generiert werden, ohne die gesamte Komposition zu verändern.

Ein weiteres Problem: »Trotz erlernbarer Parameter sind Prompts meist lucky shots«, meint Robert Andersen, Managing Director bei Jung von Matt/­Creators. Hat man einen guten gefunden und will aus seinem Bild eine Motivserie machen, hat man mit den heute frei verfügbaren Modellen schlechte Karten: Die Wiederholbarkeit von generierten Ergebnissen ist häufig Glückssache. Andersen hat mit ­seinem Team deshalb JvM Stables entwickelt. Das Tool hilft Kreativen dabei, Verlässlichkeit und Wiederholbarkeit in ihre Arbeit mit KI zu bringen, und ermöglicht so zusammenhängen­des sequenzielles Storytelling für ganze Filmstoryboards oder Graphic Novels.

Viele KI generierte Bilder in blau und grün aneinandergereiht in einem Feed

Von der Spielerei zum eigenen Modell

Wer tiefer einsteigen will, kann mit eigenen gene­ra­ti­ven Modellen Bilder in individueller Ästhetik und Thematik erzeugen. Für viele Gestalter:innen und Agen­turen ist das der nächste logische Schritt. So glaubt Ramin Ataei, Co-Founder der Social-First-Agentur Justaddsugar: »Jede Kreativagentur wird in Zukunft ihr eigenes, charakteristisches KI-Tool besitzen.«

Der Weg zum individualisierten generativen Modell ist gar nicht so schwer: Stable Diffusion zum Bei­spiel ist eine flexible Open-Source-Software, die lokal auf dem Rechner läuft. Das Basismodell ist bereits mit Milliarden Bildern aus dem Internet vortrainiert – wogegen sich derzeit (rechtlicher) Wider­stand unter Kreativen regt. Mit ausgewählten eigenen Bildern kann man dem Modell zusätzliche Motive und Bildideen beibringen – oder sogar eine einzigartige gestalterische Handschrift.

Um Modelle individuell weiterzutrainieren, reichen oft schon zehn bis zwanzig dafür ausgesuchte Bilder und einige wenige Handgriffe. Auf einem aktuellen Rechner (Nvidia-Grafikkarten ab 4 Gigabyte Speicher oder Mac-Rechner ab M1) können Kreative dann lokal arbeiten, ohne für jedes generierte Bild noch Credits bei einer der Plattformen wie DALL·E 2, Mid­journey oder Playground AI kaufen zu müssen. Und es ist nicht notwendig, möglicherweise sensible Da­ten in den Clouds dieser Anbieter abzulegen. Einen Quick­start-Guide zum Einstieg in eigene generative ­Modelle gibt es hier.

Soziale Intelligenz bleibt gefragt

KI-Tools entlasten Gestalter:innen besonders bei Ar­­beiten, die auf Hard Skills wie der handwerklich sau­beren Bedienung bestimmter Software basieren oder besonders repetitiv sind – und daher oft als lästig emp­funden werden. Für Stephan Thiel, Co-Founder von Studio NAND in Berlin, liegt der Wert des von ihm mitentwickelten SWOT Bots aber nicht nur darin, dass dieser 80 Prozent der Recherchearbeit einer SWOT-Analyse erledigt, sondern darin, »sich nicht mehr mit kleinen Hamsterradaufgaben beschäftigen zu müssen und sich stattdessen auf komplexe Frage­stellungen konzentrieren zu können«.

Kreative haben dank KI also mehr Ressourcen für übergeordnete Themen, können sich noch mehr auf den Menschen konzentrieren und ihre Soft Skills für Human-Centered Design einsetzen. »Gute Krea­tivarbeit ist zum größten Teil Kommunikationsarbeit und soziale Transferfähigkeit«, so Peter Kabel. »Kreativität heißt, in der Lage zu sein, zu verstehen, was der andere eigentlich will und benötigt.« Gestal­terische Herausforderungen, die soziale Intelligenz erfordern, lassen sich nur schwer an KI auslagern – etwa die Frage, wie man Menschen begeistert oder wie und warum sie miteinander interagieren.

Fest steht: Die Entwicklung ist nicht aufzuhalten. Um sich im Markt behaupten zu können, müssen sich Kreative unbedingt mit den neuen technischen Möglichkeiten auseinandersetzen und sie in ihre Ar­beit integrieren. Wie das aussehen kann, zeigen wir in den folgenden Beispielen.

Portraitbild von Autor Michael JonasMichael Jonas ist Professor für Design und Markenkommunikation an der Brand University of Applied Science in Hamburg und der Zhejiang Wanli University in Ningbo/Shanghai. Er lehrt und forscht seit fünf Jahren im Bereich Artificial Intelligence und Design.

 

 

 

Case: cre[ai]tion

Das Start-up cre[ai]tion verspricht personalisierte Inspirations-Feeds für Kreative

www.creaition.io

Inspiration Feed von KI generiert mit einem Schwerpunkt auf Mode und Sneaker
Wird die KI mit Produkten und Brandingelementen einer Marke gefüttert, zeigt sie neue Produkt- und Bildideen im entsprechen­den Look an – ein kreatives Sprungbrett für Designer:innen

Cre[ai]tion ist eine KI-basierte Plattform, die Kreative und Künstler:innen inspirieren soll. Sie befindet sich noch in der Betaphase. Die Idee: Nutzer:innen erhalten maßgeschneiderte Designvorschläge von einer Art KI-Muse, basierend auf eigenen Diffusionsmodellen. So will Co-Founder Marco Limm den »megafrustrie­ren­den Prozess abkürzen, in dem 97 von 100 Design-Sketches für die Mülltonne sind«. Er hofft, dass dadurch Designer:innen, statt bei null anzufangen, auf funktionalen Entwürfen aufbauen und sich so übergeordneten Fragestellungen widmen können und letztlich auch individueller gestalten. »Dadurch, dass alle Kreativen Behance oder Pinterest nutzen, haben sie zu 70 Prozent dieselben Inspirationsquellen. Mit cre[ai]tion aber kuratieren wir keine bestehenden Inhalte, sondern generieren neuen Content. Und zwar in verschiedenen, einzigartigen Feeds – für einzelne User, für Projektteams und für ganze Firmen«, so Limm. Das sei besonders für Marken relevant.

Zum Start konzentriert sich cre[ai]tion auf die Fashion- und Gaming-Branche. Adidas habe zum Beispiel einen ungehobenen Datenschatz in Form von Tausenden Modeskizzen und Entwürfen im Archiv liegen. »Mit diesen Daten kann man ein KI-Modell feintunen, sodass es das Corporate Design und die Marken-DNA der Produkte lernt«, erklärt Limm. »Das Modell kann dann in verschiedenen individuellen Feeds adidas-Entwürfe generieren – für Kund:innen, für Mitarbeiter:innen, für bestimmte Teams in der Firma und für einzelne De­si­gner:innen«. Auf   www.creaition.io kann man sich für die nächste Beta-Phase bewerben.

»KI ermöglicht es Designer:innen, übergeordnete Fragen zu stellen«

Marco Limm, Co-Founder von cre[ai]tion, Frankfurt am Main

KI für ganze Designprozesse

Case: cogniwerk.ai

Auf der Plattform cogniwerk.ai kann man mehrere KI-Modelle einfach kombinieren

https://cogniwerk.ai/

Benutzeroberfläche von cogniwerk.ai

Springender Fuchs generiert von cogniwerk.aiDie Plattform cogniwerk.ai ist aus einem Forschungs­projekt heraus entstanden und bietet aktuell einen kuratierten und kategorisierten Überblick über mehr als 150 KI-Modelle – mit besonderem Fokus auf deren Mul­ti­modalität, also ihre Verwendung in verschiedenen Me­dien, wie Bild, Text, Audio, Video sowie 3D. Denn aus einem Text-Prompt kann technisch so ziemlich alles ge­neriert werden, sagt cogniwerk-Initiator Peter Kabel, Professor für Interaction und Service Design an der HAW Hamburg. »Multimodalität wird in der öffentlichen Wahrnehmung noch total unterschätzt. Sie ist min­destens so disruptiv wie der Umstand, dass ChatGPT auf einen Text-Input hin einen Text erzeugt, der wie menschengemacht wirkt.«

Springender Fuchs generiert von cogniwerk.ai

Seit Frühjahr 2023 sind auf cogniwerk.ai eine Reihe ausgewählter Modelle mit einem einheitlichen und intuitiven UI Design direkt auf der Plattform nutzbar und können multimodal miteinander verknüpft werden. »Wir nennen das Chaining«, erklärt Peter Kabel. »Der Output des ersten Modells wird automatisch zum Input des zweiten und so weiter.« Das könne zum Beispiel so aussehen: »Du willst ein Bild generieren in einer bestimmten Auflösung? Dann schlagen wir folgende Kette vor, die drei Modelle enthält: zuerst eines, das aus deutschen Sätzen englische Prompts formuliert (Text-to-Text), ein weiteres, das daraus Bilder generiert (Text-to-Image), und dann noch eines, das das Bild bestmöglich skaliert (Image-to-Image).« Ketten wie diese nehmen Desi­gne­rin­nen und Desi­gnern­ laut Peter Kabel die Arbeit ab, sich in die einzelnen Modelle, deren Einstellungen und Dokumentationen einarbeiten zu müssen. Sie werden natürlich spannender, sobald sie beispielsweise Modelle enthalten, die Musikstücke als Text beschreiben (Music-­to-Text) und Bewegtbild oder 3D-Objekte aus Text generieren können.

KI für Strategie

Case: SWOT Bot

Dieser KI-Bot spart bei der SWOT-Analyse viel Zeit

www.swotbot.ai

Benutzeroberfläche SWOT Bot

Die SWOT-Analyse (SWOT steht für Strengths, Weak­nesses, Opportunities und Threats) ist eines der klassischen Managementinstrumente, die in vielen Unternehmen zum Einsatz kommen. »Allerdings ist die Art der Anwendung in der Regel nicht sehr innovativ«, sagt Christian Au, Professor für Allgemeine Betriebswirtschaftslehre an der Hochschule Mainz. »Daten werden händisch aus Websites, Firmenberichten und Marktstudien in Excel-Tabellen zusammengetragen, konsolidiert und in die Struktur des jeweiligen Instruments übertragen. Auf dieser Basis entstehen dann PowerPoint-Präsentationen. Die SWOT-Analyse ist mit Abstand das bekannteste Tool, daher haben wir sie im Prototyp des Bots als Beispiel verwendet.« Weitere Instrumente – wie etwa die Branchenstrukturanalyse Five Forces – sollen folgen.

Der Analyse-Bot, den Au gemeinsam mit Stephan Thiel und Moritz Stefaner seit Anfang 2021 entwickelt, besteht aus einer Pipeline von drei Sprachmodellen: Ein erstes Modell liest tagesaktuell online verfügbare Texte, extrahiert Fakten und baut daraus eine Knowledge Base auf. »Wir nennen das ›Evidenzen‹«, so Thiel. Ein zweites Modell fasst diese Evidenzen zu sogenannten Topics, also markenrelevanten Themenkomplexen zusammen. Als drittes Modell kommt GPT-3 zum Einsatz. Es generiert eine Storyline, in der die Topics als Präsentation zusammengefasst werden. Den wichtig­s­ten Beitrag zur Qualität der generierten Analyse leistet das erste Modell zur Evidenzerkennung. Dieses haben die Entwickler selbst trainiert mit über 6000 Beispielen aus Studierendenprojekten der Hochschule Mainz. Das Modell kann validierbare Quellen (aus)lesen und bewerten, ohne zwar plausibel klingende, aber faktisch falsche Aussagen zu generieren – wie es viele Sprachmodelle gerne tun.

Ebenso wichtig wie die Technik ist dem SWOT-Bot-Team die Benutzerschnittstelle, also die User Experi­ence: »Funktionierende Algorithmen sind das eine. Das andere ist die Frage, wie man das Tool als Nutzer:in ohne Technik-Affinität in die täglichen Arbeitsabläufe integriert«, sagt Au. »Wir wollten eine Lösung entwickeln, die mir die Interaktion mit der Technologie ermöglicht und automatische Visualisierungen auf professionel­lem Niveau erzeugt. Genau das leistet unser SWOT Bot.« Auf   www.swotbot.ai   kann man die aktuelle Version des SWOT Bots kostenlos nutzen, die kostenpflichtige Pro-Version folgt in einigen Monaten.

Strategische Empfehlungen für Apple vom SWOT Bot
Der SWOT Bot verbindet drei Sprachmodelle, die Texte analy­sieren, Knowledge-­Bases aufbauen und Storylines für Präsentationen erstellen

KI für Workshops und Präsentationen

Case: Valtech

Die Digitalagentur Valtech erstellt Personas und Szenarios mit KI

www.valtech.com

Futuristische Alltagsszene von KI generiert
Mithilfe von KI erstellt Valtech sehr spezifische und realistisch aussehende Personas sowie futuristische Alltagsszenen

Die globale Digitalagentur Valtech mit mehr als 6000 Mitarbeitenden berät weltweit Unternehmen zum Schwerpunkt digitale Transformation und nutzt KI-Tools bei Kundenpräsentationen und -workshops. Es gibt zwar eine große Library an Corporate-Design-konformen Image Assets für Präsentationen, aber: »Spezielle Visuals wie kundenspezifische Personas in Bilddatenban­ken zu finden, ist sehr zeitaufwendig«, erklärt Kai Ebert, Strategic Marketing Lead DACH. »Personas durch Mid­journey zu bebildern, ist ›authentisch fake‹ und nur konsequent, denn dabei handelt es sich ohnehin nicht um echte Menschen. Und das Feintuning einer Persona, etwa mit mehr Bart oder etwas älter, ist mit Inpainting in DALL·E oder Remixing in Midjourney sehr einfach. Solche maßgeschneiderten Bilder gibt es in Bilddatenbanken nicht.«

Gute Erfahrungen mit KI hat Valtech auch in Design-­Thinking-Workshops gemacht: Hier generiert ein Product Strategist Visualisierungen von Zukunftsszenarien während des Kundenworkshops und entwickelt diese in Echtzeit mit den Teilnehmenden weiter. Nächster logischer Schritt ist für Kai Ebert, ein Prompt-Glossar als Teil der eigenen Corporate Identity zu etablieren ebenso wie spezielle Ausgangsbilder für die Remixing-Funk­tion zu definieren, um für verschiedene Projekte und Marken eine kohärente Bildästhetik der Künstlichen Intelligenz zu erzielen.

Alter Mann mit weißem Bart und Haar von KI generiert

KI fürs Brainstorming

Case: Justaddsugar

Die Social-Media-Agentur Justaddsugar nutzt KI als Sparringspartner

www.justaddsugar.de

Die Social-First-Agentur Justaddsugar nutzt bereits seit einem Jahr verschiedene KI-Tools bei der Konzep­tion und Produktion von Social-Media-Content. Fest etabliert hat sich der Einsatz laut Head of Creation ­Linus Specht für »Getting-started-Arbeit – also alles, was den kreativen Ball ins Rollen bringen soll«. Bei der Content Creation etwa kommt GPT3 zum Einsatz, um Redaktionspläne zu erstellen oder auch Fragen für se­rielle Interviews.

Mittlerweile nutzt Justaddsugar KI auch als kreati­ven Sparringspartner. »Ideen kommen nie 1 : 1 aus Chat­GPT, aber als eine weitere Person im Brainstorming funktioniert die KI sehr gut«, sagt Linus Specht. »Dialogische Kreativität ist uns wichtig. ChatGPT eignet sich dafür so gut, weil sich die Interaktion anfühlt wie eine Konversation. Ideen zurückspielen, Denkanstöße geben, Schlüsselworte finden und sich gegenseitig hochschaukeln funktioniert blendend mit dem Tool – auch wenn ChatGPT keine zusammenhängenden Cases für uns formuliert.«

Demnächst plant Ramin Ataei »Layer-Lösungen«, wie er es nennt. Gemeint ist damit das Hinzufügen einer Schicht neuer, eigener Daten zu einer bestehenden KI, wodurch diese in gewisser Weise zu »einem neuen Mitarbeiter mit einzigartigen Qualitäten wird – im speziellen Stil der Agentur«, erklärt Ataei.

KI fürs Storyboarding

Case: JvM Stables

Jung von Matt erstellt Storyboards und Briefings für Werbespots mit einer eigenen KI

www.jvm.com

Vergleich von KI-generierten Bildern im Storyboard zum Ergebnis der Kampagne im Video
Nah dran am Original: JvM Stables (die zwei Bilder links) trifft den Protagonisten und die Straßenszenen aus den bereits bestehenden »Like a Bosch«-Spots erstaunlich gut

Wie viel Zeit verbringen Artdirectors in Agenturen mit Arbeiten, die sie eigentlich nicht machen wollen? Robert Andersen, Managing Director bei Jung von Matt/Creators, und sein Team haben nachgefragt: »Für die Kreation eines TV-Commercials verbringt eine Kollegin die Hälfte ihrer Zeit mit dem Gestalten von kreativen Vorprodukten, die nie ein Konsument sehen wird, wie zum Beispiel der Visualisierung eines Storyboards für Stakeholder-Präsentationen.« Das sei eine wichtige Auf­gabe, denn sie diene dazu, andere für kreative Konzepte zu begeistern – und manchmal auch dazu, um auf noch bessere Ideen zu kommen. »Aber einen Großteil dieser Zeit könnten wir in noch bessere Kreation stecken. Dabei hilft uns jetzt JvM Stables.«

Bei JvM Stables handelt es sich um ein neues Storyboarding-KI-Tool, das Jung von Matt Anfang 2023 ausgerollt hat: selbst trainierte Stable-Diffusion-Modelle fürs Visualisierungshandwerk, die auf einem performan­ten Rechner-Hub laufen. Dazu gab es interne Schulun­gen für alle Kreativen zum Umgang mit den vortrainier­ten Subjects (Personen oder Gegenstände) und Seeds (Szenerien und Atmosphären) – denn diese sind das Kern­stück des Tools. »Alle, die mit Bild-KIs wie Midjourney experimentieren, haben irgendwann einen lucky shot«, sagt Andersen. Aber für die echte Arbeit mit Bildgeneratoren seien die Kohärenz von Szenen sowie deren Rekonstruierbarkeit trotz neuer Prompts essenziell.

Durch das Trainieren von KI-Modellen mit sogenann­ten Subjects stellt JvM Stables sicher, dass zum Beispiel ein Protagonist aus jeder Perspektive immer gleich aussieht und dass sich bei Modifikationen und Ausarbeitungen nur die Elemente eines Storyboards verändern, die man wirklich verändern möchte. Style-Seeds sorgen als stilistische Anker für den kohärenten Look, sodass etwa eine nächtliche Straßenszene immer gleich neonlichtdurchflutet und nebelig erscheint. So kann man verlässlich serielle Geschichten erzählen und gezielt an einzelnen Einstellungen weiterarbeiten, um frühzeitig Story und Gefühl eines Films zu transportieren und zu explorieren, was die beste kreative Lösung ist.

»Wir müssen Kreativen wieder mehr Zeit für Kreativität geben«

Robert Andersen, Managing Director bei Jung von Matt/Creators, Hamburg

Dieser Artikel ist in PAGE 05.2023 erschienen. Die komplette Ausgabe können Sie hier runterladen.

PDF-Download: PAGE 05.2023

Designmethoden und -prozesse in der Praxis ++ Comeback der Pixelschriften ++ ENGLISH SPECI-AL Jessica Walsh ++ Designsystem für Scania ++ Making-of: UX-Redesign bei Wikipedia ++ Um-weltfreundlich verpacken: Tipps & Ideen ++ Creative AI in Agenturen

9,90 €
AGB

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte dich auch interessieren