Design und Ethik: Wie Designer ihrer Verantwortung gerecht werden

Verringerte Aufmerksamkeitsspanne, Fake News, Smartphone-Abhängigkeit: Die Arbeit von Designern hat enormen Einfluss auf Sozialverhalten und Gesellschaft. Wir sprachen mit ThoughtWorks über Verantwortung im Digital Design.



Henning Fritzenwalder, Alexander Steinhart, Thoughtworks
Lead Experience Design Henning Fritzenwalder und Product Strategist Alexander Steinhart von Thoughtworks


Der Einfluss von Digital Design ist unmittelbar, enorm skalierbar und oft schwer rückgängig zu machen. Umso besorgniserregender ist es, wenn UX- und Interaction-, Frontend- und Service-Designern sowie Developern diese Macht und die damit einhergehende Verantwortung nicht bewusst sind. In PAGE 07.19 widmen wir uns diesem Thema ausführlich und geben Tipps, wie man als Designer ethisch handeln kann.

Dazu sprachen wir auch mit Mitarbeitern des internationalen Tech-Unternehmens ThoughtWorks, das im Spannungsfeld zwischen Ideation, Softwareentwicklung und Delivery arbeitet. Mit seiner Arbeit will es laut Mission-Statement zu einer besseren Welt und sozialer Gerechtigkeit beitragen. Lead Experience Designer Henning Fritzenwalder und Product Strategist Alexander Steinhart verraten, welche Fehlentwicklungen der Tech-Hype mit sich bringt und wie man als Designer gegensteuern kann.

Warum ist Ethik gerade jetzt ein so wichtiges Thema für Designer?
Alexander Steinhart: Dank Smartphones und mobilem Internet erreichen Designer heute viel schneller viel mehr Menschen und haben einen wesentlich größeren Impact als früher. Digitale Produkte beeinflussen immer mehr Entscheidungen und Verhaltensweisen von Nutzern. Damit steigt natürlich auch die Verantwortung der Gestalter.

Das Sprechen über Ethik wird dadurch erschwert, dass sie nicht klar umrissen ist wie ein Gesetz.

Henning Fritzenwalder: Das Sprechen über Ethik wird dadurch erschwert, dass sie nicht klar umrissen ist wie ein Gesetz. Sie ist immer Ermessenssache. Wenn es um Technologie geht, muss Ethik zudem vorausschauend funktionieren: Vieles, was heute technisch umgesetzt wird, ist gesetzlich noch nicht geregelt. Die Legislative reagiert immer auf Bestehendes – und das oft ziemlich spät. Deshalb muss man als Designer und Developer eine Haltung zu bestimmten Praktiken entwickeln, bevor sich die Gesetzgebung damit beschäftigt – und am besten bevor man sie anwendet und umsetzt. Was denke ich, was angemessen und fair ist – zum Beispiel, was das Copyright im Internet angeht? Wenn ich mir dazu keine Meinung gebildet habe, werde ich immer wieder in Situationen kommen, in denen ich unethisch handle.

Welche Situationen sind das zum Beispiel?
Steinhart: Man könnte sich etwa fragen, ob das Binden von Aufmerksamkeit um jeden Preis wirklich immer angemessen und ethisch vertretbar ist. Nur weil das Geschäftsmodell von Google und Facebook darauf basiert, heißt das noch lange nicht, dass alle digitalen Angebote darauf abzielen müssen. Wir sollten uns vielmehr vor Augen führen, womit wir dem User – und insbesondere dem Menschen dahinter – genau helfen wollen und können – um dann ein Produkt zu gestalten, das genau dieses Ziel unterstützt. Die meisten Nutzer wollen nicht noch mehr Zeit im Internet verbringen, sondern wünschen sich Anwendungen, die schnell und effizient funktionieren. Als Designer ist man gefordert, eine Balance zu finden zwischen dem Nutzen einer App und den Kosten der Anwendung, wie Zeit und Aufmerksamkeit. Je tiefer Technologie in unsere Lebenswelt eindringt, desto mehr müssen wir uns Gedanken darüber machen, wie eine gesunde Beziehung zu ihr aussieht. Abhängigkeit ist ein Zeichen für eine toxische Beziehung.

Als Designer ist man gefordert, eine Balance zu finden zwischen dem Nutzen einer App und den Kosten der Anwendung, wie Zeit und Aufmerksamkeit.

Fritzenwalder: Genauso wie Betrug! Hier kommen zum Beispiel Dark Patterns ins Spiel, also Design-Tricks, mit denen man Nutzer manipulieren kann. Mit so etwas steigert man vielleicht kurzzeitig Klickraten oder Verkaufszahlen. Aber wenn sich der Nutzer dadurch betrogen fühlt, leidet das Vertrauen in die Marke und in ein Unternehmen langfristig.

Was, wenn der Kunde auf Dark Patterns besteht: Wie frei sind Designer, nein zu sagen?
Steinhart: Designer haben durchaus einen Entscheidungsspielraum – und sie können wichtige Diskussionen anstoßen. Oft hilft es, die Ziele und Werte eines Unternehmens zu betrachten. Geht es um kurzfristigen Umsatz oder um Kundenzufriedenheit über einen längeren Zeitraum? Warum wurde das Unternehmen gegründet? Was sind die Markenwerte heute und spiegeln sie sich in der Anwendung? Sind Dark Patterns in diesem Zusammenhang wirklich zielführend? Durch solche Fragen kann man ein Umdenken beim Kunden anstoßen – und viele sind dafür dankbar.

Welche Fragen sollten Designer sich selbst immer wieder stellen, damit sie ethisch gestalten?
Fritzenwalder: Ein guter Ansatz ist, Methoden auf andere Kontexte zu übertragen und sich zu fragen, ob man damit einverstanden wäre. Wie fände ich es, wenn mir beim Schuhkauf heimlich Schnürsenkel untergejubelt würden, für die ich unbemerkt mitbezahlt habe? Nichts anderes ist es, wenn ich Nutzern bei der Reisebuchung mit Tricks eine Versicherung unterschiebe. Wenn ich das nicht gut finde, sollte ich es nicht machen – ganz einfach.

Menschen tendieren dazu, die Technik Dinge tun zu lassen, die sie selbst nicht machen möchten oder machen würden. Das ist einfach – und feige.

Steinhart: Vielleicht sogar einmal im Jahr ein Paar Schnürsenkel ungefragt nachschicken! Menschen tendieren dazu, die Technik Dinge tun zu lassen, die sie selbst nicht machen möchten oder machen würden. Das ist einfach – und feige. Statt das Verhalten von Nutzern unbemerkt zu beeinflussen – wie beim Nudging – sollten wir vielmehr auf Aufklärung setzen. Das dauert vielleicht länger, ist aber nachhaltiger und sorgt für mehr Zufriedenheit beim Menschen. So befähigt man sie, die für sie richtigen Entscheidungen zu treffen.

Welche anderen Fehlentwicklungen beobachtet ihr derzeit?
Steinhart: Meines Erachtens sollten wir uns bei sozialer Interaktion wieder unabhängiger von Tools machen. Das ist enorm wichtig für den gesellschaftlichen Zusammenhalt. Anwendungen sollten so gestaltet sein, dass sie direkte Kommunikation fördern, statt sie an die Technik auszulagern und zu automatisieren. Sonst geht neben der individuellen Fähigkeit zum zwischenmenschlichen Austausch auch das Vertrauen in soziale Strukturen verloren.
Fritzenwalder: Generell spielt der menschliche Faktor oft eine besorgniserregend kleine Rolle. Bei Services wie Deliveroo und Uber sehen wir nur die App und vergessen, dass dahinter Menschen stehen, die einen ziemlich miesen Job erledigen müssen. Hauptsache, für uns ist der Service so bequem wie möglich. Welche langfristigen Folgen sich daraus ergeben, ist egal.

Statt sich mit Langzeitfolgen zu beschäftigen galt im Silicon Valley in den letzten Jahren eher das Motto: »Move fast and break things«. Aber wenn Sachen einmal kaputt sind, kann man sie nicht wieder reparieren. Sind Permanent Beta und Rapid Prototyping ein Irrweg?
Fritzenwalder: Das würde ich so nicht sagen. Dieses Prinzip setzt eine tolle Dynamik frei, indem es Menschen zum Ausprobieren ermuntert. Man muss sich allerdings vorher gut überlegen, was man eigentlich kaputtmachen will. Wenn das zum Beispiel veraltete Hierarchien sind, ist das an sich ein gutes Ziel. Kaputtmachen um des Kaputtmachens willen ist aber nicht Sinn der Sache. Außerdem kann man Sicherheiten einzubauen, damit man manche Schrauben wieder zurückdrehen kann.

Meines Erachtens sollten wir uns bei sozialer Interaktion wieder unabhängiger von Tools machen.

Im Vergleich zu den USA diskutieren wir in Deutschland noch relativ wenig über Ethikfragen im Digital Design.
Fritzenwalder: In Deutschland gehen wir oft den Weg der Normierung. Wir versuchen, einen möglichst korrekten Satz an Normen zu formulieren – aber es dauert, bis man den gemeinsam gefunden und formuliert hat. In den USA gibt es eine andere Kultur für Software. Dazu gehören eine Open Source Bewegung, intellektueller Dissens wie von Sherry Turkle und Initiativen wie das Center for Humane Technology. Letzteres wurde von ehemaligen Mitarbeitern und Investoren von Google sowie Facebook gegründet, um die Firmen im Zaum zu halten.

Google hat mittlerweile eine Digital Wellbeing Initiative gegründet, Facebook unterstützt die Initiative »Time Well Spent«, aus der das Center for Humane Technology hervorgegangen ist.
Steinhart: Solche Ankündigungen muss man mit Vorsicht genießen. Hier werden Diskurse oft für digitales Greenwashing vereinnahmt. Das Geschäftsmodell dieser Konzerne ändert sich ja nicht – sie gehen immer nur soweit auf die Nutzer zu, dass diese ihnen nicht davonlaufen. Ich habe aber das Gefühl, dass sich in den hinteren Reihen etwas bewegt – also bei den Leuten, die für die Tech-Companys arbeiten sowie bei den Urgesteinen des Internets. Sie fordern zunehmend, dass Technologie wieder für das Gute eingesetzt wird – und demonstrieren, wenn ihre Arbeitgeber anderes im Sinn haben. Neue Unternehmen werden gegründet. Es entstehen neue Herangehensweisen und UX Patterns, mit denen sich andere Produkte und auch die Auswirkungen von unseren digitalen Produkten viel besser abschätzen lassen. Ich bin sicher, da wird in Zukunft noch mehr kommen.


 

Vertiefende Lektüre, Frameworks, theoretische und praktische Tipps sowie Links zu Initiativen und Organisationen:

  • Das Buch »Mindful Design« von Scott Riley: How and Why to Make Design Decisions for the Good of Those Using Your Product.
  • Das Buch »Ruined by Design« von Mike Monteiro:How Designers destroyed the world, and what we can do to fix it.
  • Das Manifest »Designing Mindfulness« der Agentur Mindfulness Everywhere: Leitfaden und Anwendungsbeispiele für ethischeres Design.
  • Center for Humane Technology: Our mission is to reverse human downgrading by inspiring a new race to the top and realigning technology with humanity.
  • Humane by Design: A resource that provides guidance for designing ethically humane digital products through patterns focused on user well-being.
  • Design Ethically: Your go-to resource on designing ethically. This framework lays down the theoretical and philosophical foundation and also provides a toolkit for you to implement the ideas presented here.
  • Ethical Alternatives: Von Browser und Search Engines über Kollaborationstools bis hin zu Wikis und Social Media.
  • Das Buch »Future Ethics« von Cennydd Bowles: Technology was never neutral; its social, political, and moral impacts have become painfully clear.
  • Das Buch »White Hat UX« von Trine Falbe: The next generation in user experience.
  • Simply Secure:We’re building a community of praciticioners who put people at the center of privacy, security and transparency.
  • Der Podcast »Should this exist?«: It’s the question of our times: How is technology impacting our humanity? We invite creators of radical technologies to set aside their business plan and think through the human side.

nach oben

[8432]

Schlagworte: , ,





Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Sie auch interessieren