Sieht für dich: So entstand die Blindenassistenz-App Dot Go
Gegenstände erkennen, tägliche Aufgaben automatisieren: Serviceplan hat eine App entwickelt, die Menschen mit Sehbehinderung dabei hilft, sich in der Welt zurechtzufinden.
Orientierung im Raum ganz ohne Langstock
Die Idee stammt von Serviceplan Innovation, einer auf Produktentwicklung spezialisierten Unit in München. Fürs Development kollaborierte das achtköpfige Team mit Dot Incorporation, Serviceplan Korea und dem Innovation Studio Hyperinteractive aus Hamburg. Serviceplan und Dot Incorporation arbeiten bereits seit 2015 in einem Equity-for-Creativity-Modell erfolgreich zusammen. Sie sind ein eingespieltes Team, auch persönlich eng befreundet und in stetem Austausch, sodass man nur selten sagen kann, von wem am Ende welcher Input kommt. Über die Jahre hat sich die Aufgabenverteilung aber verändert. War Serviceplan bei früheren Projekten wie der Dot Watch noch hauptsächlich mit dem Drumherum (Assets, Campaigning, PR) beschäftigt, übernahm die Agentur bei den von Dot Incorporation erdachten Produkten Dot Mini und vor allem Dot Translate mehr Aufgaben im Bereich Entwicklung.
Dot Go ist nun ein Produkt, das Serviceplan zunächst allein konzipierte und entwickelte, um es in der Folge unter dem Dach von Dot Incorporation zu veröffentlichen. Die Expertise der Koreaner besteht hier im unvergleichlichen Zugang zur Zielgruppe und ihren Bedürfnissen. Wichtig ist, dass Dot Incorporation kein Hardwarehersteller von Braille-Technologie ist, sondern Anbieter ganzheitlicher Assistenzsysteme für alle Menschen. »Historisch sind die Nutzer und Nutzerinnen solcher Systeme vor allem Menschen mit Sehbehinderung, aber wie man an Entwicklungen wie Closed Captions, Autokorrektur und Sprachsteuerung gesehen hat, profitieren oft alle von originär für Menschen mit Behinderung erfundenen Technologien«, erklärt Kai West Schlosser, Junior Art Director bei Serviceplan.
»Mit unserem Konzept für Dot Incorporation gehen wir weg von den Braille-Interfaces und nutzen die innovativen Apple-Technologien, die uns seit dem iPhone 12 zur Verfügung stehen«, erklärt Junior Innovation Copywriter Shruti Subramanian und fährt fort: »Wir setzen auf den neuen LiDAR-Scanner in der iPhone-Kamera in Verbindung mit Computer Vision Models, um Objekte zu identifizieren, sowie auf Apples Kurzbefehle-App, um kleine, selbst programmierte Aktionen oder größere Aktionsgruppen auf dem Handy damit zu verknüpfen.« Die Kurzbefehle-App für iOS, iPadOS, macOS und watchOS ist seit 2019 auf sämtlichen Devices vorinstalliert. Dot Go schafft nun mit der Objektdatenbank die intelligente Verbindung zwischen LiDAR-Objekterkennung und den Kurzbefehlen.
Die App ist aber nicht nur smart, sondern auch intuitiv, denn die Designer setzten beim Interface ganz auf die hohen Standards und das gewohnte Apple-Design, sodass Dot Go im Wesentlichen der Kurzbefehle-App von Apple gleicht. Was den Usern und Userinnen dann zur Verfügung steht, ist ein großer Baukasten aus allen möglichen kleinen Aktionen, die Sound, Vibration, das Aufrufen einer Website, das Einschalten der Taschenlampe und vieles mehr am Smartphone auslösen können. Viele Aktionen sind vorkonfiguriert und lassen sich einfach über die Dot-Go-Plattform herunterladen und in der App hinterlegen. Zudem lässt sich die App über Siri bedienen, sodass sehbehinderte Menschen auch eigene Aktionen konfigurieren können.
Joggen ohne Augenlicht – mit NFC-Wearables
Die technische Umsetzung des Projekts und den digitalen Prototyp verantwortete das siebenköpfige Team des Digital Development Studios Hyperinteractive. »Der erste Prototyp war noch sehr energieintensiv und schaffte es binnen einer halben Stunde, den Akku leer zu saugen. Innerhalb von sechs Monaten konnten wir die Energieeffizienz um das Zehnfache erhöhen«, sagt Dieter Pries, Gründer und Geschäftsführer von Hyperinteractive.
Was den Energiebedarf ein wenig erhöht, dafür aber auch die Accessibility, ist die NFC-Funktionalität der App. Mit ihr lässt sich das Handy mittels Nahfeldkommunikation mit individuell programmierten NFC-Wearables wie beispielsweise einem Hemd verbinden. Ein bekannter internationaler Sporthersteller plant zurzeit eine entsprechende T-Shirt-Kollektion. Zieht man es an, verbindet sich das Hemd mit dem Smartphone und startet automatisch einen bestimmten Modus mit diversen Presets, etwa einen Modus für Sport oder den täglichen Weg zur Arbeit.
»Dieser neue Ansatz, dass Nutzer:innen jedes Objekt mit jeder Aktion verbinden können, erschließt völlig neue Möglichkeiten für sehbehinderte Menschen, mit der Welt zu interagieren. Alles kann zugänglich werden«
Florian Beijers, Programmierer, Gelderland, Niederlande
Plattformansatz und Partnerschaften
Empowerment bietet Dot Go den Nutzenden zusätzlich durch eine Service- und Entwicklungsplattform, auf der sie neue Datensätze zur Objekterkennung und selbst programmierte Aktionen hinzufügen können, um sie anderen Userinnen und Usern zur Verfügung zu stellen. Shruthi Subramanian erklärt, wie davon auch Marken, Organisationen und Institutionen profitieren können: »Eine Supermarktkette könnte eigene Presets erstellen und auf der Plattform teilen, um Kunden mit Sehbehinderung das Einkaufen in einer Filiale zu erleichtern. Eine Sportmarke könnte NFC-Wearables mit Kurzbefehlen zum Lauftraining anbieten. Das ist viel kostengünstiger, als eine individuelle App zu entwickeln.«
Business- und Kooperationspartner sind essenziell für die Bekanntheit und Reichweite des Projekts. Für die Partnerakquise und Umsetzung von Projekten erhielt Dot Go kürzlich von der Interamerikanischen Entwicklungsbank (IDB) eine Förderung in Höhe von über 120 000 Dollar. In Kooperation mit dem Start-up Wheel the World, einem Reiseservice für Menschen mit Handycap, entwickelt das Dot-Go-Team eine interaktive, assistierende Blindenreiseführer-App für Lateinamerika. »Unser Team arbeitet derzeit an der Optimierung der App für den App Store und an dem Pilotprojekt mit Wheel the World. Gemeinsam mit ihnen schaffen wir ein barrierefreies Reiseerlebnis für sehbehinderte Menschen«, so Dieter Pries.
Wir hoffen außerdem, dass sich rund um Dot Go eine starke Entwicklergemeinde bildet und dass viele Anwender:innen ihre Presets auf der Plattform teilen. Mit dem Programmierer Florian Beijers hat die App bereits einen sehr zufriedenen User und Unterstützer gefunden: »Dieser neue Ansatz, dass Nutzer:innen jedes Objekt mit jeder Aktion verbinden können, erschließt vollkommen neue Möglichkeiten für sehbehinderte Menschen, mit der Welt zu interagieren. Alles kann zugänglich werden.«
Was ist eine Dot-Go-Aktion?
Eine Aktion beruht auf dem Wenn-dann-Prinzip (zum Beispiel »Wenn Haltestellenschild, dann Ticketkauf«) und ist der Grundstein eines Kurzbefehls, also ein einzelner Schritt in einer größeren Aufgabe. Aktionen lassen sich zu Kurzbefehlen und den komplexeren sogenannten Presets kombinieren, die dann mit den Apps und Inhalten auf dem Smartphone (intern) oder mit Inhalten und Diensten im Internet (extern) interagieren. Dot Go verknüpft den LiDAR-Scanner im iPhone mit Googles Computer Vision Models und der vorinstallierten Kurzbefehle-App, sodass man bestimmten Objekten individuell programmierte Aktionen zuordnen kann.
Was ist ein Computer Vision Model?
Ein Computer Vision Model ist eine Einheit, die anhand eines großen Bilddatensatzes für Bildverarbeitungsaufgaben wie zum Beispiel die Objekterkennung trainiert wird. Jeder kann ein Modell auf einem beliebigen Bilddatensatz für seine Aufgaben trainieren. Es gibt unzählige Modelle für unterschiedlichste Aufgaben – von allgemeinen Aufgaben wie der Kennzeichnung von Objekten in der Umgebung bis hin zu sehr spezifischen wie der Erkennung von Hautkrebs. Die Fähigkeit des jeweiligen Modells hängt von der Art des Bilddatensatzes ab, auf dem es trainiert wurde.
Im Fall von Dot Go kommen Open-Source-Computer-Vision-Modelle von Google zum Einsatz, die auf neuesten Bilddatensätzen trainiert werden: Googles Vision Model für mobile Devices namens MobileNets beispielsweise trainiert auf den Bilddatenbanken ImageNet und COCO: ImageNet ist eine der ersten Computer-Vision-Initiativen des MIT zum Aufbau einer großen Bilddatenbank, Microsoft COCO (Common Objects in Context) ist der am häufigsten verwendete Datensatz zur Erkennung, Segmentierung und Beschriftung von Objekten und lässt sich auch für die komplexere Szenenerkennung verwenden.