PAGE online

Creative Cloud wird »Spyware?«: Viel Lärm um Terms of Use

Eine Änderung der Nutzungsbedingungen der Creative Cloud hat für Aufregung in den sozialen Netzwerken gesorgt. Adobe stellt klar: So war das nicht gemeint. Und will neu formulieren

Blogpost von Adobe zu den NutzungsbedingungenDie kürzliche Aktualisierung der Lizenzbedingungen von Adobes Creative Cloud hat in den sozialen Netzwerken einigen Wirbel verursacht. Das vor allem jenseits des Atlantiks: Nutzer:innen mussten dort vor Start der Anwendungen der Creative Cloud den Änderungen in den Terms of Use zustimmen. Daraufhin brachen auf der Plattform X und auch in den Reddit-Foren Diskussionen darüber los, dass Adobe sich den Zugriff auf die Inhalte der User:innen und ihre Verwertung sichere. Auch wurde darüber spekuliert, dass Adobe die Inhalte seiner Kundinnen und Kunden nutzen würde, um die generative KI Firefly zu trainieren.

Missverständliche Terms of Use

Tatsächlich klingen die zunächst Passagen so, als wäre Adobe an der Verwertung des Contents interessiert. Besonders kritisiert wurden den Passagen zu dem »automatisierten und manuellen Zugriff« auf die Nutzerinhalte (Passage 2.2) und der gezielte Zugriff auf den Content (4.1).

Adobe hatte die Änderungen der Terms of Use für die Nutzer:innen zusammengestellt
Adobe hatte die Änderungen der Terms of Use für die Nutzer:innen zusammengestellt

Übersehen wurde in den Diskussionen wohl, dass der Zugriff auf Content-Inhalte bereits schon vorher möglich war – und Adobe lediglich die Art des Zugriffs präzisierte. In der deutschsprachigen Fassung heißt es übrigens unter 2.2: »Adobe darf nur in Ausnahmefällen und in begrenztem Maße auf Ihre Inhalte (gemäß Definition in untenstehender Ziffer 4.1 (Inhalte)) zugreifen oder diese ansehen oder anhören und nur im gesetzlich zulässigen Rahmen.«

Also eine im Vergleich zur US-Fassung allgemeiner klingende Formulierung. Die Passage 4.1 klingt im Deutschen allerdings ähnlich der US-Fassung:

» … Adobe kann verfügbare Technologien, Anbieter und Verfahren, auch manuelle Überprüfungen, nutzen, um nach bestimmten Arten von illegalen Inhalten (z.B. Material über Kindesmissbrauch) oder anderen missbräuchlichen Inhalten oder Verhalten (z.B. Handlungsmustern, die auf unerwünschte Werbemails oder betrügerisches Entlocken sensibler Daten schließen lassen, oder Kennwörter, die den Schluss nahelegen, dass nicht jugendfreie Inhalte für Minderjährige zugänglich gemacht wurden) …«

Genau das ist offensichtlich der Hintergrund der Änderung und vor allem der Grund für die »manuelle Überprüfung«: Es geht um die Einhaltung der US-Gesetze zum Thema CSAM (Child Sexual Abuse Material). Das Scannen nach diesen Inhalten ist für alle Cloud-Anbieter in den USA verpflichtend. Alle hochgeladenen Assets werden mit den Daten aus einer CSAM-Datenbank verglichen.

Kein Training einer generativen KI vorgesehen

In einem gemeinsamen Adobe-Blog-Post vom 10. Juni 2024 weisen der Chief Strategy Officer, Scott Belsky, und der Executive Vice President bei Adobe, Dana Rao, angesichts der Aufregung noch einmal auf den Hintergrund der Aktualisierung hin – und betonen, dass die Inhalte der Kund:innen »… nie genutzt werden, um irgendein generatives AI-Tool zu trainieren« (Übersetzung vom Autor).

Allerdings werden die Kundendaten für andere (nicht generative) KI-Funktionen genutzt, um die Produkte zu verbessern (z. B. KI-Maskierung). Der Blog-Post weist noch einmal darauf hin, dass alle Kund:innen die Möglichkeit haben, per Opt-out am »desktop product improvement program« nicht teilzunehmen.

Des Weiteren wird im Blog-Post angekündigt, zum 18. Juni eine neue, für die User:innen besser verständliche Version der Nutzungsbedingungen zu veröffentlichen. Dass Adobe sich die »human review«, das heißt die Begutachtung durch menschliche Akteure in den Nutzungsbedingungen freigeben lässt, wird allerdings bleiben.

Your content is yours and will never be used to train any generative AI tool.

Scott Belsky, Chief Strategy Officer bei Adobe (im Bild), und Dana Rao, Executive Vice President bei Adobe

Was bedeutet das für Nutzer:innen in Deutschland und der EU?

Der Zugriff auf den Content der Nutzer:innen ist für Adobe (und auch alle anderen in den USA aktiven) Cloud-Anbieter schon vorher möglich gewesen – und bleibt es auch. Wer sichergehen will, dass Adobe sich keinen Zugriff auf den Content verschaffen kann, muss die Daten ausschließlich außerhalb der Creative Cloud speichern – was mit den Apps wie lllustrator, InDesign oder Photoshop auch möglich ist. Allerdings: Für die Nutzung der KI-Funktionen (z. B. Neural Filters) lädt Photoshop die Daten zwingend in die Cloud, das Foto-Workflow-Programm Lightroom speichert per Default Fotos in der Cloud, Lightroom Classic nur dann, wenn die Fotos über »Smart-Sammlungen« synchronisiert werden sollen.

Der Einschätzung des Autors nach haben die in den deutschen Nutzungsbedingungen formulierten »manuelle(n) Überprüfungen« für die Kund:innen am Ende eher Vorteile: Erfahrungen bei anderen US-Cloud-Anbietern zeigen, dass das automatisierte Scannen nach CSAM einige falsch-positive Ergebnisse produziert – und User:innen ihre Cloud-Zugänge gelegentlich fälschlicherweise gesperrt werden. Solche Fehlalarme wären ein Desaster für die professionellen Nutzer:innen – und für Adobe.

 

 

Produkt: Download PAGE - Künstliche Intelligenz im Designprozess - kostenlos
Download PAGE - Künstliche Intelligenz im Designprozess - kostenlos
Intelligente Rechenroutinen in Design und Development

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte dich auch interessieren