33.CSR-MAGAZIN Digitalwirtschaft Topnews

Der gläserne Verbraucher

Joshua Rawson-Harris auf Unsplash

Digitalisierung stellt neue Fragen für den Verbraucherschutz von Unternehmen

Gesichtserkennung, digitale Patientenakte, Apps für Smartphones, Streaming-Dienste – digitale Anwendungen erheben und analysieren eine Menge von Daten. Doch viele Anwender sind sich darüber nicht bewusst. Welche Anforderungen stellt die Digitalisierung an den Verbraucherschutz? Wie muss Unternehmensverantwortung neu definiert werden?

Von Charlotte Schmitz

Sind in meinem Duschgel hormonell wirksame Parabene enthalten? Finden sich im Schulranzen der Tochter Weichmacher, die im Ruf stehen, die Fruchtbarkeit zu beeinträchtigen? Eine App fürs Smartphone hilft, Inhaltsstoffe von Kosmetika und Kinderspielzeug zu erkennen und zu analysieren. Es genügt, den Strichcode des Produktes zu scannen, um Auskunft zu erhalten. Der Umweltschutzbund BUND hat die App programmieren lassen, die für den Anwender kostenlos ist. Sie verspricht Auskunft über mehr als 80.000 Körperpflegeprodukte. Werden Schadstoffe nachgewiesen, kann der Verbraucher direkt aus der App heraus eine Protestmail an den Hersteller verschicken. Dies ist ein Beispiel dafür, wie Digitalisierung den Verbraucherschutz unterstützen kann. Doch in vielen Fällen erzeugt die Digitalisierung neue Herausforderungen.

Datensammelwut

Kritische Herausforderungen hat Prof. Christian Thorun, Geschäftsführer des Instituts für Verbraucherpolitik ConPolicy GmbH in Berlin, identifiziert. Dazu gehört zum einen das Sammeln personenbezogener Daten durch Online-Angebote, Apps oder Endgeräte. „Untersuchungen zeigen wiederholt, dass viele Apps mehr Daten als nötig erheben. Das führt zum gläsernen Verbraucher“, kritisiert Thorun.

An die Öffentlichkeit geraten Fälle von Datensammelwut nur in seltenen Fällen. 2016 sprachen Gerichte in den USA und Kanada Nutzern eines Vibrators, der mit einer App verbunden werden konnte, Schadensersatz zu. Das Gerät konnte anfangs nur in vollem Umfang genutzt werden, wenn Nutzer es per Bluetooth mit einem Handy verbunden hatten und die Hersteller-App nutzten. Das Gerät sandte vertrauliche Daten wie Funktionseinstellung und Dauer der Nutzung an den Hersteller, ohne die Kunden darüber zu informieren.

Datenklau

Doch nicht nur Erwachsenen-, auch Kinderspielzeug ist häufig schlecht gegen Datenklau gesichert. Die Puppe „Cayla“ des Herstellers „Genesis Toys“ hat eine Sprachfunktion, zeichnet aber auch Unterhaltungen in der Umgebung auf. Die Puppe wird als interaktives Spielzeug vermarktet, verfügt über Mikrofon, Spracherkennung, Netzwerkzugang und lässt sich über eine dazugehörige App steuern. Die norwegische Verbraucherorganisation Forbrukerradet entdeckte Sicherheitslücken: Per Bluetooth kann jeder per Handy mit der Puppe sprechen und die Unterhaltung in ihrer Umgebung mithören. Die Bluetooth-Verbindung zur Puppe war komplett ungesichert. Ferner stand im Kleingedruckten der AGBs, dass alle Gespräche der Kinder mit ihrer Puppe an ein Unternehmen in den USA übertragen werden, welches diese Daten für zielgerichtete Werbung nutzen darf. In Deutschland verbot die Bundesnetzagentur 2017 den Verkauf der Puppe.
Christian Thorun von ConPolicy moniert: „Online-Anwendungen oder auch Smart Devices wie Kinderspielzeuge sind häufig zu schlecht gegen IT-Sicherheitsrisiken abgesichert.“ Passwort-Abfragen seien unzureichend, unklare Haftungsregeln machten Verbraucher zum Opfer von IT-Sicherheitslücken.

Intransparente Algorithmen

Entscheidungen, die von Algorithmen getroffen werden, sind ein weiterer kritischer Fall für den Verbraucherschutz, führt Thorun an. Sie klassifizieren Menschen mittels mathematisch-statistischer Verfahren. Dazu gehören Einstufungen zur Kreditwürdigkeit oder zu Versicherungsklassen, aber auch personalisierte Werbung, personalisierte Produktempfehlungen bis hin zu personalisierten Preisen. Für den Nutzer ist nicht ersichtlich, auf welcher Basis Entscheidungen fallen, weil die Algorithmen geheim gehalten werden. Thorun dazu:„Solche Entscheidungen werfen grundlegende Fragen auf: Sind sie ethisch zulässig, frei von Diskriminierung, transparent und nachvollziehbar?“ Seine Empfehlung: Verbraucher sollten nicht zum Objekt algorithmenbasierter Entscheidungen werden.

Thorun sieht die Unternehmen in der Pflicht, Verantwortung zu übernehmen, zumal der Prozess der Gesetzgebung mit der Geschwindigkeit der Digitalisierung nicht Schritt halte. Jedoch auch der Staat müsse für Spielregeln sorgen. Ausgerechnet die häufig kritisierte und lächerlich gemachte Datenschutzgrundversordnung (DSGVO) sieht Thorun hier als Vorreiter: Deren „Marktortprinzip“ sei vorbildlich, denn alle Unternehmen, die sich an Verbraucher in Europa richten, unterliegen der DSGVO – unabhängig davon, wo ihre Server stehen oder sich der Unternehmenssitz befindet. Thorun mahnt aber auch Verbraucher, sorgsamer mit ihren Daten umzugehen und sich ihrer Eigenverantwortung bewusst zu sein. Mit ihren Kaufentscheidungen könnten sie Unternehmen honorieren, die sich verantwortlich verhielten.

Charta digitale Vernetzung

Die Wirtschaft ist sich der Problematik digitaler Unternehmensverantwortung bewusst und schließt sich zu ersten Initiativen zusammen. Dazu gehört die „Charta digitale Vernetzung e.V.“, in der Großunternehmen über digitale Verantwortung diskutieren. Jens Mühlner, stellvertretender Vorsitzender der Charta, richtet das Augenmerk vor allem auf den Datenschutz. Auch er sieht in der DSBVO eine „sehr gute Basis“ für den Verbraucherschutz. In Deutschland sei zudem das Bewusstsein der Verbraucher für Privatsphäre und Datensicherheit „sehr ausgeprägt“. Produkte deutscher und europäischer Unternehmen böten einen „guten und verlässlichen Standard“.

Mühlner fordert einen gesellschaftlichen Diskurs ein, um die Risiken der Digitalisierung in einem breiten Prozess zu bewerten. Die „Charta digitale Vernetzung“ leistet einen Beitrag dazu. Sie erörtert etwa, ob digitale Grundrechte in einer Art „Digital Bill of Rigths“ festgehalten werden sollten. Mühlner sagt: „Ich vermute, dass die Diskussion über digitale Verantwortung nicht zu einem baldigen Ende kommen wird, sondern dass es wichtig ist, die Reflexion weiter zu führen.“ Sein Unternehmen, die Deutsche Telekom, habe bereits 2015 mit der „Initiative Digitale Verantwortung“ eine öffentliche Diskussion angestoßen.

Digitale Verantwortung

„Digitalisierung ist kein Technologiethema“, hebt Saskia Dörr hervor. Die Nachhaltigkeitsmanagerin und Digitalexpertin hat „WiseWay berät Unternehmen“ gegründet. Ein aktueller Schwerpunkt ihrer Beratung ist Digitalisierung und Unternehmensverantwortung im Digitalzeitalter, also Corporate Digital Responsibility. Ein gesellschaftlicher Aushandlungsprozess zwischen Zivilgesellschaft, Politik, lokalen und globalen Unternehmen sei erforderlich, erklärt Dörr. Dieser Prozess sei bereits im Gange, beispielsweise bei der Diskussion um die digitale Ethik bei Nutzung von Big Data oder Künstlicher Intelligenz. Sie hebt hervor, dass Unternehmen von der Beschäftigung mit Corporate Digital Responsibility profitieren: „Vor dem Hintergrund der Veränderung von Märkten, den Vertrauensdefiziten bei Verbrauchern und den neuen Ansprüchen von Stakeholdern kann für Unternehmen eine verantwortungsvolle Digitalisierung mit einem Wettbewerbsvorteil verbunden sein.“

Sie verweist darauf, dass nicht nur Verbraucher, sondern auch kleine und mittlere Unternehmen der deutschen Wirtschaft Risiken tragen, etwa im Bereich von Datenmissbrauch oder bei fehlenden Haftungsregelungen zur Nutzung von digitalen Plattformen. „Zunehmend sind neue gesellschaftlicher Probleme zu erkennen“, sagt Dörr. Neben mangelndem digitalen Verbraucherschutz, Hacks und Datenklau erwähnt sie unkontrollierte Big-Data-Analysen, Angst vor Manipulation, vor Überwachung und Freiheitsverlust, Abscheu vor Pflegerobotern oder „Fake News“.

Verbraucherschutz nachjustieren

„Der Verbraucherschutz in der digitalen Welt muss nachjustiert werden“, erklärt Christine Steffen, Juristin der Verbraucherzentrale NRW. Sie beschäftigt sich mit Fragen digitalen Rechts und sieht die algorithmen-basierte personalisierte Preisbildung als besonders problematisch. „Das kann zu Diskriminierung führen“, sagt Steffen.
Hier sollten Unternehmen nicht erst rechtlich zu mehr Transparenz gezwungen werden, meint die Juristin der Verbraucherzentrale. „Es geht nicht darum, bestimmte Geschäftsmodelle zu verhindern, sondern Verbraucher in die Lage zu versetzen, eine informierte Entscheidung zu treffen.“

Die Anwendung von Apps ist für Verbraucher ebenfalls mit Risiken verbunden. Die Verbraucherzentrale NRW empfiehlt, die Anbieter der Apps kritisch zu prüfen. Ist eine App wirklich unabhängig programmiert worden? Oder werden mit ihr bestimmte Interessen verfolgt? „Eine App, die verbraucherfreundliche Zwecke verfolgt, aber im Hintergrund massenhaft personenbezogene Daten für kommerzielle Zwecke sammelt, können wir nicht empfehlen“, bekräftigt Juristin Christine Steffen.

„Beipackzettel“ fehlen

Große Consulting-Unternehmen wie PWC und Deloitte haben die Bedeutung von Corporate Digital Responsibility bereits erfasst. Nicolai Andersen, Leiter Innovation & Deloitte Garage bei Deloitte Deutschland, sieht den Verbraucherschutz in Sachen Digitalisierung hierzulande zwar bereits besser aufgestellt als noch vor zehn Jahren. Er vermisst jedoch, dass digitale Anwendungen mit einer Art „Beipackzettel“ versehen sind, die vor Risiken und Nebenwirkungen warnen. Seitenlange unverständliche AGB seien zwar rechtlich korrekt, dienten aber Verbrauchern nicht. „Schon bei der Konzeption von Produkten sollten Unternehmen die Bedürfnisse des Menschen in den Mittelpunkt stellen, dann entsteht Verbraucherschutz ganz von alleine – und es entstehen erfolgreiche Produkte“, so Andersen.

Dr. Charlotte Schmitz arbeitet als freie Journalistin in Frankfurt


Werden Sie Mitglied im UVG e.V. und gestalten Sie den Nachhaltigkeitsdialog mit. > Die Infos
DSGVO Cookie Consent mit Real Cookie Banner