39.CSR-MAGAZIN CSR_NEWS Künstliche Intelligenz

„Daten sind selten repräsentativ und gerecht“

Lena Rohrbach (Foto: Sarah Eick für Amnesty International Deutschland)

KI und Menschenrechte: Das Interview mit Lena Rohrbach (Amnesty International Deutschland) [39. CSR MAGAZIN]

Berlin (csr-news) – Ohne Frage: Der Einsatz von Künstlicher Intelligenz (KI) tangiert den Schutz der Menschenrechte – nicht nur in autoritär geführten Ländern. Über die Verantwortung von Unternehmen, die KI-Programme bauen oder anwenden sprach CSR NEWS mit Lena Rohrbach, der Referentin für Menschenrechte im digitalen Zeitalter bei Amnesty International in Deutschland.

Das Gespräch führte Achim Halfmann.

CSR NEWS: Frau Rohrbach, wo sehen Sie die Gefahr, dass durch KI Vorurteile – Biases – verstärkt und Menschen diskriminiert werden?

Lena Rohrbach: Künstliche Intelligenz wird, um das Machine Learning zu ermöglichen, mit großen Datenmengen gefüttert. Diese Daten sind selten repräsentativ und gerecht, sondern spiegeln die Welt wider, in der wir leben. Was dadurch geschehen kann, wurde beispielsweise bei einer Recruiting App deutlich, die Amazon einsetzte: Für die Positionen im Bereich IT wurden vorwiegend Männer vorgeschlagen, da hier zuvor vor allem Männer eingestellt worden waren. Das zeigt, wie sich der Status Quo immer wieder reproduziert.

Oder denken Sie an die App Lensa, die eigene Fotos in Avatare verwandelt. Insbesondere von Frauen mit asiatischen Wurzeln wurden pornografisierte Avatarbilder erstellt – anders als bei Männern -, was mutmaßlich daran liegt, dass eine hohe Zahl sexualisierter Bilder asiatischer Frauen im Internet kursieren.

Oder nehmen Sie die KI-Anwendung der Firma Optum, die eher weiße als schwarze Menschen für eine umfangreiche Gesundheitsversorgung im Krankenhaus vorschlug – wohl vor dem Hintergrund, dass weiße Menschen eher in der Lage waren, viel Geld auszugeben.

Solche Dinge passieren, wenn man nicht gegensteuert. Außerdem kann KI auch ganz gezielt eingesetzt werden, um marginalisierte Bevölkerungsgruppen zu überwachen, zum Beispiel mit Gesichtserkennungstechnologie. Chinesische Hersteller warben damit, dass ihre Software zwischen Han-Chines:innen und Uigur:innen unterscheiden kann. In New York wurde Gesichtserkennungs-Software insbesondere in Wohnvierteln eingesetzt, in denen Schwarze Menschen leben.

Bei Amnesty International bauen wir ein Algorithmic Accountability Lab auf. Das wird den Einsatz von KI und Algorithmen durch Regierungen weltweit in den Blick nehmen.

 

Was können Staaten und was Unternehmen tun, damit KI-Software verantwortungsvoll zum Einsatz kommt?

Amnesty International setzt sich schon lange dafür ein, dass eine menschenrechtliche Sorgfaltspflicht für alle Unternehmen in der gesamten Wertschöpfungskette gilt. Solange diese gesetzliche Pflicht nicht vollumfassend besteht und nur einen Teil der Wertschöpfungskette umfasst, müssen Unternehmen das selbst umsetzen, indem sie Risikofolgeabschätzungen für ihre Produkte und Dienstleistungen erstellen.

Zu ihrer Verantwortung gehört auch zu fragen, wo die Daten herkommen, mit denen die Anwendungen trainiert werden. Solche Daten werden zu Datensets kategorisiert, häufig durch sogenannte Clickworker im Globalen Süden. Sind diese Menschen zum Beispiel angemessen entlohnt worden?

Weiter geht es darum, Algorithmen beizubringen, wie sie sich selbst korrigieren können, auch wenn sie mit vorurteilsbelasteten Daten trainiert wurden.

Wenn dann noch Risiken bestehen, etwa wenn durch eine Anwendung ein problematischer Eingriff in die Privatsphäre möglich bleibt, gilt es, darüber Transparenz herzustellen und zu regulieren, wofür die Anwendung genutzt werden darf. Sind die Risiken zu hoch oder ist die KI unvereinbar mit den Menschenrechten, helfen Transparenz und Regulierung allerdings auch nicht mehr, dann braucht es ein Verbot. Das gilt etwa für Gesichtserkennung zur Massenüberwachung, autonome Waffensysteme oder Social Scoring. Solche klaren Leitplanken, die Menschenrechte schützen, muss die EU mit der kommenden KI-Verordnung schaffen.

Wir reden derzeit viel über die sogenannten AI Foundation Models. Alle, die mit diesen Modellen arbeiten, sollten sich fragen: Welche Daten sind eingeflossen? Welche Anwendungsfälle sind möglich? Und welche davon sind gefährlich?

Vielleicht sind in die ersten Datensätze der Foundation Models bereits Risiken eingebaut, zum Beispiel ein Bias. Daran knüpfen dann weitere Produkte an – und schließlich produziert die KI-Anwendung Probleme und die davon Betroffenen können nicht mehr zurückverfolgen, wer jetzt verantwortlich ist.

Nach den UN-Leitprinzipien für Wirtschaft und Menschenrechte sollten Staaten ebenso wie Unternehmen Zugang zu Abhilfemechanismen und Wiedergutmachung ermöglichen. Die KI-Unternehmen müssen sich also fragen lassen, ob sie Beschwerdestellen anbieten und einen Menschenrechtsbeauftragten berufen haben. Und ob sie die Transparenz schaffen, die für eine gerichtliche Durchsetzung von Ansprüchen erforderlich ist.

Und schließlich müssen Personen über die Risiken der KI, die sie einsetzen, aufgeklärt werden, etwa im medizinischen Bereich. Vor dem Einsatz von KI braucht es Trainings, die vermitteln, warum KI-Ergebnisse nicht objektiv sind.

Zudem kann man Unternehmen raten, auf Diversität in ihren Tech-Teams zu achten, denn das trägt zu diversitätssensiblen Anwendungen bei. Kleinere Unternehmen können mit diversen Menschengruppen reden oder sich Beratung an Bord holen.

Nun wir auch darüber diskutiert, ob freiwillige Vereinbarungen nicht zielführender sein könnten als gesetzliche Regulierung. Auch weil sie sich schneller auf neue Entwicklungen anpassen lassen.

Das ist eine Debatte, die in solchen Situationen immer geführt wird. In Sachverständigenanhörungen warnen Unternehmer:innen vor Unternehmensabwanderungen. Aber wir haben das Lieferkettengesetz eingeführt und keine Abwanderungswelle gesehen. Ähnliches erwarte ich beim Thema KI. Und als Digitalexpertin bei Amnesty International in Deutschland nehme ich eben die Perspektive der Menschenrechte ein.

Viele grundlegende Prinzipien für eine Regulierung sind so allgemein gehalten, dass sie mit technischen Entwicklungen Schritt halten. So ist beispielsweise die menschenrechtliche Sorgfaltsanalyse auf jedes Produkt anwendbar. Und auch die Menschenrechte selbst gehen mit der Zeit.

Eine Sorge gilt den Fakenews, die durch KI glaubwürdiger erscheinen und schneller erstellt werden könnten.

Dieses Thema beobachten wir mit großer Sorge: Als Menschenrechtsorganisation sind wir auch darauf angewiesen, Menschenrechtsverletzungen durch Open-Source-Intelligenz recherchieren zu können. Wir folgen Bürgerjournalist:innen auf Social Media und arbeiten mit Satellitendaten. Je leichter es ist, durch KI immer echter wirkende Bilder und Videos zu generieren, desto schwieriger wird Menschenrechtsarbeit.

Die sogenannte generative KI erstellt aber auch ganz andere Inhalte.

Frauen sind beispielsweise besonders davon betroffen, dass ihre Gesichter ohne ihre Zustimmung auf Pornovideos kopiert werden. Bei bildgenerierender KI gibt es ein großes Problem mit Sexismus und Rassismus.

ChatGPT kann plausibel klingende Desinformation und Hate Speech zusammenstellen. Entwickler:innen bauen zwar Safe Guards ein, aber es gibt immer einen Weg, diese zu umgehen.

Deshalb sind gerade die großen Internetplattformen in der Pflicht, menschenrechtliche Sorgfaltspflichten umzusetzen. Ihre Algorithmen dürfen nicht zur Verbreitung von Hassbotschaften beitragen, zum Beispiel indem sie Posts mit vielen Interaktionen belohnen. Amnesty International hat recherchiert, wie Facebooks Algorithmen zur Verfolgung der Rohingya in Myanmar beigetragen haben. Wir fordern eine Entschädigung des Unternehmens für die Rohingya. Geschäftsmodelle, die auf der Verletzung der Privatsphäre von Nutzer:innen beruhen, digitale Gewalt fördern oder anderweitig Menschenrechte verletzten, müssen verboten werden.

Aber wir sollten nicht nur auf das Digitale schauen. Von Hassrede im Internet betroffene Menschen brauchen gut ausgestaltete Beratungsstellen. Es geht ebenso um kompetente Polizeibehörden, um Aufklärungskampagnen für Eltern und Schulen, um die Sichtbarkeit der Beratungsangebote.

Die Datenschutzbehörden der Länder haben sich in den vergangenen Jahren stark aufgestellt im Blick auf Technologien, die in die Privatsphäre eingreifen. Nun müssen sie auch gut ausgerüstet werden, um auf die KI-Herausforderungen eingestellt zu sein.

Vielen Dank für das Gespräch!

Creative Commons Lizenzvertrag
Dieser Text (ohne Bilder) ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.


Werden Sie Mitglied im UVG e.V. und gestalten Sie den Nachhaltigkeitsdialog mit. > Die Infos
DSGVO Cookie Consent mit Real Cookie Banner