Corporate Social Responsibility (CSR) bzw. abstrakter Unternehmensethik sind Begriffe, die den meisten von uns bekannt sind. Es geht bei ihnen um die Verantwortung, die ein Unternehmen hat, gegenüber aber auch für die Gesellschaft, in der das Unternehmen agiert. Soweit so gut. Was ist aber mit der digitalen Verantwortung? Ist das eine Besonderheit von Tech Unternehmen? Sind alle Unternehmen davon betroffen? Oder ist das einfach der neue Mode-Begriff? Dazu sprach Kenza Ait Si Abbou Lyadini mit dem Prof. Dr. Matthias Schmidt, der sich seit über 20 Jahren mit Fragen der Unternehmensethik, der strategischen Führung und systemischen Entwicklung von Organisationen befasst.
Kenza Ait Si Abbou Lyadini: Ist die digitale Verantwortung etwas anderes als die Unternehmensverantwortung?
Prof. Dr. Matthias Schmidt: Wenn wir über digitale Verantwortung sprechen, müssen wir darüber sprechen was verantwortliches unternehmerisches Handeln unter den Bedingungen der Digitalisierung bedeutet. Dabei ist die Digitalisierung oder das, was vielfach auch als digitale Transformation bezeichnet wird, weit mehr als eine neue betrieblich-technologische Lösung (LINK). Es geht vor allem auch um den Einfluss, den die Digitalisierung auf die Gesellschaft und damit auf uns alle hat. Was bedeutet die digitale Transformation für die gesellschaftliche Entwicklung, was macht sie mit den Einzelnen? Welche Verantwortung resultiert daraus für Unternehmen, was ist ihre Corporate (Digital) Responsibility?
Mit Blick auf die Digitalisierung und ihre gesellschaftsverändernde Kraft bekommt die bisherige Frage nach der Unternehmensverantwortung eine neue Qualität. Denn die Digitalisierung durchdringt mehr oder weniger alle Bereiche unseres wirtschaftlichen, aber auch gemeinschaftlichen und persönlichen Lebens – aber eben nicht für alle auf dieselbe Weise.
Es macht beispielsweise einen Unterschied, ob ein Unternehmen digitale Technologien einsetzt, um seine Abläufe effizienter zu gestalten und zu überwachen, oder ob es ob es im engeren Sinne digitale Produkte und Dienstleistungen erstellt. Vor allem Produkte, die auf dem Digitalen aufbauen und deren Wesen – wenn man so sagen will – durch die Digitalität bestimmt ist, haben besondere Auswirkungen auf die Gesellschaft und unser Zusammenleben. Es ergibt sich eine andere Verantwortung, wenn ein Unternehmen seine Produktionssteuerung digitalisiert und die darin verwobenen technischen Prozesse optimiert, um bessere Input-Output Verhältnisse zu erreichen, als wenn es digitale Produkte herstellt, in denen Algorithmen quasi selbständig Entscheidungen treffen, die in unser gesellschaftliches Leben einwirken – vor allem dann, wenn diese Entscheidungen sogar eine moralische bzw. ethische Qualität haben.
Um die konkrete Verantwortung von Unternehmen besser verstehen und bestimmen zu können, habe ich das Modell der Kernverantwortung entwickelt. Damit wird die Verantwortung aus dem Zusammenspiel von Kerngeschäft, der Wirkung des Unternehmens in die Gesellschaft und den Werten, die das Unternehmen vertritt, bestimmt. Und es wird darüber hinaus berücksichtigt, welche Verantwortung die Gesellschaft dem betrachteten Unternehmen zuschreibt. Dadurch, dass das Modell spezifische Charakteristika (Kerngeschäft, individuelle Werte, spezifische Wirkung) eines Unternehmens berücksichtigt, ist es möglich, seine individuelle Kernverantwortung zu bestimmen. Damit hängen dann auch die Reichweite sowie die Grenzen der Verantwortung dieses Unternehmens zusammen.
Die Unternehmensverantwortung unter den Bedingungen der Digitalisierung hängt also stark davon ab, welches Unternehmen wir betrachten. Davon hängt dann auch die Beantwortung Deiner Frage ab: In manchen Unternehmen wird sich Unternehmensverantwortung durch die Digitalisierung nur wenig von der bisherigen CSR unterscheiden. In anderen Unternehmen hingegen kann die Kernverantwortung in eine ganz andere Sphäre umschlagen und eine wesentlich tiefergehende Qualität der „Corporate Digital Verantwortung“ hervorrufen.
Das wäre also z.B. dann der Fall, wenn Maschinen ethische Entscheidungen treffen?
Ja, so könnte man sagen. Denn je autonomer die Prozesse werden, also je mehr Maschinen entscheiden dürfen, desto mehr müssen die Entscheidungen auch auf ethisch problematische Aspekte hin durchdacht werden. Und zwar bevor sie eintreten.
Menschen sind durch ihre Sozialisierung mehr oder weniger gut auf moralische Dilemmasituationen vorbereitet, haben im Laufe ihres Lebens Verhaltensweisen eingeübt, die auch unter moralischen Anforderungen bewertet werden können. So können sie in moralisch kritischen Situationen auf ein Repertoire an „richtigen“ Handlungen zurückgreifen oder instinktiv und spontan „richtig“ reagieren. Und zwar in einer unmittelbaren kritischen Situation.
Eine Maschine – ein vieldiskutiertes Beispiel sind autonome Fahrzeuge – kann das so nicht. Sie kann lediglich das, was ihr einprogrammiert wurde; und auch wenn sie lernen kann, muss ihr einprogrammiert werden, wie sie lernen soll. Also muss die Maschine theoretisch auf alle möglichen Szenarien vorbereitet werden, damit sie in kritischen Situationen entsprechend entscheiden und sich verhalten kann. Das aber bringt viele weitere Fragen mit sich, etwa, weil man klären muss, wer für die Ausgestaltung der Algorithmen mit ethischen Aspekten zuständig und verantwortlich ist. Aber auch, welche ethischen Maßstäbe herangezogen werden sollen.
Und wie ist das mit der digitalen Ethik? Das ist doch ein neuer Begriff! Hilft der weiter?
Zunächst würde ich infrage stellen, ob es überhaupt eine „digitale Ethik“ geben kann. Das ist schon sprachlich schwierig, da dann nämlich die Ethik digital bzw. digitalisiert wäre. Darum aber geht es nicht. Richtiger wäre die Frage wie schon in Bezug auf Verantwortung gestellt: „Wie ist Ethik unter den Bedingungen der Digitalisierung zu verstehen und anzuwenden?“
Da Ethik das gute Handeln (das gute Leben) im Blick hat und die Frage stellt, „Wie soll ich handeln?“, muss ich klären, wie ich im Zusammenspiel mit der KI handeln soll, damit es als „gut“ gelten kann. Oder: Wie ich eine intelligente Maschine programmieren soll, so dass die Algorithmen in ethisch kritischen Situationen, die Maschine zu einem ethisch wünschenswerten, also verantwortlichen Verhalten bzw. Funktionieren veranlassen.
Zum Aufkommen der digitalen Ethik: Man kann nun darüber streiten, ob im Zuge der Digitalisierung eine ganz neue Ethik entwickelt werden muss oder ob bewährte Ethiktheorien auf die Herausforderungen der Digitalisierung angewandt werden können, oder ob bereichsspezifische Mischformen gibt, in die beispielsweise auch Fachwissen einfließt. Mit Blick auf die ethischen Herausforderungen angesichts autonomer Maschinen spricht man auch schon von einer Maschinenethik. Wir stehen noch sehr weit am Anfang der Entwicklungen und begrifflichen Präzision und die Karten werden erst gemischt.
Dennoch scheint mir ein Aspekt neu und wesentlich zu sein. Nämlich dass wir viel früher ethisch kritische Fragestellungen aufwerfen und schon soweit beantworten müssen, dass sie in Algorithmen übertragen werden können, so dass beim Eintreten einer problematischen Situation die Maschine richtig entscheidet. Letztlich kann die Maschine nur berechnen, was ihr gegeben wurde, sei es in Form von Daten oder Algorithmen. Eine echte ethische Urteilskraft oder auch so etwas wie eine moralische Intuition und Erfahrung, die zu situationsadäquaten Entscheidungen führt, wird sie nicht haben.
Sind wir dann überhaupt gut genug aufgestellt, um eine „moralische“ KI zu bauen? Bzw. haben die Entwickler*innen die notwendigen Kompetenzen dazu?
Die Tatsache, dass die jungen Leute mit dem Internet und weiteren digitalen Möglichkeiten aufwachsen, bildet zweifellos bestimmte Skills für den Umgang mit digitalen Arbeits- und
Lebensbereichen aus. Doch dass neben der leichtfüßigen Anwendung auch ohne Weiteres ein verantwortungsbewusster Umgang mit diesen Möglichkeiten einhergeht, sehe ich nicht. In Schule, Ausbildung und Studium sollten daher immer die ethischen und gesellschaftsrelevanten Aspekte, die die Digitalisierung mit sich bringt, thematisiert werden. Die Befähigung zu einem verantwortungsbewussten Umgang mit der Digitalisierung und das Einüben einer kritischen Urteilskraft in Bezug auf das Digitale sollten zu einem grundlegenden Bildungsanspruch gehören. Denn wie schon gesagt, die digitale Transformation ist mehr als eine betrieblich-technologische Lösung.
Für die Entwickler*innen von KI sollte dieser Anspruch in besonderem Maße gelten. Denn letztlich sind sie es, die ethische Maßgaben in die KI einbauen, wenn man so sagen darf. Das sollte dieser Berufsgruppe sehr bewusst sein. Und dies sollte seitens des Unternehmens bewusst gesteuert werden – als Teil der Corporate Digital Responsibility. Sonst schleichen sich leicht auch unerwünschte persönliche Moralvorstellungen der Entwickler*innen ein, die dann über die Maschinen ausgerollt werden.
In diesem Zusammenhang wird auch oft die Frage der Verantwortung der Entwickler*innen diskutiert. Sind sie dafür verantwortlich, ob eine KI moralisch korrekt handelt? Können sie das überhaupt sein?
Das ist in der Tat eine wichtige Frage, die mit einer anderen grundlegenden Frage zusammenhängt, nämlich: Können Maschinen moralische Akteure sein? Man kann ja schwerlich ein selbstfahrendes Auto verantwortlich machen und dann moralisch oder juristisch verurteilen. Das Auto als solches wird dieser Schuldzuweisung im Wortsinne leidenschaftslos gegenüberstehen. Dennoch trifft, wie wir bereits besprochen haben, ein Auto durchaus moralische Entscheidungen. Somit wäre es doch auch verantwortlich. Oder sind doch die Programmierer dahinter verantwortlich?
Damit wird die Lage komplex. Natürlich liegt es nahe, die Programmierer*innen in die Verantwortung zu nehmen. Doch wissen diese überhaupt um die ethischen Problemlagen und wenn ja, hätten sie adäquate Antworten darauf? Man könnte auch vermuten, dass die Verantwortung bei den Auftraggeber:innen liegt und die Programmierer*innen lediglich ausführen sollen. Doch was, wenn sie dabei auf ethische Konflikte stoßen? Man könnte auch das Unternehmen, das die Produkte entwickelt, verantwortlich machen oder die Nutzer*innen der digitalen Produkte. Man kann auf diese Weise immer weiterfragen, ohne aber zu einem befriedigenden Ergebnis zu kommen.
Letztlich spiegeln sich in der Digitalisierung auch Wertvorstellungen der Gesellschaft insgesamt wider. Um im Beispiel zu bleiben: Wenn eine Gesellschaft auf autonomes Fahren setzt und entsprechende Produkte (autonome Autos) bis hin zu umfassenden digitalen Mobilitätskonzepten realisiert, dann wird sie auch entsprechende immanente Risiken und Verantwortlichkeiten anerkennen müssen. Man kann also nicht mehr einfach mit dem Finger auf eine Person zeigen und sagen, diese sei verantwortlich. Vielmehr dürfte die Verantwortlichkeit verschiedene Elemente des gesellschaftlichen Systems tangieren und zugleich immer auch flüchtig sein. Das führt letztlich zu einer Art von Verantwortung des Systems, die zugleich eine systemische Unverantwortlichkeit ist, da sie nicht an einem bestimmten Punkt festgemacht werden kann, an dem sie haftet. Sie haftet vielmehr an dem System als Ganzem – und damit haftet auch das System als Ganzes. Ähnlich wie bei einer höheren Gewalt, die in der Kontingenz (d.h. im Bereich der Möglichkeiten) der Situation, aber nicht bei einem Einzelnen liegt.
Dennoch sind damit die Entwickler*innen nicht fein raus. Im Rahmen dessen, was man aufgrund ihrer Profession von ihnen erwarten kann, sind sie verantwortlich. Wenn sie feststellen, dass durch ihre konkrete Arbeit ethische Konflikte entstehen (können), dann liegt es in ihrer Verantwortung, etwas dagegen zu tun. Je besser sie für ethische Fragestellungen sensibilisiert sind, desto besser können sie dieser Verantwortung nachkommen. Wie so oft wird man auch hier eine Balance zwischen Anspruch und Zumutung finden müssen. Programmierer*innen sollten also ethische Problemlagen erkennen und infrage stellen können. Die Antwort darauf ist nicht zwingend ihre Verantwortung. Hier können institutionelle Anlaufstellen und Strukturen hilfreich sein, die der Arbeitgeber als Teil seiner Verantwortung bereitstellen kann. Auf diesem Wege kommen wir zu Gestaltungs- und Verantwortungsfragen der Organisation und schlagen den Bogen (zurück) zu bekannten Fragen der Unternehmensethik bzw. der Ethik allgemein.
Wie sieht dann solch eine Antwort aus? Gibt es am Ende eine einheitliche globale Ethik?
Wir haben am Anfang gesagt, die Ethik hat das gute Handeln im Blick, d.h. sie fragt, wie Menschen in einer Gesellschaft handeln sollen, um ein gutes Leben für alle zu ermöglichen. Da Gesellschaften divers sind, haben wir es mit einer Pluralität der Denkweisen und auch Werte zu tun. Es gibt nicht nur eine Ethik, es gibt verschiedene. Standardisierungsprozesse stoßen hier an Grenzen. Zudem haben wir den zeitlichen Aspekt, denn die digitale Technologie entwickelt sich schnell und auch die gesellschaftlichen Veränderungen sind beschleunigt. So können sich Werte und mithin ethische Verständnisse verschieben.
Wenn wir versuchen in digitaler Hinsicht einen einzigen moralischen Standard zu bewirken, dann droht sich die Individualität von Gemeinschaften wegzuradieren. Wir würden damit Diversität nivellieren, anstatt sie anzuerkennen, wertzuschätzen und grundsätzlich zu fördern. Dabei darf auch der Aspekt der Macht nicht unterschätzt werden. Wer hat die Deutungshoheit über das, was gerade geschieht? Wer definiert welcher moralische Standard gilt? Ist dieser Standard allgemein zustimmungsfähig?
In globaler Hinsicht würde ich anstatt von einer einheitlichen Ethik lieber von grundlegenden Anforderungen an eine Ethik mit globalem Anspruch sprechen. Zu diesen Anforderungen gehören für mich der freie Zugang zum Diskurs und zur digitalen Welt sowie Transparenz. Dass dabei ein grundlegender Respekt vor dem Umgang mit Diversität und pluralen Werthaltungen in Wort und Tat zum Ausdruck kommen sollte, dürfte selbstverständlich sein.
Kenza Ait Si Abbou Lyadini
ist KI Expertin bei einem Technologiekonzern und berät Kunden in Sachen Automatisierung und KI-basierte Lösungen. Die Zeitschrift „Capital“ wählte sie 2020 zur „jungen Elite Deutschlands“ (Top 40 unter 40). Ebenfalls 2020 erschien ihr erstes Buch „Keine Panik, ist nur Technik“ (Gräfe und Unzer Verlag).
www.iamkenza.de
Dieser Text ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz