39.CSR-MAGAZIN CSR_NEWS Künstliche Intelligenz

Werte für eine menschorientierte KI: Nichts Neues unter der Sonne?!

Prof. Dr. Harald Bolsinger (Foto: Thomas Tjang)

Ein Plädoyer zur Akzeptanz von Vielfalt und ein Aufruf zu demokratisch politischer Gestaltung von Harald J. Bolsinger für das 39. CSR MAGAZIN

In den CSR MAGAZIN 2019 wurde in Heft 33 dargelegt, wie Digitales zu verantworten ist. Seit dem hat sich einiges technische hochinnovativ weiterentwickelt, aber etwas Entscheidendes ist – Gott sei Dank – gleichgeblieben.

Wir sehen zahlreiche neue digitale Innovationen, die vor allem im Zusammenspiel große gesellschaftliche und wirtschaftliche Veränderungskraft für eine Vielzahl von Lebens- und Arbeitsbereichen beinhalten. Das wohl bekannteste Beispiel dazu ist der marktreife Einsatz sogenannter Künstlicher Intelligenz mit Interaktionsanwendungen wie beispielsweise ChatGPT und Bard, aber auch weniger bekannten Anwendungen wie LLaMA, YouChat, Claude und den Pendants aus China wie Ernie oder HunyuanAide. Nahezu jedes in der Digitalisierung anzusiedelnde Unternehmen beschäftigt sich mehr oder weniger mit der Anwendung derartiger Technologien oder der Eigenentwicklung von entsprechenden Softwareprodukten.

Pfadabhängigkeit ist erbarmungslos

Das Neue dabei ist, dass die Erfahrungen aus vergangenen Interaktionen innerhalb der Systeme die zukünftigen Interaktionen verändern und bestenfalls Ergebnisse laufend verbessern können – sozusagen Erfahrungslernen in Höchstgeschwindigkeit und für jeden im Zugriff integriert haben. Zur quantitativen Datensammelwut kommt nun in der wirtschaftlichen Logik implizit auch das Wettrennen um die schnellste Lernkurve der Systeme. Es kann nur einen geben?! Der beste Player setzt sich wieder durch, denn die Pfadabhängigkeit ist erbarmungslos und die zweit- und drittbesten Systeme werden bei vergleichbaren Preisen von Endkunden nicht genutzt. Ist das so? Oder können wir es beispielsweise in der Europäischen Union mit dem Bekenntnis zu einer ökologisch ausgerichteten Sozialen Marktwirtschaft anders gestalten?

Werte für eine menschliche Digitalisierung

Was ist in dem Zusammenhang nun das Entscheidende, das gleichgeblieben ist? Der normative Rahmen, innerhalb dessen sich auch diese Entwicklungen abspielen! Wir haben immer noch Landesverfassungen, Grundgesetz und Nationalverfassungen, die Grundrechtecharta der Europäischen Union und auch eine Menschenrechtscharta der Vereinten Nationen. Die Werte, die uns dabei helfen, eine menschliche Digitalisierung sicherzustellen, sind immer noch dieselben wie im Jahr 2019 geschriebenen Artikel: Menschliche Hoheit, Menschenwürde, menschliche Präsenz und Verantwortung, Transparenz, Revidierbarkeit, Vielfalt, Toleranz, Respekt, Demut, Vorsicht, Privatheit, Freiheit und schlussendlich Menschlichkeit. All diese Werte sorgen potenziell für Effizienzabstriche bei der Monetarisierung von KI-Anwendungen. Auch das ist gleichgeblieben. Weil der Faktor Mensch mit seiner Würde nicht automatisierbar ist. Und weil eine umfassende Ethik nie digital, geschweige denn programmierbar ist. Demzufolge ist zu erwarten, dass auch in diesem Bereich weiterhin großer Lobbydruck auf die Politik ausgeübt wird, um die Werte lediglich als Feigenblatt unkonkret vor die neue Technologie zu hängen und möglichst wenig Normen daraus zu generieren. Es wird noch herausfordernder für Gesellschaft und Politik, die Digitalisierung gezielt und gemeinschaftlich einzuhegen und zu kultivieren, um normative Errungenschaften der Neuzeit nicht der Neuverhandlung anheimzugeben.

 

„Intelligenz“ für ein künstliches Etwas

Geht es um KI und nicht um Digitalisierung allgemein, haben wir es mit einem weiteren Novum zu tun. Wir sehen von Menschen freiwillig akzeptierte technologische Dominanz algorithmischer Ergebnisse, denen irrigerweise Qualität, Neutralität, Unbeeinflussbarkeit, Logik und Rationalität zugeschrieben wird. Die Begriffswahl für diese Technologie ist daran nicht unschuldig. Denn wenn wir von „Hochleistungsstatistikberechnungsmodellen“ sprechen würden, wären die Grenzen dieser Technologie viel klarer. Stattdessen sprechen wir von einer bisher vorwiegend Menschen zugeschriebenen Eigenschaft: intelligent zu sein. Anstatt die Reichweite der menschlichen Intelligenz durch Hochleistungsstatistikberechnungsmodelle erweitern zu wollen, wird die Intelligenz vollständig einem vermeintlich überlegenen künstlichen Etwas zugeschrieben. Zum Fetisch der Gewinnmaximierung tritt damit der Fetisch digital abgebildeter Rechenlogik.

Der Mensch macht sich selbst zum Sklaven statistischer Wahrscheinlichkeiten, die nur die Vergangenheit und bestenfalls Gegenwart abbilden, neu kombinieren und in die Zukunft fortschreiben. Wenn KI menschenähnliche Interaktionen und Entscheidungen in vermeintlicher Perfektion nachbilden kann, stehen wir in unserer Menschlichkeit laufend unter Rechtfertigungsdruck. Dabei geht es um Vertrauen in einer besonderen Form: um Selbstvertrauen – um Vertrauen in unsere Urteilskraft und vor allem in unsere Orientierungskompetenz. Was ist moralisch geboten? Das vermeintlich perfekte Ergebnis der KI zu akzeptieren oder ohne vergleichbare Perfektion eine andere Entscheidung entgegen dem KI-Vorschlag zu treffen?

Es besteht die Gefahr, dass nichts Neues mehr unter der Sonne zu sehen sein wird, weil menschliche Kreativität mit mathematischer Rekombination von Bestehendem zunehmend ersetzt wird. In letzter Konsequenz führt das zu einheitlichen Einschätzungen und Bewertungen in allen Lebensbereichen – jenseits dessen, was uns als Menschen ausmacht. Wie unterscheiden wir uns von Mathematik? Sind wir nur biologische programmierte Maschinen, deren Denken algorithmisch digital abgebildet werden kann? Oder sind wir analoge Wesen mit einer großen Bandbreite weltanschaulicher Prägungen, unterschiedlichen Sinnzugängen zur Welt, die sich in einer pluralistischen Welt reflektieren, metaphysisch selbst definieren und verändern können?

Orientierungskompetenz und Selbstvertrauen

Wenn wir uns als Menschen das JA zur Vielfalt und zur Abweichung von mathematischer Prädeterministik erhalten, vermeiden wir die Gefahr, uns selbst zu versklaven. Mit anderen Worten: Wenn wir uns weiterhin selbst Vertrauen, lässt sich KI als nützliches Werkzeug einsetzen – wie jede andere Technologie auch. Dann bleibt KI ein Vorschlagssystem, dessen Ergebnisse und Empfehlungen immer von Menschen beurteilt werden müssen und bei dem die Entscheidungshoheit weiterhin beim Menschen verbleibt. Sicher ist dazu ein anderes Kompetenzraster nötig, als wir es derzeit in unseren Bildungssystemen größtenteils implementiert haben. Wissen kann die Maschine, aber reflektieren, kritisch hinterfragen, selbständig weiterentwickeln und orientieren und schlussendlich eigene Entscheidungen empathisch zu treffen und zu verantworten, das gilt es zu lernen und einzuüben.

Neben der viel gepriesenen Medienkompetenz und der Möglichkeit, digitale Werkzeuge zur Anwendung zu bringen, brauchen wir für den Erhalt menschlicher Hoheit und Würde genau das: mehr Orientierungskompetenz und Selbstvertrauen und weniger Wissensreproduktion. So endet auch dieser Artikel wie 2019 wieder mit dem Plädoyer zur Akzeptanz von Vielfalt und dem Aufruf zu demokratisch politischer Gestaltung auch dieser technologischen Entwicklung vor dem Hintergrund unserer bestehenden Normen.

Rote Linien sind keine Innovationskiller

Wir brauchen auch für KI keine Neuverhandlung unserer Wertegrundlagen! Was wir brauchen, ist nur die Konkretisierung wertegemäßen Handelns für neue Technologien in kritischen Anwendungsfeldern … Gott sei Dank sind wir hier in der Europäischen Union damit schon seit der Jahrtausendwende unterwegs! Nicht die Unternehmen stehen hier allein in der Pflicht, sondern die Gesellschaft als Ganzes – vertreten durch ihre Parlamente. Rote Linien beim Einsatz von KI sind keine Innovationskiller, sondern lediglich Sicherheitsnetz für die normativen Errungenschaften unseres Menschseins. [/content_control]

 

Prof. Dr. rer. pol. Harald J. Bolsinger
lehrt Wirtschaftsethik und Volkswirtschaftslehre an der Technischen Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt
www.ORIENTIERUNGsKOMPETENZ.de


Werden Sie Mitglied im UVG e.V. und gestalten Sie den Nachhaltigkeitsdialog mit. > Die Infos
DSGVO Cookie Consent mit Real Cookie Banner