39.CSR-MAGAZIN CSR_NEWS Digitalwirtschaft Künstliche Intelligenz

„Bitcoin verbraucht mehr Strom als ganz Schweden“

Foto: Unsplash+

Wie KI nachhaltiger werden kann. Das Interview mit Stefan Vieweg [39. CSR MAGAZIN]

Köln (csr-news) – Welche ethischen Herausforderungen entstehen aus der Entwicklung und Anwendung von ChatGPT und anderen KI-Produkten? Darüber sprach CSR NEWS mit Stefan Vieweg, dem Gründer des Instituts für Compliance und Corporate Governance (ICC) an der Rheinischen Fachhochschule Köln.

CSR MAGAZIN: KI-Lösungen werden in diesen Tagen in zahlreiche B2C- und B2B-Anwendungen ausgerollt versprechen uns, dass unser Leben und Arbeiten einfacher und besser werden wird. Teilen Sie die Euphorie, die sich bei manchen breitmacht?

Prof. Dr. rer. oec. Dr.-Ing. Stefan Vieweg

Dr. Stefan Vieweg: Ja, derzeit gibt es einen großen Hype rund um ChatGPT und Künstliche Intelligenz. Es gibt sehr viele Anwendungen, die jetzt im Alltag ankommen, etwa Text- und Spracherkennung. Aus ethischer Perspektive sollten wir kritisch auf diese Entwicklung schauen. Ich sehe zwei große Problembereiche:

Zum einen haben wir es nach wie vor mit einer schwachen und sehr datenhungrigen KI zu tun. Diese KI funktioniert mit unterschiedlichen Algorithmen, die alle letztlich auf statistischer Basis Korrelationen und damit Muster erkennt. Eine Kausalität ist damit aber keineswegs gegeben. Damit diese Anwendungen Sprache erkennen und mit Menschen chatten können, müssen sie sehr viele Lebensbereiche durchleuchten. Hierbei werden sehr große Datenmengen erfasst und wir können die Rechte der beobachteten Personen kaum schützen. Auf europäischer und nationaler Ebene gibt es Initiativen zu einer gesetzlichen Regulierung, die aus meiner Sicht aber noch nicht besonders befriedigend sind.

Und dann gibt es eine zweite Komponente mit einem ethischen Aspekt: Durch „Big Data“ erzeugen wir auch „Big Emission“. KI-Dienstleistungen sind bei wenigen Anbietern zentralisiert, die einen hohen Bedarf haben, ihre Ressourcen auszubauen und zu nutzen. Kurzsichtigkeit und Gewinnorientierung führen zu Lösungen, die kein Modell für die Zukunft bieten.

 

Können Sie uns das Problem „Big Emission“ an einem Beispiel vorstellen?

Denken Sie etwa an die Blockchain Technologie: Indem die Historie sämtlicher Transaktionen mitgeführt wird, können die Richtigkeit und Werthaltigkeit einer neuen Transaktion bewerten werden. Das bietet viele Vorteile wie Smart Contracts und einfache Prozesse, aber das bringt auch Probleme: Bitcoins etwa haben eine Blockchain-Länge von 478GB; das erfordert eine hohe Rechenkapazität und Rechner brauchen Strom. Allein die Anwendung Bitcoin verbraucht mehr Strom als das ganze Land Schweden. Und Bitcoins sind nur eine Anwendung aus dem ganzen Kryptowährungsumfeld.

Wenn wir uns weiter darauf fokussieren, mit hohen Rechenleistungen eine Vielzahl an Daten weiterzugeben, ist das fatal. Die Performance einer KI verbraucht, verglichen mit dem Menschlichen Gehirn, eine Million Mal mehr Energie. Es ist nicht nachhaltig, auf solche Technologien zu setzen.

Würden Sie sich also der im März verbreiteten Forderung nach einem vorläufigen Entwicklungsstop für KI-Anwendungen anschließen?

Es wäre vermessen, KI als „Teufelszeug“ zu beschreiben und abwehren zu wollen. Diese Technologie bietet viele Potentiale, etwa bei der Krankheitserkennung im Gesundheitswesen. Die Art und Wiese, wie wir diese Technologien im Moment implementieren, ist nicht tragfähig. Heute wird Menschen ihre Eigenständigkeit genommen, weil sie nicht wissen können, was KI-Systeme bereits über sie wissen und wie die Systeme mit diesem Wissen umgehen.

Was würde dann tragfähige KI-Lösungen kennzeichnen?

Einerseits sollten wir die Spielregeln für KI überdenken und Voraussetzungen für eine ethikfreundliche KI definieren. Zum anderen sollten wir wegkommen von datengetriebener KI und stattdessen verstärkt prozessgetriebene KI-Systeme entwickeln.

Auf die Gefahren für unsere Menschheit hat Geoffrey Hinton hingewiesen, der als führender KI-Entwickler bei Google zahlreiche Erfahrungen gesammelt hat. Hinton verweist u.a. auf die zunehmende Verbreitung von Falschnachrichten.

Was die Auswirkungen auf den Klimawandel angeht, brauchen wir datensparsame prozessorientierte KI-Anwendungen. Das so etwas funktionieren kann, hat vor Jahrzehnten bereits die Apollo-Mission bewiesen. Mit Berechnungen auf den damals verfügbaren Computern, deren Rechenleistung deutlich unter der eines heutigen Standard-Smartphones lag, brachte die Mission Menschen sicher zum Mond und zurück. Die Ingenieure hatten beobachtet, sie hatten geplant und dann Algorithmen verwendet, die zielgerichtet auf den Anwendungsfall gesteuert wurden.

Wenn ich vorher darüber nachdenke, was ich erreichen will, kann ich mich auf wenige Daten beschränken. Das hat etwa ein mittelständisches Chemieunternehmen umgesetzt: Dort war eine datengetriebene KI keine Alternative, weil entsprechende Datenmengen fehlten. Stattdessen hat das Unternehmen überlegt, welche Daten für ihre Produktionsprozesse entscheidend sind und welche Sensoren zur Verfügung stehen. So konnte das Unternehmen mit minimalen Datenmengen zielgerichtet Produktionsprozesse optimieren. In der Folge konnten 38 von 40 zuvor in der Qualitätsüberwachung eingesetzte Chemiker in andere Tätigkeitsfelder transferiert werden.

Es geht also darum, nicht mit der Schrotflinte zu schießen, sondern zielgerichtet Daten zu erheben. Das adressiert sowohl das Problem des Ressourcenverbrauchs als auch Datenschutzprobleme.

Sehen Sie für diese ethische Reflexion auf den KI-Einsatz eine Sensibilisierung in Unternehmen und der Politik?

Im Blick auf eine solche Sensibilisierung stehen wir noch ganz am Anfang. Derzeit sind alle eingelullt von den Möglichkeiten durch ChatGPT, durch KI-getriebene Recruiting-Tools und Analysen. Die kurzfristigen Vorteile stehen klar im Vordergrund, über ethische Implikationen machen sich wenige Gedanken.

Ein wachsendes Bewusstsein für Verantwortungsfragen des KI-Einsatzes erwarte ich bei inhabergeführten Unternehmen. Diese Unternehmen denken in Generationen und die Verantwortung für ihre Mitarbeiter, die oft über Jahrzehnte in den Unternehmen tätig sind, ist ausgeprägt. Hier ist mit der Bereitschaft zu rechnen, sich mit den Verantwortungsthemen rund um den KI-Einsatz kritisch auseinanderzusetzen.

Die Bundesregierung beginnt gerade erst, sich etwa über die Regulierung des KI-Einsatzes in Recruiting-Prozessen Gedanken zu machen. Das Bewusstsein für mögliche Risiken ist hier noch nicht sehr weit entwickelt.

Wo sehen Sie im Blick auf die KI-Anwendungen Herausforderungen für die Bildung – in Schulen, Hochschulen und Unternehmen?

Hier sehe ich einen enormen Nachholbedarf! Schauen Sie sich etwa an wie unreflektiert mit dem Thema „Social Media“ umgegangen wird. Hier steht die Bequemlichkeit im Vordergrund, Datenschutz und Energieverbrauch geraten völlig aus dem Blick. Und in Sachen Bequemlichkeit haben KI-Anwendungen noch einiges mehr zu bieten.

Es ist etwa – wie Geoffrey Hinton warnt – mit enormen gesellschaftlichen Zerwürfnissen aufgrund von Fake News zu rechnen. Und Filterfunktionen könnten gesellschaftliche Ungleichheiten weiter vertiefen. Zugleich wandern immer mehr Daten in amerikanische Serverfarmen. Für die damit verbundenen Risiken und für alternative Handlungsoptionen muss Bildung sensibilisieren.

Haben Sie vielen Dank für das Gespräch!

In diesem Jahr erschien das von Stefan Vieweg herausgegebene Buch „KI für das Gute“ im Verlag Springer Gabler.

Creative Commons Lizenzvertrag
Dieser Text (ohne Bilder) ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.

Creative Commons Lizenzvertrag
Dieser Text (ohne Bilder) ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.


Werden Sie Mitglied im UVG e.V. und gestalten Sie den Nachhaltigkeitsdialog mit. > Die Infos
DSGVO Cookie Consent mit Real Cookie Banner