39.CSR-MAGAZIN CSR_NEWS Digitalwirtschaft Künstliche Intelligenz

Wohin führt die EU-Gesetzgebung zur Künstlichen Intelligenz?

Grafik: geralt auf pixabay

Wirtschaftsethiker und Digitalisierungsexperten ordnen das Gesetz für das 39. CSR MAGAZIN ein.

Berlin (csr-news) – In der zurückliegenden Woche hat sich das EU-Parlament auf ein Gesetz zur Regulierung von Künstlicher Intelligenz geeinigt, den sog. „EU AI Act“. Das CSR MAGAZIN hat Wirtschafts- und Gesellschaftswissenschaftler um eine kommentierende Einordnung gebeten. Hier lesen Sie die Beiträge in einer Übersicht – mit Links zu den vollständigen Statements.

Der EU AI ACT im Überblick

Von Alexander Brink

Der EU AI Act ist das erste Gesetz über Künstliche Intelligenz (KI), das von einer großen internationalen Regulierungsbehörde veröffentlicht wurde: eine Verordnung zur Festlegung harmonisierter Vorschriften. Es hat am 14. Juni 2023 mit einer deutlichen Mehrheit erfolgreich das Parlament durchlaufen.

Was besagt der „EU AI Act“?

Das Gesetz umfasst die Steuerung und Überwachung von Künstlicher Intelligenz in der Europäischen Union (EU). Es ordnet die Anwendungen von KI drei Risikokategorien zu. Erstens werden Anwendungen und Systeme verboten, die ein inakzeptables Risiko darstellen wie z. B. ein staatlich betriebenes Social Scoring, wie es in China eingesetzt wird. Diese sind verboten. Zweitens gibt es Anwendungen mit hohem Risiko, wie z. B. ein Tool zum Scannen von Lebensläufen, das eine Rangfolge von Bewerber*innen erstellt. Sie unterliegen besonderen rechtlichen Anforderungen wie die Einführung eines Risikosystems oder die Aufsichtsführung durch menschliches Personal. Anwendungen, die nicht ausdrücklich verboten oder als risikoreich eingestuft sind, bleiben weitgehend unreguliert. Sie haben ein nur geringes bzw. minimales Risiko wie z. B. Spamfilter, Videospiele, Suchalgorithmen, Deep Fakes oder Chatbots. Der Gesetzgeber hält sich an dem aus der DSGVO bekannten Marktortprinzip fest, das heißt die Regularien finden Anwendung, sobald die KI in der Union eingesetzt wird.

Der EU AI Act stellt einen bedeutenden Meilenstein in der EU-Digitalstrategie dar, indem er eine umfassende Regulierung der zunehmend expansiven IT-Branche anstrebt. Schon in diesem konzeptionellen Entwurf zeigt sich eine Sensibilität der Europäischen Union für die potenziellen Gefahren, die von missbräuchlich eingesetzten KI-Anwendungen ausgehen können, insbesondere hinsichtlich Beeinflussung und Überwachung von Individuen. Angesichts der stetig wachsenden Rolle der Informationstechnologie in unserer Gesellschaft will die EU geeignete Maßnahmen ergreifen, um diese Risiken einzudämmen.

Unter diesen Bedingungen können ethische, rechtliche und soziale Aspekte des KI-Einsatzes ausbalanciert werden. Unternehmen haben die Chance, unter diesen neuen Bedingungen Wettbewerbsvorteile durch verantwortliche Digitalisierung zu gewinnen.

Geht die EU-Regulierung in die richtige Richtung (im Blick auf die Einordnung von KI, Grenzen und Freiheiten)?

Der EU AI Act hat das Ziel, den Schutz der Grundrechte und der Verbraucher:innen zu gewährleisten und gleichzeitig die Entwicklung und den Einsatz von KI-Technologien zu fördern. Insofern ist er aus meiner Sicht ein gelungener Balanceakt aus Verbraucherschutz und Markt. So macht die Differenzierung nach dem Risiko, also den möglichen Schäden für den Menschen, Sinn und findet sich auch bereits in ähnlichen internationalen Kontexten. So wird der Einsatz bestimmter hochriskanter KI-Systeme verboten, da sie eine direkte Gefahr für Sicherheit, Grundrechte, Leben und Eigentum darstellen können. Beispiele dafür sind biometrische Überwachungssysteme, die unsere Freiheit ja massiv einschränken. Gemäß dem EU AI Act müssen KI-Systeme darüber hinaus transparent sein, um den Benutzer*innen die Möglichkeit zu geben, ihre Funktionsweise zu verstehen. Besonders hochriskante Systeme müssen ausreichend erklärbar sein, um nachvollziehbar zu sein. Transparenz und Verständlichkeit sind übrigens zwei unterschiedliche Dinge: Man kann transparent sein, ohne dass der Mensch etwas versteht – auch hier gilt es, kluge Mittelwege zu suchen. Insbesondere gilt es dabei die unterschiedlichen Kompetenzniveaus jeweils adäquat zu bedienen. Ein Weg könnten standardisierte, interaktiv ausfaltbare Modelle sein, bei der von einer allgemein verständlichen Darstellung bedarfsweise auf eine technischere Ebene abgetaucht werden kann. Ein solches Konzept wurde für die Datennutzung mit einem Prototypen im Data Process Modeller entwickelt Der EU AI Act betont darüber hinaus die Bedeutung von qualitativ hochwertigen und ethisch einwandfreien Daten für den Einsatz von KI-Systemen. Werte, Vertrauen und Ethik werden zu einem entscheidenden Differenzierungsfaktor. Es gibt jedoch Aspekte des EU AI Act, die weiterer Klärung bedürfen. Die Risikokategorisierung könnte präziser sein und die starke Fokussierung auf die EU könnte internationale Aspekte vernachlässigen. Zudem könnte die aktuelle Fassung des Gesetzes zu unflexibel sein, um auf zukünftige, unvorhergesehene Anwendungen von KI zu reagieren. Es bleibt abzuwarten, wie diese Punkte in den kommenden Verhandlungen behandelt werden.

Prof. Dr. Dr. Alexander Brink
ist Professor für Wirtschafts- und Unternehmensethik im „Philosophy & Economics“-Programm der Universität Bayreuth.

Was bedeutet der EU AI ACT für die Praxis?

Eine Einordnung von Alexander Huber

Sind die ggf. noch angepassten Vorschläge in geltendes Recht überführt, kommt es auf die Handhabung in der Praxis an. Sollten sehr viele KI-Systeme dem Hochsicherheitsbereich mit seinen strengen Auflagen zugeordnet werden, können die Systeme Ihre Power nicht entfalten und die EU würde sich selbst aus dem Rennen nehmen. Denn, dass die EU der erste Wirtschaftsraum weltweit wird, der den Einsatz von KI gesetzlich regelt, darf eben nicht zum Wettbewerbsnachteil werden, wie von vielen Seiten befürchtet. Auch wenn z. B. mit Stability AI oder Runway ML die deutsche Forschung durchaus Flagge zeigt, gibt es in der EU kein KI-Unternehmen von Weltrang. Trotzdem ist die Gesetzgebung schon mit allerlei Einschränkungen am Start. Im Falle der Überregulierung könnten (auch EU-) KI-Unternehmen die Arbitrage des regulatorisch optimierten Nomadisierens zum Teil des Geschäftsmodells werden lassen. Dann wäre die EU zum „der Wirklichkeit hinterher regulieren“ verdammt, um so dafür zu sorgen, dass maßgebliche Entwicklungen nicht nur aus Non-EU-Ländern kommen.

Fazit: Der EU-AI Act kann erfolgreich sein, wenn er die Ausbreitung von AI nicht bremst – sondern im Gegenteil Leitplanken und Sicherheit für eine verantwortungsvolle, marktgerechte und effiziente KI-Entwicklung schafft.

Prof. Dr.-Ing. Alexander Huber
lehrt an der Berliner Hochschule für Technik. Zuvor war er zehn Jahre im Führungskreis von Siemens und Berater bei Accenture

„Zauberlehrlingstechnologie“: Unterscheidung zwischen Hochrisiko-KI und KI mit geringem Risiko kaum durchhaltbar

Von Klaus Wiegerling

Als ich vor 20 Jahren erstmals den Begriff der ‚Zauberlehrlingstechnologie‘ gebraucht habe, hatte ich zwar eher die Vernetzung von informatischen Systemen im Blick, aber auch schon die Möglichkeiten von KI-Entwicklungen. Es gibt keinen Weg mehr zurück zu einer individuellen Kontrolle vernetzter ubiquitärer Systeme. Was möglich ist, sind ad hoc-Kontrollen bei Irritationen, die durch gelieferte Ergebnisse oder durch Aktionen der Systemtechnologien ausgelöst werden. Wenn Ergebnisse und Aktionen nicht mit der konkreten Lebenserfahrung übereinstimmen, müssen sie eine Überprüfung erfahren. Noch sind in den meisten Anwendungsweisen zumindest indirekte Überprüfungen möglich. Dieses grundlegende Dilemma, dass wir auch im Falle fortgeschrittener KI letztlich nicht aus der vernetzten Gesamtstruktur, der informatischen Infrastruktur, dem permanent anwachsenden Datenfluss und den diese erschließenden Reduktionstechniken, die das Typologische im Fokus haben, aussteigen können, begegnet uns auch im EU AI Act.

Gerade bei generativer KI wie den aktuell diskutierten Dialogsystemen lässt sich aber eine einigermaßen zuverlässige Unterscheidung zwischen einer Hochrisiko-KI und einer KI mit geringem Risiko kaum durchhalten. Selbst, wenn wir den Blick – was das Papier vernünftiger Weise tut – auf Anwendungsfelder fokussieren, ist diese Eindeutigkeit, etwa bei selbstlernenden Systemen, kaum mehr problemlos durchzuhalten. Tatsächlich können sich heute problemlose Nutzungen morgen zu risikobehafteten auswachsen. Je nach Anwendung, je nach Nutzungsdauer und -intensität kann ein lernendes und damit sich wandelndes System problematisch werden. Die Risiken von Dialogsystemen sind in hohem Maße von ihrer konkreten Nutzung abhängig.

> Der vollständige Beitrag

Prof. Dr. Klaus Wiegerling
war bis Ende 2019 am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT Karlsruhe tätig, seit 2020 in Pension. Er lehrt an der TU Kaiserslautern, der TU Darmstadt und der HDM Stuttgart.

„Eine Art AI TÜV“: Zulassungsverfahren die wesentliche Innovation

Von Thomas Beschorner

Die wesentliche Innovation des AI Acts besteht nach meiner Einschätzung in den angedachten Governance-Mechanismen, die nicht nur klassische ex-post Überwachungen vorsehen, sondern auch ein „ex-ante conformity assessment through internal checks“.

Wir sollten uns bei den Diskussionen über den Einsatz neuer Technologien zwei Dinge vor Augen führen: Wir bewegen uns mit KI teilweise in einem Hochrisikobereich, ähnlich wie bei Atomkraftwerken oder bei Arzneimitteln, weshalb Regulierungen dringend geboten sind. Zugleich können wir seit Jahren ein Hase und Igel-Spiel zwischen Technologieunternehmen und Politik beobachten, bei dem politische Institutionen und Rechtsnormen systematisch hinterherhinken. Genau deshalb ist die ex-ante Prüfung von Anwendungen im Bereich der KI (durch Auditoren) wesentlich, verspricht sie doch das systematische Hinterherhecheln durch Politik und Recht wenigstens etwas zu entspannen. Es handelt sich damit, wenn man so will, um eine Umkehrung der Beweislast, die fortan bei den Unternehmen läge.

Wir hatten den Vorschlag eines Zulassungsverfahren (eine Art „AI TÜV“), wie ihn der AI Act nun vorsieht, bereits vor einigen Jahren in die Diskussion eingebracht.

> Der ganze Kommentar

Prof. Dr. Thomas Beschorner
lehrt Wirtschaftsethik an der Universität St.Gallen und ist Direktor des dortigen Instituts für Wirtschaftsethik.

„Future by desaster“ oder „future by design“?

Von Stefan Selke

Vor dem Hintergrund des europäischen Wertekanons (Humanismus) ist die Regulierung riskanter Formen von KI ist auf den ersten Blick ein notwendiger Ansatz, um ethische Freihandelszonen (z.B. Einsatz von KI bei End-of-Life-Entscheidungen in der Medizin, Einsatz im militärischen Bereich) zu verhindern. Allerdings ist Regulierung immer auch Ausdruck rein reaktiver und teils regressiver Anpassungsnarrative als Basis für gesellschaftliche Transformation (d.h. „future by desaster“). Was dabei vollkommen aus dem Blick gerät, sind die utopisch-zivilisatorischen Potenziale von KI, die der Menschheit im Kontext progressiver Aufbruchsnarrative (d.h. „future by design“). Für diese Sichtweise auf KI gibt es in Europa kaum Vorbilder gibt und die von der Politik überhaupt nicht gefördert werden. Dies führt – wie auch das Beispiel EU AI Act zeigt – zu Schrumpfformen der Gesellschaftsgestaltung. Hier haben vor allem Wissenschaft und Zivilgesellschaft eine große Verantwortung kollaborativ mit Unternehmen vielversprechende Perspektiven auf KI zu entwickeln, die Zukunftseuphorie erzeugen, anstatt Ängste zu verstetigen.

Prof. Dr. Stefan Selke
hat die Professur „Gesellschaftlicher Wandel“ und die Forschungsprofessur „Öffentliche Wissenschaft“ an der Hochschule Furtwangen inne.

„Künstliche Intelligenz unter den Bedingungen der europäischen Werte“

So könnte man das Ansinnen des Europäischen Parlaments zur Regulierung der künstlichen Intelligenz auch lesen. Schließlich geht es bei der Regulierung um die Sicherung der grundsätzlichen Werte und Rechte, für die die Europäische Union steht. Insofern scheint eine regulatorische Gesetzgebung aus ethischer Perspektive lobenswert und folgerichtig, zumal dann, wenn man die moralischen Überzeugungen der EU als ethisches Fundament anerkennt.

Von Matthias Schmidt

Wenn Grundwerte mehr sein wollen als Lippenbekenntnisse und Papiertiger, dann gehören sie systematisch in einen Ordnungsrahmen, der ihnen Geltung und Wirksamkeit verschafft. Allerdings haben Werte an sich einen sehr abstrakten Charakter. Sie müssen in konkrete Situationen übertragen und angewandt werden. Und sie müssen sich als feste Bezugsgrößen im zeitlichen Prozess der technologischen Weiterentwicklung behaupten und anwendbar bleiben.

Mit dem EU AI Act hat das Europäische Parlament die Regulierung von künstlicher Intelligenz angestoßen. So wirkt die EU im Wortsinn darauf hin, die Entwicklungen der digitalen Möglichkeiten „im Rahmen“ zu halten. Dabei auf unterschiedliche Risikoklassen und Regulierungstiefen einzugehen, erscheint sachlich klug und könnte dem Gedanken folgen, so viel wie nötig, aber so wenig wie möglich zu regulieren.

Es wird sich zeigen, wie die nationalen Parlamente der Mitgliedsstaaten die konkrete Ausgestaltung der EU-Vorlage diskutieren. Nicht zuletzt dürften es immer nur interpretative Balanceakte sein, die zwischen (teilweise konkurrierenden) Werten gefunden werden müssen, beispielsweise zwischen dem Bedürfnis nach Sicherheit und dem Wunsch nach individueller Freiheit. Es ist zu vermuten, dass sich die konkrete Balance dieses beispielhaften Spannungsfeldes von Sicherheit und Freiheit mit dem technologischen Stand, der konkreten Situation und den weiteren technologischen und gesellschaftlichen Entwicklungen ständig neu austarieren muss. Ob die avisierten Regularien des EU AI Act diese inhaltliche und prozessuale Flexibilität haben werden, wird sich zeigen bzw. es wird ausgehandelt werden müssen.

> Der vollständige Text

Prof. Dr. Matthias Schmidt
lehrt Unternehmensführung an der Berliner Hochschule für Technik und leitet das „Institut werteorientierte Unternehmensführung“

“Transparenz ein wichtiges Kriterium”: Eine Einordnung aus erziehungswissenschaftlicher Perspektive

Von Johannes Doll

Im November 2022 brachte OpenAI einen frei zugänglichen ChatGPT heraus, der es ermöglicht, nach gewissen Vorgaben recht komplexe Texte zu verfassen. Dies bedeutet nun natürlich gerade für den Bildungs- und Hochschulbereich eine starke Herausforderung, denn bei eingereichten Texten stellt sich nun die Frage nach dem eigentlichen Autor, die betreffenden Verfasser oder das ChatGPT. Dieses Problem betrifft Prüfungs- und Seminararbeiten, bezieht sich aber auch auf allgemeine wissenschaftliche und journalistische Publikationen. In diesem Bereich ist die vom Gesetzesentwurf geforderte Transparenz ein wichtiges Kriterium, wenn bei veröffentlichten Texten darauf hinzuweisen ist, dass der Inhalt unter Zuhilfenahme von KI produziert wurde. Natürlich lassen sich damit Täuschungsversuche nicht ausschließen, aber diese Gefahr bestand schon immer, und mit dem Gesetzesentwurf wird zumindest eine gesetzliche Regelung dieser bisher kaum erfassten Situation vorgegeben.

> Der vollständige Beitrag

Prof. Dr. Johannes Doll
lehrt an der Erziehungswissenschaftliche Fakultät der Bundesuniversität von Rio Grande do Sul, Brasilien.


Werden Sie Mitglied im UVG e.V. und gestalten Sie den Nachhaltigkeitsdialog mit. > Die Infos
DSGVO Cookie Consent mit Real Cookie Banner