39.CSR-MAGAZIN Digitalisierung Künstliche Intelligenz Unternehmen & Gesellschaft

“Zauberlehrlingstechnologie”

Fotomontage: Unsplash+

Unterscheidung zwischen Hochrisiko-KI und KI mit geringem Risiko kaum durchhaltbar: Ein Kommentar von Klaus Wiegerling

Kaiserslautern (csr-news) – Der EU AI Act ist keineswegs ein Schnellschuss, auch wenn der gegenwärtige Hype um Dialogsysteme wie Chat GTP das suggerieren mag. Zweifellos handelt es sich um ein ausdifferenziertes Papier auf einem hohen Reflexionsniveau. Es artikuliert sich darin durchaus ein hoher informatischer Kenntnisstand und eine ebenso hohe ethische Expertise. Auf den ersten Blick lässt sich in der Tat wenig kritisieren. Ein kritischer Kommentar erfordert freilich eine gründliche, Details würdigende Lektüre, die in einem kurzen Statement unmittelbar nach der Verabschiedung des Papiers nicht geleistet werden kann. Von der rechtlichen Konsistenz des EU AI Act ist auszugehen. Ob das Papier mit seinen Dokumentations- und Transparenzverpflichtungen den Beifall der Wirtschaft finden wird, sei dahingestellt. Immerhin wird ein Rahmen geboten, der für einen fairen, sozial verpflichteten Wettbewerb bei der Herstellung und Nutzung von KI sorgen kann.

Als ich vor 20 Jahren erstmals den Begriff der ‚Zauberlehrlingstechnologie‘ gebraucht habe, hatte ich zwar eher die Vernetzung von informatischen Systemen im Blick, aber auch schon die Möglichkeiten von KI-Entwicklungen. Es gibt keinen Weg mehr zurück zu einer individuellen Kontrolle vernetzter ubiquitärer Systeme. Was möglich ist, sind ad hoc-Kontrollen bei Irritationen, die durch gelieferte Ergebnisse oder durch Aktionen der Systemtechnologien ausgelöst werden. Wenn Ergebnisse und Aktionen nicht mit der konkreten Lebenserfahrung übereinstimmen, müssen sie eine Überprüfung erfahren. Noch sind in den meisten Anwendungsweisen zumindest indirekte Überprüfungen möglich. Dieses grundlegende Dilemma, dass wir auch im Falle fortgeschrittener KI letztlich nicht aus der vernetzten Gesamtstruktur, der informatischen Infrastruktur, dem permanent anwachsenden Datenfluss und den diese erschließenden Reduktionstechniken, die das Typologische im Fokus haben, aussteigen können, begegnet uns auch im EU AI Act.

Gerade bei generativer KI wie den aktuell diskutierten Dialogsystemen lässt sich aber eine einigermaßen zuverlässige Unterscheidung zwischen einer Hochrisiko-KI und einer KI mit geringem Risiko kaum durchhalten. Selbst, wenn wir den Blick – was das Papier vernünftiger Weise tut – auf Anwendungsfelder fokussieren, ist diese Eindeutigkeit, etwa bei selbstlernenden Systemen, kaum mehr problemlos durchzuhalten. Tatsächlich können sich heute problemlose Nutzungen morgen zu risikobehafteten auswachsen. Je nach Anwendung, je nach Nutzungsdauer und -intensität kann ein lernendes und damit sich wandelndes System problematisch werden. Die Risiken von Dialogsystemen sind in hohem Maße von ihrer konkreten Nutzung abhängig.

Juristische Notwendigkeiten in Bezug auf begriffliche Bestimmungen müssen sich nicht mit den begrifflichen Austauschformen der Entwickler decken. In technischen Kontexten haben Begriffe nicht die Haltbarkeit, die in der Juristerei schon aus Gründen der Rechtssicherheit benötigt wird und schon gar nicht die, die wir aus der Philosophie kennen. Technische Begriffe sind stark ökonomie- und politikgetrieben, was dazu führt, dass ein Problem, das heute unter Ubiquitous Computing behandelt wird, morgen unter Ambient Intelligence, übermorgen unter Big Data und nächste Woche unter einem anderen Label diskutiert wird – freilich mit perspektivischen Verschiebungen, nicht aber notwendigerweise in grundlegend neuer Weise. Auch der Begriff der KI selbst hat in den vergangenen Dekaden einen enormen Bedeutungswandel von einer theoretischen informatischen Disziplin hin zu einer praktischen Anwendung erfahren.

Auch wenn die vorgelegten Regelungen ein hohes Reflexionsniveau belegen, durchdacht und ausgewogen erscheinen, können sie diesem begrifflichen Dilemma nicht entkommen. Es ist deshalb wichtig und richtig, dass sie in einem überschaubaren, die Rechtssicherheit aber noch gewährleistenden Rahmen, eine Überprüfung erfahren sollen.

Noch eine letzte Bemerkung zu Grenzen der Regulierung: Es ist üblich geworden zwischen einem Rechtsdiskurs und einem ethischen Diskurs kaum zu unterscheiden. Die Engführung führt gegenwärtig zuweilen zu einem jakobinischen Eifer unter dem Etikett des Diskriminierungsverbots, der ahistorischem Denken und Diskursausschlüssen Vorschub zu leistet. Ich würde mich vor einem Dialogsystem, das auf die gegenwärtigen Vorstellungen von politischer Korrektheit festgezurrt ist, mehr fürchten als vor einem System, dass Vorfilterungen vornimmt. Die Gefahr des Abdriftens in Huxleys schöne neue Welt ist groß. Diskriminierung ist durch Bildung, v.a. historische Bildung und Dialogfähigkeit, zu begegnen, nicht durch informatische Filterung. So können gut gemeinte Antidiskriminierungsregulierungen umschlagen in Manipulationen und Entmündigungen.

Prof. Dr. Klaus Wiegerling
war bis Ende 2019 am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT Karlsruhe tätig, seit 2020 in Pension. Er lehrt an der TU Kaiserslautern, der TU Darmstadt und der HDM Stuttgart.


Werden Sie Teil der CSR NEWS-Community, gestalten Sie den Nachhaltigkeitsdialog mit, vermitteln Sie Impulse in unsere Gesellschaft und lesen Sie uns auch als eBook. > Weitere Infos

Hinterlassen Sie einen Kommentar

Consent Management Platform von Real Cookie Banner