In einem 108 Seiten umfassenden Vorschlag will die EU-Kommission den Einsatz von Künstlicher Intelligenz (KI) stärker regulieren. Der „Artificial Intelligence Act“ sieht dabei in bestimmten Bereichen grundsätzliche Verbote für den Einsatz von KI vor – wie beispielsweise bei „biometrischen Identifikationssystemen“ in Echtzeit (Gesichtserkennungs- und ähnliche Systeme), wenn von den Technologien „signifikante Risiken für die Gesundheit, für die Sicherheit und für fundamentale Rechte von Personen ausgehen“ (S. 3, meine Übersetzung). Der „AI Act“ arbeitet insgesamt mit einer Risiko-Methodik, die es erlaubt, die Gefahren von KI in Abstufungen zu bewerten, womit dann jeweils unterschiedliche Anforderungen und Regulierungen einhergehen. Das reicht, wie gesagt, von grundsätzlichen Verboten bis hin zu Transparenzanforderungen (z.B. die notwendige [Selbst-]Identifikation von Chatbots als Maschinen, die Kennzeichnung von Deepfake-Fotos, -Videos oder -Audios).
Die wesentliche Innovation des AI Acts besteht nach meiner Einschätzung in den angedachten Governance-Mechanismen, die nicht nur klassische ex-post Überwachungen vorsehen, sondern auch ein „ex-ante conformity assessment through internal checks“.
Wir sollten uns bei den Diskussionen über den Einsatz neuer Technologien zwei Dinge vor Augen führen: Wir bewegen uns mit KI teilweise in einem Hochrisikobereich, ähnlich wie bei Atomkraftwerken oder bei Arzneimitteln, weshalb Regulierungen dringend geboten sind. Zugleich können wir seit Jahren ein Hase und Igel-Spiel zwischen Technologieunternehmen und Politik beobachten, bei dem politische Institutionen und Rechtsnormen systematisch hinterherhinken. Genau deshalb ist die ex-ante Prüfung von Anwendungen im Bereich der KI (durch Auditoren) wesentlich, verspricht sie doch das systematische Hinterherhecheln durch Politik und Recht wenigstens etwas zu entspannen. Es handelt sich damit, wenn man so will, um eine Umkehrung der Beweislast, die fortan bei den Unternehmen läge.
Wir hatten den Vorschlag eines Zulassungsverfahren (eine Art „AI TÜV“), wie ihn der AI Act nun vorsieht, bereits vor einigen Jahren in die Diskussion eingebracht und dabei auch gefragt: „Könnte ein derartiges Zulassungsverfahren funktionieren? Und ist dies nicht eine Form von staatlichem Dirigismus, der Fortschritt verhindert?“ Unsere Antworten lauten damals wie heute:
„Es kann funktionieren, und eine solche Agentur müsste auch nicht zu einem Innovationskiller werden. Das zeigen seit Langem etablierte Beispiele aus anderen Industrien. Pharmaunternehmen müssen beispielsweise vor der Vermarktung neuer Arzneimittel eine Zulassung bekommen, in deren Zuge sie den Nachweis der Wirksamkeit und der Unschädlichkeit ihrer Wirkstoffe erbringen müssen. Die prinzipielle Richtigkeit eines solchen Verfahrens wird dabei kaum infrage gestellt. Die Analogie zu Arzneimitteln ist dabei nur eines von vielen möglichen Beispielen. Unsere Gesellschaft sieht für alle Risikotechnologien Zulassungsverfahren vor, die vor Markteinführungen verpflichtend zu durchlaufen sind.“
Bei Risiken und Nebenwirkungen fragen Sie Ihr KI-Unternehmen – oder ChatGPT, 😉.
Prof. Dr. Thomas Beschorner
lehrt Wirtschaftsethik an der Universität St.Gallen und ist Direktor des dortigen Instituts für Wirtschaftsethik.