Digitale Verantwortung & Bildung Digitalwirtschaft Künstliche Intelligenz

KI-Technologien: „Wir befinden uns an einem Wendepunkt“

Grafik: Growtika auf Unsplash

Mangelnde Transparenz führt zu erheblichem Vertrauensverlust

Ein Beitrag von Leonhard Henke, Mitarbeiter der Nachhaltigkeitsberatung Concern (Köln)

Berlin (csr-news) – Mit dem Foundation Model Transparency Index (FMTI) legt das Standford University Institute for Human-Centered AI erneut, aber nun differenzierter dar, was bereits in vorherigen Untersuchungen, etwa der Prüfung der Konformität von Foundation Models mit dem Entwurf des EU AI Acts, deutlich wurde: ein erhebliches Transparenzdefizit bei der Entwicklung und Nutzung von Foundation Models (> CSR NEWS berichtet hier). Diese Erkenntnisse unterstreichen die dringende Notwendigkeit, die Transparenz in diesem Bereich zu erhöhen, nicht nur um zukünftigen regulatorischen Anforderungen gerecht zu werden, sondern auch um das volle wirtschaftliche und gesellschaftliche Potenzial dieser Technologien auszuschöpfen.

Die Erhöhung der Transparenz wird langfristig zu einer breiteren Akzeptanz von Foundation Models und darauf aufbauenden Anwendungen führen. Wenn Anwender*innen klar kommuniziert wird, welche Risiken mit diesen Modellen verbunden sind und welche Maßnahmen zu deren Minderung wirksam umgesetzt wurden, fördert dies das Vertrauen und damit die breite Anwendung dieser Modelle. Mangelnde Transparenz über kritische Aspekte wie den Umgang mit urheberrechtlich geschützten Daten, die Umweltauswirkungen, die Bewertung des Missbrauchspotenzials und die nachgeschalteten Auswirkungen der Modelle führen hingegen zu einem erheblichen Vertrauensverlust.

Vor diesem Hintergrund sollten Unternehmen, die Foundation Models entwickeln und anwenden, die aktuelle Situation als Chance begreifen, sich durch eine aktive Wertepositionierung im Markt zu differenzieren. Denn wenn diese Wertepositionierung im Einklang mit dem globalen Moralverständnis und damit den Sustainable Development Goals steht, führt dies nicht nur zu verantwortungsvollem Handeln aus selbstlosen Motiven, sondern auch zu wirtschaftlichem Erfolg. Unternehmen, die solche Modelle anwenden, sollten sich intensiv mit den Risiken hier vorliegender Intransparenz auseinandersetzen. Dann wird deutlich, dass eine unüberlegte Entscheidung für das falsche Modell ein existenzielles Geschäftsrisiko bedeutet: den Verlust des Kundenvertrauens.

Auf politischer Ebene kann das wirtschaftliche und gesellschaftliche Potenzial durch die richtige Ausgestaltung des EU AI Act verstärkt werden. Eine sinnvolle Ergänzung ist in diesem Zusammenhang die Verpflichtung der Anbieter, bei der Registrierung von KI-Anwendungen mit hohem Risiko die verwendeten Foundation Models anzugeben. Mit dieser relativ einfach umzusetzenden Maßnahme kann eine enorme Hebelwirkung durch die Stärkung des oben beschriebenen Marktmechanismus erzielt werden. Denn politische und gesellschaftliche Akteure können so verstehen, auf welcher Grundlage kritische KI-Anwendungen die Gesellschaft und die Umwelt beeinflussen und haben so die Möglichkeit, wirksame Maßnahmen zu ergreifen.

Wir befinden uns an einem Wendepunkt in der sich ständig weiterentwickelnden Landschaft der KI-Technologien. Der FMTI des HAI der Stanford University zeigt nicht nur ein Defizit auf, sondern auch eine Chance. Eine Chance, Vertrauen und Verständnis als Grundlage für den Einsatz von Foundation Models zu begreifen und die Einhaltung von Vorschriften wie dem EU AI Act nicht als Belastung, sondern als Schlüssel zum Erfolg zu sehen. Wir stehen vor der Herausforderung, eine Zukunft zu gestalten, in der der Einsatz von KI nicht nur innovativ und leistungsstark, sondern auch verantwortungsvoll und vertrauenswürdig ist.


Werden Sie Teil der CSR NEWS-Community, gestalten Sie den Nachhaltigkeitsdialog mit, vermitteln Sie Impulse in unsere Gesellschaft und lesen Sie uns auch als eBook. > Weitere Infos
DSGVO Cookie Consent mit Real Cookie Banner