Stanford, USA (csr-news) – Künstliche Intelligenz besitzt das Potential, unser Zusammenleben und unsere Arbeitswelt in vielen Bereichen zu verändern. Die Entwickler und Betreiber eines so mächtigen technischen Instruments sollten Transparenz bieten. Aber genau daran mangelt es, wie Forschende der Stanford University, des MIT und der Princeton University in ihrem „Foundation Model Transparency Index“ aufzeigen.
Die Forscher nahmen die KI-Anwendungen zugrunde liegenden Foundation Models (Grundlagenmodelle) von zehn führenden Unternehmen und Organisationen anhand von 100 Indikatoren in den Blick. „Dies liefert eine Momentaufnahme der Transparenz im gesamten KI-Ökosystem. Bei allen Entwicklern besteht erhebliches Verbesserungspotenzial“, heißt es in der Veröffentlichung.
Mit einem Punktestand von 52% erreichte Llama 2 von Meta den höchsten Wert; ChatGPT von OpenAI erreichte 48% und PaLM 2 von Google 40%. Das Schlusslicht der Skala bildet Titan Text von Amazon mit 12%. Die verwendeten Indikatoren nehmen die Foundation Models selbst, die zu ihrer Erstellung erforderlichen Ressourcen und die KI-Lieferketten in den Blick.
„Keiner der großen Entwickler von Basismodellen ist auch nur annähernd in der Lage, angemessene Transparenz zu bieten, was einen grundlegenden Mangel an Transparenz in der KI-Branche offenbart“, heißt es von den Forschenden. Sie verweisen auf die Bedeutung offener KI-Modelle: Zwei der drei Open-Foundation-Modellentwickler -Llama 2 und Bloomz – erhielten die beiden höchsten Punktzahlen. Beide erlauben das Herunterladen ihrer “Model weights” (Modellgewichte), die bestimmen, wie das Modell Eingabedaten interpretiert und Vorhersagen trifft.
Entwickelt wurde der „Foundation Model Transparency Index 2023“ von einer Gruppe von acht KI-Forschern des Center for Research on Foundation Models (CRFM) und des Institute on Human-Centered Artificial Intelligence (HAI) der Stanford University, des MIT Media Lab und des Center for Information Technology der Princeton University.
Transparenzkriterien brauchen breite Basis
Bemühungen um die Entwicklung von Mechanismen zur Bewertung und Überwachung KI-basierter Lösungen sollten partizipativ, stakeholderübergreifend und multilateral sein. Das erklärte Ricardo Chavarriaga, Leiter der Responsible AI Innovation Group an der ZHAW School of Engineering, gegenüber CSR NEWS. Die Entwicklung strukturierter Methoden zur Bewertung der Transparenz grundlegender Modelle und KI-Systeme im Allgemeinen sei zu begrüßen. Jedoch solle die Festlegung geeigneter Maßstäbe und Standards für die Entwicklung und Regulierung einer Technologie im Konsens zwischen mehreren Interessengruppen erfolgen. Hier seien solche Bemühungen von einer ausgewählten Anzahl von Forschern vorangetrieben worden, so der promovierte Informatiker weiter. Deren Vorstellungen von Transparenz und Transparenzbewertung würden möglicherweise nicht für alle Interessengruppen oder für Gemeinschaften außerhalb der Eliteuniversitäten gelten.
Chaos bei OpenAI schürt Ängste
Die Frage nach der Vertrauenswürdigkeit von KI-Anwendungen hatte in der zurückliegenden Woche durch die Entlassung und anschließende Rückkehr des CEO von OpenAI, Sam Altmann, verstärkte öffentliche Aufmerksamkeit gewonnen. So titelte der Fachnachrichtendienst Wired: „Sam Altman’s Second Coming Sparks New Fears of the AI Apocalypse“ („Sam Altmans zweites Kommen schürt neue Ängste vor der KI-Apokalypse“). Fünf Tage Chaos bei OpenAI hätten Schwächen in der Selbstverwaltung des Unternehmens offenbart, heißt es dort weiter. Das beunruhige Menschen, die glaubten, dass KI ein existenzielles Risiko darstelle.
Der Foundation Model Transparency Index: https://crfm.stanford.edu/fmti
Lesen Sie zum „Foundation Model Transparency Index“ auch den > Beitrag von Leonhard Henke aus der Geschäftsstelle der CDR-Initiative.