39.CSR-MAGAZIN CSR_NEWS Digitalwirtschaft Künstliche Intelligenz

„ChatGPT ist keine Faktenmaschine“

Foto: Unsplash+

Der Bildungsausschuss des Deutschen Bundestages diskutierte über Chancen und Risiken künstlicher Intelligenz. [Beitrag zum 39. CSR MAGAZIN]

Von Achim Halfmann

„ChatGPT hat in der kurzen Zeit seit seiner Einführung viele Routinen und Sicherheiten in Frage gestellt. Wir sind dieser Technologie aber nicht ausgeliefert, sondern können uns fragen, wie wir mit ihr umgehen sollten.“ Das Statement von Stefan Albrecht eröffnete eine Expertenanhörung zu den Chancen und Risiken der Künstlichen Intelligenz (KI) am 26. April im Deutschen Bundestag. Zu dem öffentlichen Fachgespräch eingeladen hatte der Bildungsausschuss; Albrecht sprach als Experte des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB).

Nach Einschätzung des TAB-Experten wird „insbesondere in sozialen Medien mit einer Zunahme unerwünschter Beiträge wie Spam, Desinformation oder auch manipulativen Inhalten gerechnet – oder auch einfach solchen Beiträgen, bei denen man nicht genau sagen kann, ob man ihnen trauen kann oder nicht. Die Folgen können Verunsicherung und ein Vertrauensverlust im Blick auf die öffentliche Kommunikation sein.“ Albrecht benannte ebenso Potentiale der KI-Technologie, etwa bei der Auswertung großer Datenmengen im investigativen Journalismus.

Dreifache Täuschung: Gefahren für die Demokratie

Auf die Risiken des KI-Einsatzes in der öffentlichen Kommunikation verwies auch Prof. Judith Simon von der Universität Hamburg. Die KI-Anwendung ChatGPT berge „reale Gefahren für die Demokratie, weil grundlegende Prozesse von Information und Kommunikation einfach, schnell und nachhaltig gestört werden können.“

Simon sprach über das Problem der dreifachen Täuschung: „Erstens geht es um die Gefahr, dass Nutzer im Unklaren gelassen werden, dass sie mit einer Maschine und nicht einem Menschen interagieren. Zweitens besteht das Problem der Täuschung über die Fähigkeiten der Software, denn auch wenn diese Systeme über kein Bewusstsein oder Verständnis verfügen, so können sie demjenigen so erscheinen, der mit ihnen interagiert“, so die Wissenschaftlerin. Und drittens bestehe die Gefahr täuschender Resultate, etwa wissenschaftlicher Publikationen oder Deepfakes. Simon sagte weiter, zwar seien „Propaganda und Manipulation keine neuen Themen, aber die Qualität und vor allem die Einfachheit und Voraussetzungslosigkeit von Seiten der Nutzerinnen und Nutzer und die Geschwindigkeit, mit der Texte und Bilder und Videos erstellt werden können, eröffnen eine völlig neue Dimension des Missbrauchs, gerade weil wir emotional auf diese Materialien reagieren.“

Aus dieser Perspektive sei eine gesetzlich vorgeschriebene Kennzeichnungspflicht für KI-Produkte eine naheliegende Lösung, diese werde aber nicht ausreichen. Zu fordern seien ebenso offene KI-Systeme. Simon weiter: „Hier muss genau geprüft werden, welche Form von Offenheit die meisten Vorteile und die wenigsten Nachteile mit sich bringt.“

Microtargeting in politischen Kampagnen verbieten

Angesichts der Möglichkeit, mit KI gezielt einzelne Bürger im Rahmen politischer Kampagnen anzusprechen, forderte Dirk Engling vom Chaos Computer Club ein Verbot eines solchen Vorgehens. „Dieses Microtargeting kann die gemeinsame Wissensbasis unterspülen und faktenbasierten politischen Diskurs komplett unterminieren“, sagte Engling.

Quellen müssten nachvollziehbar bleiben, um Widerspruch zu ermöglichen. „Wir müssen Modelle fordern, die solche Nachvollziehbarkeit, Dokumentierbarkeit und Reproduzierbarkeit überhaupt erst ermöglichen und verdeckte Anwendungen verbieten“, so Engling.

Es gehe zudem um Kompetenzvermittlung. Engling: „Wir müssen den Nachholbedarf im Bereich der digitalen Bildung adressieren, um dem Bürger Werkzeuge an die Hand zu geben, mit den Modellen umzugehen.“

Mit KI-Anwendungen erhalte die Automatisierung „Einzug in Berufsgruppen, die bisher für andere Automatisierungsbetroffene nur ein Schulterzucken übrighatten“, so Engling weiter.

Enormes wirtschaftliches Potential

„Einen chancenorientierten Blick auf die Technologie und eine verstärkte Nutzung“ forderte Tina Klüwer vom KI Bundesverband. „Denn aktuell ist die Nutzung von künstlicher Intelligenz in Deutschland immer noch ziemlich gering.“ Derzeit fließe die Wertschöpfung zu wenigen Anbietern großer KI-Modelle. Klüwer weiter: „KI wird in den nächsten Jahren ein enormes wirtschaftliches Potential entfalten.“

Voraussetzung für die weitere Erschließung sei ein angstfreier Umgang mit der neuen Technologie; das sei eine große Aufgabe für Bildung und Weiterbildung, so Klüwer.

Die Vertreterin des KI Bundesverbandes verwies auch auf Risiken: „ChatGPT ist keine Faktenmaschine, sie macht Fehler, sie basiert auf menschlichen Daten, die voller Vorurteile und sonst auch widersprüchlichen Meinungen sind.“ Zudem könnten die Sprachmodelle zur Erstellung von Fälschungen genutzt werden. „Eine wohldosierte und geschickte Regulierung kann hier helfen“. Klüwer dazu: „Eine algorithmische Regulierung macht daher aus meiner Sicht hier gar keinen Sinn, sondern wir müssen schauen: Den Unterschied machen Daten und Anwendungsfälle.“

Nicht nur analysieren, sondern generieren

Während mit bisherigen digitalen Technologien Daten analysiert wurden, könnten mit KI-Modellen Daten generiert werden: Videos, Bilder und Texte. Darauf verwies Rasmus Rothe, ebenfalls vom KI Bundesverband. Dies werde eine hohe Wertschöpfung ermöglichen und Berufe wie Anwälte, Berater oder Programmierer komplett verändern. Rothe weiter: „Wir müssen jetzt einfach sicherstellen, dass wir diese Wertschöpfung auch hier in Deutschland vorantreiben.“ Dazu gelte es in die Forschung und in Startups zu investieren und ebenso die Großindustrie zu unterstützen.

Menschlichen Verstand entschlüsseln

Auf die enormen Chancen von KI für die Forschung verwies Prof. Kristian Kersting von der TU Darmstadt. „Der Mensch war schon immer von sich selbst fasziniert und unsere Vernunft zu entschlüsseln wäre wahrscheinlich von der Tragweite nicht minder wichtig wie das Verstehen des Urknalls oder die Entschlüsselung des Erbgutes. ChatGPT und ähnliche Modelle lassen hoffen, dass das vielleicht doch möglich ist.“

Damit Europa ganz vorne mit dabei sein könne, „brauchen wir ein leistungsfähiges KI-Ökosystem“, so Kerting. Verhindern, dass KI-Systeme Menschen schädigten, und unsere Vorstellungen und Werte umsetzen könnten wir nur, „wenn wir eben offen mitspielen können, wenn wir eine KI-Kreislaufwirtschaft ‚Made in Europe‘ irgendwie hinbekommen“, sagte der Darmstädter Wissenschaftler.

Zu schnell für das deutsche Bildungssystem?

Die Schnelligkeit bei der Entwicklung der KI-Technologien ist eine enorme Herausforderung für das deutsche Bildungssystem. Darauf verwies Prof. Doris Weßels von der Fachhochschule Kiel. Die Dynamik sei „eine andere als die, die wir zuvor erlebt haben. Der disruptive Impact, den wir hier erleben durch generative KI-Systeme – und das zeigt ChatGPT sehr deutlich – der ist deutlich gravierender.“ Weßels forderte eine zentral gebildete Taskforce für den Bildungsbereich, die Schnelligkeit und Schlagkraft erzielten könne. „Ich erlebe immer noch, auch in dieser Woche, Lehrende an Hochschulen in Deutschland, für die das Thema neu erscheint.“

Weßels verwies auf den rechtsfreien Raum beim Einsatz der KI-Systeme und ungeklärte Fragen im Blick auf das Urheber-, Medien- und Jugendschutzrecht sowie die europäische Datenschutzgrundverordnung (DSGVO). „Wir brauchen natürlich Tools, Techniken, Sprachmodelle, die DSGVO-konform sind, die wir guten Gewissens in der Bildung einsetzen und empfehlen können“, so die Hochschullehrerin.

Wie Weßels weiter sagte, brauche es „im ersten Schritt eine Aufklärung, um eine Diskursfähigkeit überhaupt zu erzielen in unserer Gesellschaft.“ Dazu zeigte sich die Wissenschaftlerin skeptisch: „Diesen ersten Schritt, den sehe ich tragischerweise hier noch nicht sichergestellt.“

Creative Commons Lizenzvertrag
Dieser Text (ohne Bilder) ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.


Werden Sie Mitglied im UVG e.V. und gestalten Sie den Nachhaltigkeitsdialog mit. > Die Infos
DSGVO Cookie Consent mit Real Cookie Banner