41.CSR-MAGAZIN Corporate Political Responsibility CSR_NEWS Social Media

Olaf Scholz verbietet Parteien – Joe Biden schickt Wähler nach Hause

Foto: Jigar Panchal auf Unsplash+

KI und der Wahlkampf

Berlin (csr-news) – Künstliche Intelligenz (KI) ermöglicht es, sehr einfach realistisch wirkende Inhalte zu erstellen. Das könnte im Super-Wahljahr 2024 für Manipulationen missbraucht werden – im Ausland geschieht das bereits. Und deutsche Parteien planen offiziell, im Wahlkampf KI zu nutzen. Branchenorgane und -verbände haben zwar Richtlinien für eine Nutzung erlassen. Dennoch sind die Social Media-Plattformen gefragt, Desinformation zu unterbinden. Und wir Nutzer müssen lernen, Inhalte richtig einzuschätzen.

Von Daniel Silberhorn

Der Sprecher von Olaf Scholz (SPD) war nicht amüsiert. Im November 2023 war ein Video aufgetaucht, in dem der Bundeskanzler scheinbar ein Verbot der AfD begründete. Nur: Das Video war gefälscht, mit Hilfe von künstlicher Intelligenz (KI), und Teil einer Satireaktion der Gruppierung Zentrum für politische Schönheit (ZPS). Hinter dem ZPS steht eine Künstlergruppe, die seit Jahren immer wieder durch kreative und provokante Polit-Aktionen auffällt. 2017 beispielsweise hatte das ZPS auf dem Nachbargrundstück des AfD-Politikers Björn Höcke ein Modell des Berliner Holocaust-Mahnmals errichtet, nachdem dieser das Original als „Denkmal der Schande“ bezeichnet hatte. Ein PR-Coup.

Das Scholz-Video sah man indes eher kritisch: „Wir nehmen das überhaupt nicht auf die leichte Schulter”, sagte Regierungssprecher Steffen Hebestreit im vergangenen Jahr gegenüber Medienvertretern. Derartige Fälschungen „schüren Verunsicherung und sind manipulativ”. Während die Manipulation in diesem Fall leicht zu erkennen war, wirft die Aktion mit Blick auf deutsche Politik drängend die Frage auf: Welchen Bildern, Videos und Audios können wir noch trauen?

Die Leistungsfähigkeit der so genannten generativen Künstlichen Intelligenz (KI) steigt weiter, seit sie im November 2022 mit ChatGPT auf die Bühne des öffentlichen Bewusstseins getreten ist. Generative KI ist eine Art von künstlicher Intelligenz, die verschiedene Arten von Inhalten kreieren kann. Dazu zählen etwa Systeme, die natürlich klingende Texte erstellen können, wie ChatGPT oder Bard. Oder solche, die auf Basis von wenigen Texteingaben detaillierte Bilder, Videos oder Ton erzeugen.

Echt und falsch schwer zu unterscheiden

Daniel Silberhorn

Überall im Netz finden sich zahlreiche kostenlose und kostenpflichtige KI-Angebote, die für jeden zugänglich sind. Microsoft, Besitzer von 49% der Anteile an ChatGPT-Entwickler OpenAI, puscht die Technologie zudem massiv und integriert sie in seine Software. Immer mehr Menschen erhalten so einfachen Zugang zu KI-Anwendungen. Und Mitte Februar hat OpenAI mit Sora den vermutlich nächsten Coup gelandet: Das neue KI-Modell generiert aufwändige Videos aus Texteingaben und stellt menschliche Bewegungsabläufe und Mimik dabei wirklichkeitsgetreu nach.

Durch so entstehende künstlich generierte Inhalte wird es immer schwerer, zwischen echt und falsch zu unterscheiden. Einige Beobachter sorgen sich daher mit Blick auf das Super-Wahljahr 2024 um den politischen Diskurs. Was, wenn KI hierzulande bewusst eingesetzt wird, um die öffentliche Meinung zu beeinflussen – bis hin zur Manipulation, die die Realität verfälscht? Und: Wie oft geschieht das bereits?

In anderen Ländern lassen sich in jüngster Zeit einige beunruhigende Beispiele finden.

In der Slowakei tauchte kurz vor der Parlamentswahl im September 2023 eine Audiodatei auf Facebook auf, in der ein Kandidat angeblich eine Wahlmanipulation ausheckte. Schnell war klar, dass es sich um eine Fälschung von unbekannt handelte. Dennoch verbreitete sich das Deepfake auf Social Media rasant. ‚Deepfake‘ bezeichnet täuschend echt wirkende, manipulierte Bild-, Audio- oder Videoaufnahmen.

In Argentinien kam im Oktober 2023 ein Deepfake-Video direkt aus einem Wahlkampfbüro. Der spätere Wahlsieger Milei sprach darin über Organhandel. Die Quelle: Sein politischer Gegner. Zwar war das Video als KI-generiert gekennzeichnet, dennoch wurde sein Einsatz als Tabubruch im Wahlkampf empfunden.

Manipulation in den USA und Deutschland

In den USA klingelte im Januar 2024 bei Anhängern der Demokraten in New Hampshire das Telefon. Eine Audio-Nachricht forderte sie auf, nicht an den Vorwahlen für die US-Präsidentschaft teilzunehmen. Das Argument: Die Bürgerinnen und Bürger sollten ihre Stimme für die Wahl im November „aufsparen“.

„Wenn Sie an diesem Dienstag Ihre Stimme abgeben, hilft das nur den Republikanern, Donald Trump wiederzuwählen”, hieß es in der Aufzeichnung. Das Perfide: Die Stimme klang täuschend echt wie US-Präsident Joe Biden, so die Nachrichtenagentur AP. Außerdem habe der Text typische Formulierungen des Präsidenten verwendet. Ein klarer Versuch der Täuschung, möglich geworden durch Technologie.

Steht uns in Deutschland ähnliches bevor im Super-Wahljahr 2024? Und wie gehen wir damit um?

Tatsächlich wäre es naiv zu denken, dass ausgerechnet die größte Volkswirtschaft Europas ausgespart würde. Und das wird sie bereits jetzt nicht. Medienberichten zufolge hat das deutsche Außenministerium erst Ende Januar 2024 eine prorussische Desinformationskampagne auf der Plattform X (vormals Twitter) aufgedeckt. Mehr als 50.000 gefälschte Konten hatten mit mehr als einer Million deutschsprachiger Tweets Stimmung gegen die Regierung gemacht – möglicherweise KI-unterstützt.

Bereits im Juni 2022 hatte die damalige Regierende Bürgermeisterin von Berlin, Franziska Giffey (SPD), ein Video-Telefonat mit dem Bürgermeister von Kiew, Vitali Klitschko, abgebrochen. Laut Medienberichten hatten sie die Fragen ihres virtuellen Gegenübers stutzig gemacht – obwohl Gestik und Mimik mit der von Klitschko übereingestimmt habe. Ein Fake. Die Staatsanwaltschaft ermittelt.

Super-Wahljahr: Viel steht auf dem Spiel

Es geht im Jahr 2024 um viel: Erst am 9. Juni die Europa-Wahl, bei der erstmals Bürgerinnen und Bürger schon ab 16 Jahren abstimmen dürfen. Und im Herbst die Landtagswahlen in Sachsen, Thüringen, und Brandenburg. Wird sich die politische Landschaft verändern? Die AfD, von Verfassungsschützern in sechs Bundesländern als rechtsextremer Verdachtsfall eingestuft sowie in Sachsen, Sachsen-Anhalt und Thüringen als „gesichert rechtsextreme Bestrebung“ bewertet, sieht sich im Aufwind der Demoskopen.

Angesichts der Empörung über geheime Pläne, Mitbürger mit Migrationshintergrund massenhaft auszuweisen, und den folgenden Demonstrationen haben allerdings nun demokratische Parteien Zulauf: „Wir erleben den stärksten Jahresstart unserer Geschichte“, schreiben BÜNDNIS90/DIE GRÜNEN an ihre Mitglieder. „Mehr als 8.000 Menschen haben sich im Januar und Februar 2024 bereits entschieden, Mitglied bei uns zu werden. Damit sind wir über 130.000 Bündnisgrüne, so viele wie noch nie!“

Doch wie werden die kommenden Wahlkämpfe geführt werden? Und als Teilaspekt davon: Welche Rolle wird künstliche Intelligenz spielen? Wird KI beispielsweise in der Online-Kommunikation von den deutschen Parteien eingesetzt? Und falls ja, wie deutlich wird diese Nutzung erkennbar sein?

Parteien nutzen künstliche Intelligenz

Eine Anfrage bei allen aktuell im deutschen Bundestag vertretenen Parteien bringt nur wenig Erhellung. Nur fünf der insgesamt neun Parteien reagieren selbst nach weiterer Nachfrage auf eine E-Mail, und nur zwei geben bis Redaktionsschluss Auskunft zur Fragestellung: FDP und BÜNDNIS90/DIE GRÜNEN.

Beide Parteien sehen im Einsatz von KI klare Möglichkeiten: „Künstliche Intelligenz bietet Parteien insbesondere im Bereich der generierenden KI viele Chancen für eine gute und bürgernahe politische Kommunikation“, schreiben die Freien Demokraten in einer E-Mail. Und BÜNDNIS90/DIE GRÜNEN nutzen nach eigener Aussage bereits „punktuell“ KI-Tools im Bereich der Datenanalyse und zur Erstellung von Social Media-Content – um die „Präsenz zu optimieren und die Interaktion“ zu verbessern.

Beide Parteien wollen dabei mit Blick auf den kommenden Wahlkampf transparent sein: „Da unsere Arbeit ohne das Vertrauen der Bürgerinnen und Bürger in die Integrität der Kommunikation nicht möglich ist, verpflichten wir uns beim Einsatz dieser Werkzeuge zu absoluter Transparenz“, so die FDP. Auch die Grünen sind verantwortungsbewusst: „Die Inhalte werden entsprechend gekennzeichnet.“

Das Bündnis Sarah Wagenknecht (BSW) meldete zurück, die Wahlkampfstrategie sei noch in Planung, daher könne man „noch nicht definitiv sagen, ob KI eingesetzt werden wird oder nicht.“

Das Potenzial für Manipulation sorgt auch in Branchenverbänden und Gremien für Diskussionsstoff.

Transparenz: Verbände erlassen Richtlinien

International hat beispielsweise die International Public Relations Association (IPRA) im Oktober 2023 eine KI-Richtlinie für professionelle Kommunikatoren veröffentlicht. Dem weltweiten Verband von PR-Profis geht es vor allem um generative KI. Zentrale Punkte sind die Kennzeichnung von mit Hilfe von KI erstellten Inhalten und die generelle Verpflichtung, keine irreführende Information zu verbreiten.

In Deutschland hat der Deutsche Rat für Public Relations (DRPR) im November 2023 eine überarbeitete Richtlinie zum Einsatz von KI veröffentlicht. Der DRPR ist ein Organ der freiwilligen Selbstkontrolle und wird von der Deutschen Public Relations Gesellschaft (DPRG), der Gesellschaft Public Relations Agenturen (GPRA) sowie dem Bundesverband der Kommunikatoren (BdKOM) getragen.

Die DRPR-Richtlinie verlangt, dass sichtbar sein muss, inwieweit Inhalte KI-generiert sind – und wer für sie verantwortlich ist. Ziel des Rates ist es, eine Orientierungshilfe und „gute Grundlage für den ethischen Umgang mit KI“ zu bieten. Eine Kennzeichnung ist insbesondere dann verpflichtend, wenn „der Eindruck entstehen kann, dass es sich hier um die Wiedergabe bzw. Abbildung von Realität handelt.“

Deepfakes mit dem Ziel der Manipulation öffentlicher Meinung sind gemäß solchen Kodizes also nicht statthaft. Viele seriöse KI-Produkte blockieren zudem gewisse Eingaben. So ist es etwa im Chat von Microsoft’s Suchmaschine Bing – der mit der Technologie von OpenAI verbunden ist – nicht möglich, ein Bild erstellen zu lassen, in dem Olaf Scholz einem bekannten Politiker der AfD die Hand schüttelt.

Allerdings: Die Angebote schießen geradezu aus dem Boden, eine riesige Bandbreite unterschiedlichster KI-Anbieter ist verfügbar. Sanktionsmöglichkeiten gibt es kaum. Und wer KI missbräuchlich verwenden will, wird sich kaum an Richtlinien gebunden fühlen. Welche Möglichkeiten bleiben dann?

Manipulative Desinformation bekämpfen

CORRECTIV, das sich als gemeinwohlorientiertes Medienhaus versteht und die Demokratie stärken will, ist spätestens seit Januar 2024 vielen in Deutschland ein Begriff. Dessen Veröffentlichungen über einen „Geheimplan gegen Deutschland“ waren es, die Hunderttausende auf die Straße gehen und selbst sonst eher zurückhaltende Unternehmen sich klar für Demokratie, Offenheit und Vielfalt positionieren ließen.

Neben aktuellen Recherchen und Hintergründen bietet die Webseite von CORRECTIV unter anderem eine Liste von einfach umsetzbaren Tipps, wie man als Nutzer Fake News erkennen kann. Dabei geht es um so genannte Desinformation, also eine falsche Information, die absichtlich verbreitet wird, um in die Irre zu führen oder ein bestimmtes Ziel zu erreichen. Die Herausforderung ist, gerade bei emotionalen Themen nicht unmittelbar zu reagieren, sondern die Information auf Plausibilität und Echtheit zu prüfen.

Dazu gehört: Anzusehen, wer die entsprechende Information verbreitet – im Profil, Impressum oder über frühere Postings. Wenn Hinweise auf die Urheberschaft fehlen oder diese eher obskur wirken, ist Vorsicht geboten. Auch der Stil der Inhalte lässt Rückschlüsse zu: Emotionalisierte, reißerische Texte oder Bilder sollen Reaktionen hervorrufen. Bei Desinformation fehlen oft seriöse Quellenangaben. Eine Recherche, ob die Aussagen auch in anderen Quellen zu finden sind, oder so genannte Faktenchecker geben hier Sicherheit. Neben dem Angebot von CORRECTIV gibt es mehrere weitere Faktenchecker.

Allerdings: Nicht nur die Nutzer, auch die Betreiber von Social Media-Plattformen haben eine Verantwortung. Sie müssen aktiv manipulierende Fälschungen aufdecken und konsequent entfernen und ahnden. Der DRPR sieht hier ebenfalls eine Pflicht. Zusätzlich müssen die Parteien mehr als nur ihre eigenen, nach ethischen Richtlinien – und das heißt insbesondere transparent gestalteten – Aktivitäten im Blick behalten. Auch wie ihre Unterstützer den digitalen Diskurs führen, dürfen sie nicht ignorieren.

Im Super-Wahljahr 2024 gibt es keine Neutralität.

Daniel Silberhorn
ist Senior Advisor ESG & Sustainability Transformation bei SLR Consulting in Frankfurt am Main und Dozent für Global Communications an der Universität Erfurt

Einige Faktenchecker:

Creative Commons Lizenzvertrag
Dieser Text (ohne Bilder) ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.


Werden Sie Mitglied im UVG e.V. und gestalten Sie den Nachhaltigkeitsdialog mit. > Die Infos
DSGVO Cookie Consent mit Real Cookie Banner