Austin, Texas (csr-news) – Sexuell explizite Bilder der Sängerin Taylor Swift gingen auf dem Kurznachrichtendienst X, vormals Twitter, viral. Wie 404 Media berichtet, soll eines der am weitesten verbreiteten Beispiele 45 Millionen Aufrufe und 24.000 Retweets erreicht haben und 17 Stunden lang zu sehen gewesen sein, bevor es entfernt wurde. Zumindest einige der Bilder wurden danach mit dem kostenlosen Text-zu-Bild-KI-Generator von Microsoft erstellt. Aufgetauuht waren einige der Bilder zuvor auf den Plattformen 4chan und in einer Telegram-Gruppe sowie auf Websites, die nicht-einvernehmlich erstellte KI-generierte sexuelle Bildern von Frauen publizieren, so 404 Media weiter.
Laut FAZ ist X Analysten zufolge aufgrund von Richtlinien, die laxer seien als bei den Meta-Angeboten Instagram und Facebook, eine der Plattformen mit den meisten pornografischen Inhalten weltweit. Die Zeitung zitiert die demokratische Kongressabgeordnete Yvette Clarke aus New York: „Seit Jahren werden Frauen ohne ihre Zustimmung zur Zielscheibe von Deepfakes. Und mit den Fortschritten bei der Künstlichen Intelligenz wird es einfacher und günstiger, Deepfakes zu erstellen“.
Extremistische Online-Gemeinschaften hätten es sich zu Nutze gemacht, dass Elon Musk mit der Übernahme von Twitter 2022 das Vertrauens- und Sicherheitsteam „entkernt“ habe. Nach einem Bericht von The Verge hat X inzwischen angekündigt, 100 Vollzeitmitarbeiter für ein neues Vertrauens- und Sicherheitsbüro in Austin, Texas, einzustellen. Für den 31. Januar ist eine Anhörung von CEO Linda Yaccarino vor dem Justizausschuss des US-Senats über den Umgang von X mit der Moderation von sexueller Ausbeutung von Kindern angesetzt.