Hamburg (csr-news) – Tausende Bilder von Kindern in sexualisierten Posen oder knapper Unterwäsche lassen sich unter speziellen Hashtags auf Instagram finden. Diese Bilder sind mithilfe einer KI generiert, zeigen Recherchen des SWR-Investigativformats Vollbild. Auf einigen Accounts mit solchen Bildern werden Links zu Plattformen angeboten, auf denen sich teilweise Bilder von explizitem sexuellem Kindesmissbrauch finden – ebenfalls mit einer KI generiert.
Hergestellt werden die kinder- und jugendpornografischen Abbildungen vor allem mit dem Open Source-Programm Stable Diffusion, so der Bericht. Anders als bei den konkurrierenden KI-Programmen DALL-E und Midjourney fehlen dieser Software-Sicherheitsmaßnahmen gegen die Erstellung von Nacktbildern.
Plattformen sind zur umgehenden Löschung kinderpornografischer Inhalte verpflichtet, kommen dem allerdings nur unzureichend nach. „Nur ein Drittel der Accounts wurden von Instagram innerhalb von 48 Stunden gelöscht“, berichtet der Sender. „Bei den anderen konnte zunächst kein Verstoß gegen die Community-Richtlinien festgestellt werden. Erst auf nochmaligen Hinweis wurden auch die übrigen Accounts gelöscht.“
In dem Beitrag kommt der Direktor des Instituts für Sexualwissenschaften und Sexualmedizin an der Charité in Berlin, Professor Klaus Michael Beier, zu Wort. Nach seiner Einschätzung führen KI-generierte Bilder ebenso wie echte Kinderpornografie zu einer Wahrnehmungsverzerrung und täuschten pädophilen Menschen vor, sexuelle Kontakte zwischen Kindern und Erwachsenen seien möglich und würden von Kindern sogar begehrt.
Der Beitrag seit heute > hier in der ARD-Mediathek verfügbar.
Eine Textfassung bietet > hier die Tagesschau
CSR NEWS-Umfrage zum Thema
[yop_poll id=”1″]Service-Teil
mit einer Studie zum Thema sowie relevanten NGOs und Kampagnen
Der weitere Inhalt ist eingeloggten CSR NEWS-Communitymitgliedern vorbehalten.