Die Gefahr: Echte Fotos könnten als Grundlage für KI-generierte Pornografie dienen (Symbolfoto). Foto: dpa/Sebastian Gollnow

Laut einer Recherche des SWR wird Künstliche Intelligenz zunehmend für Kinder- und Jugendpornografie missbraucht. Die künstlichen Abbildungen sind schon jetzt kaum von echten zu unterscheiden.

Künstliche Intelligenz (KI) wird einem Bericht zufolge zunehmend für Kinder- und Jugendpornografie missbraucht. Neben komplett künstlichen Abbildungen basiert ein Teil des Materials auch auf echten Kinderbildern, wie nach Angaben des Südwestrundfunks (SWR) vom Montag Recherchen des Investigativformats „Vollbild“ ergaben. Teilweise gehen die KI-Bilder dem Bericht zufolge sogar auf echten Missbrauch zurück.

Künstlich generierte pornografische Bilder von Kindern und Jugendlichen werden demnach unter anderem über die Social-Media-Plattform Instagram verbreitet. Einige Accounts, die Bilder von Kindern und Jugendlichen in knapper Unterwäsche, Badebekleidung oder in sexualisierten Posen zeigten, verlinkten zudem auf externe Plattformen, die teilweise auch Abbildungen von explizitem KI-generierten Kindesmissbrauch verbreiteten.

Gefahr, dass echte Fotos als Grundlage für KI dienen

Das Bundeskriminalamt (BKA) erfasst Fälle von KI-generierter Pornografie nicht gesondert, stuft die Gefahr bei Kinder- und Jugendpornografie insgesamt aber als „hoch“ ein. Im Jahr 2022 stiegen die Fallzahlen um 7,4 Prozent bei Kinderpornografie sowie um 32,1 Prozent bei Jugendpornografie im Vergleich zum Vorjahr, wie das BKA auf SWR-Anfrage mitteilte.

Es gebe die Gefahr, dass alltägliche echte Fotos als Grundlage für KI-generierte Pornografie dienen könnten, hieß es. Die künstlichen Abbildungen sind dem BKA zufolge schon jetzt kaum von echten zu unterscheiden, was auch die Ermittlungsarbeit erschwert.

Besitzer von Instagram-Accounts werben mit dem Verkauf von Pornografie

Plattformen wie Instagram reagieren dem Bericht zufolge unzureichend. Die SWR-Redaktion meldete im Zuge der Recherche nach eigenen Angaben mehrere Dutzend Instagram-Accounts, deren Besitzer damit werben, Kinder- und Jugendpornografie zu verkaufen. Nur ein Drittel der Accounts wurden demnach von Instagram innerhalb von 48 Stunden gelöscht.