Deepfake Pornografien fälschen Gesichter realer Menschen für sexuelle Inhalte. Kann man hier eigentlich noch von Porno sprechen?

Das Internet ist mittlerweile voll mit Videos, die KI-generiert sind. Sei es ein Podcast der von Babys moderiert wird, Instagram-Reels oder TikToks, bei denen man auf den ersten Blick nicht erkennt, ob sie echt sind oder nicht. Ernst wird es auch, wenn plötzlich ein Porno mit deinem Gesicht auftaucht und jemand fragt, ob das echt sei. Für viele mag das unvorstellbar klingen – bis sie selbst betroffen sind.
Was sind Deepfakes?
Teilt man das Wort Deepfake auf, setzt es sich aus „Deep“ und „Fake“ zusammen. „Deep“ verweist auf den Einsatz tiefer neuronaler Netze (englisch: deep neural networks), einer Methode der künstlichen Intelligenz im Bereich des Deep Learning. Das Wort „Fake“ bedeutet auf Englisch „gefälscht“. Es handelt sich also um künstlich erzeugte oder verfälschte Inhalte (meist Bilder, Videos oder Audios), die mithilfe von KI-Methoden erstellt werden, sodass sie echt wirken, obwohl sie es nicht sind. Dabei können Deepfakes einerseits missbräuchlich genutzt werden, wie für Fake News. Sie können andererseits auch kreativ genutzt werden, wie zum Beispiel in Filmproduktionen oder auch historischen Rekonstruktionen. Die Fernsehsendung Galileo auf ProSieben nutzt zum Beispiel schon KI-generierte Erklärvideos.
Deepfakes Pornografien
HateAid schreibt auf ihrer Website, dass vor allem immer häufiger Deepfakes genutzt werden, um vor allem Frauen zu demütigen. Auf der re:publica Hamburg x Reeperbahn Festival fand dieses Jahr ein aufschlussreiches Gespräch mit Patrizia Schlosser, Madita Oeming und Josephine Ballon statt, in dem genau dieses Thema behandelt wurde. Die Erkenntnis daraus: Sobald man als Frau oder weiblich gelesene Person sichtbar im Internet ist oder gar eine öffentliche Person, hat man kaum eine Chance, sich davor zu schützen. Es existieren spezielle Plattformen, die einzig und allein für die Erstellung solcher Deepfake Pornos entwickelt wurden. Während die meist männlichen Täter durch die Anonymität des Netzes vermeintlich sicher agieren, sind sie nicht unangreifbar: Sie machen Fehler. Auf der re:publica wurde in dem Gespräch über Deepfake Pornografien klar, dass das Gefühl absoluter Sicherheit oft dazu führt, dass sie unvorsichtiger werden und genau dort setzt die Möglichkeit an, sie zu enttarnen.
Eine hoffnungsvolle Nachricht: Eine der größten Webseiten, über die Deepfake Pornos verbreitet wurden, ist offline gegangen, so die Frankfurter Allgemeine. „Mr. Deepfakes“ war eine der Plattformen, auf denen man mit Hilfe von künstlicher Intelligenz Gesichter von Menschen, vor allem eben Frauen, auf die Körper von Pornodarsteller*innen setzen konnte.
Das große „Warum?“
Die Frage, die sich hier stellt ist: Warum werden solche Deepfake Pornos überhaupt erstellt? Auch das war Thema in dem Gespräch zwischen Patrizia Schlosser, Madita Oeming und Josephine Ballon. Die Antwort: Die Abwertung von anderen Menschen soll in diesem Moment das eigene Leben aufwerten. Es gibt jedoch auch andere Motive für die Erstellung von Deepfake-Pornos. Eine Frau* kann gezielt von jemandem geschädigt werden, um ihren Ruf zu diskreditieren. Zudem können Täter*innen aus der Erstellung und Verbreitung von Deepfake-Pornos einen Lustgewinn ziehen – durch das Gefühl von Macht, Kontrolle und der sexuellen Objektivierung, das sie dadurch erlangen. Betroffen sein können sowohl Personen aus dem privaten Umfeld als auch Personen des öffentlichen Lebens.
Man kann davon ausgehen, dass die Erstellung von Deep Fakes mit der Zeit immer einfacher werden. Das liegt vor allem an dem Zuwachs an neuen Anwendungen, die so einfach zu handhaben sind, dass jeder sie theoretisch nutzen könnte. Da reichen auch schon Bilder auf der Seite des Arbeitsgebers oder aus Presseartikeln aus.
Eine informative Reportage über Deepfake Pornos gibt es beim ZDF. Zusammen mit Collien Ulmen-Fernandes wird untersucht, wer Täter*innen sind und welches Geschäft sich dahinter verbirgt.
Sind es wirklich „Pornos“?
In dem Gespräch auf der re:publica in Hamburg ging es auch darum, ob es überhaupt richtig ist, diese KI-generierten Videos als Deepfake Pornos zu bezeichnen. Ist es wirklich ein Porno, wenn es sich um Gewalt gegen Frauen und FLINTA* Personen handelt? Madita Oeming stellte dazu klar: Pornos werden einvernehmlich gedreht und sollen Menschen erregen. Deep Fake Pornos werden erstellt, um Menschen zu demütigen. Alles, was nicht mit ausdrücklicher Erlaubnis veröffentlich wird, ist digitale und bildbasierte Gewalt. Außerdem werden die Körper der Pornodarsteller*innen einfach genutzt, ohne dass diese Personen um Erlaubnis gefragt werden. Das bedeutet, dass es mehrere Betroffene gibt. Konsens-basierte Pornos können durch die Existenz von Deepfake Pornos negativ angesehen werden. Hinzukommt, dass der weibliche Körper herabgewürdigt wird. Ein Grund dafür: Unsere patriarchale Gesellschaft, in der tendenziell weibliche Menschen in ihrer Sexualität abgewertet und männliche aufgewertet werden.
In dem Interview von HateAid mit ANNANACKT wird der Begriff „bildbasierter sexueller Missbrauch“ anstatt Deepfake Porno genannt. So werden legale und einvernehmliche Pornos nicht mit Deepfake Pornos in Verbindung gesetzt.
Was kann man tun, wenn man betroffen ist?
In Deutschland ist die Rechtslage lückenhaft. Menschen, die solche Deepfake Pornos erstellen, bleiben oft unbestraft. Die Tagesschau schreibt, dass es im Jahr 2018 circa 14.000 Deepfake Pornos im Internet zu finden waren. Heute kann man keine genaue Anzahl mehr nennen. Es handelt sich vermutlich um Milliarden an Deepfakes, die aktuell im Internet kursieren. Wenn man selber betroffen ist und die erstellten Videos melden möchte, findet man auf den Webseiten nicht unbedingt ein Impressum oder Ansprechpartner*innen. Ein weiterer wichtiger Punkt, der auf der re:publica besprochen wurde, ist die Angst der Betroffenen. Personen die Opfer von Deep Fakes werden, versuchen sich aus Selbstschutz von der Situation zu distanzieren, es zu verdrängen und nicht zur Anzeige zu bringen, aus Furcht nicht ernstgenommen zu werden. Doch das sei genau der Fehler, denn je länger man es ignoriert, desto schneller verbreitet es sich.
Man kann zur Polizei gehen und eine Anzeige erstatten. Dadurch verschwinden die Bilder oder Videos jedoch nicht, da die Polizei lediglich den Sachverhalt aufnimmt, aber nicht dafür zuständig ist, das Material aus dem Internet zu entfernen. Man selber kann versuchen, das KI-Material aus dem Internet zu entfernen. Bei Google gibt es dafür ein Meldeformular.
Des Weiteren kann man Unterstützung durch folgende Organisationen erhalten:
Rechtslage
Das Teilen von Deepfake Pornos ist in Großbritannien strafbar, jedoch nicht die Erstellung. Das soll sich jetzt ändern, laut WDR. Australien hat den Zugang zu Pornografien bereits eingestellt und Deepfake-Pornos verboten. In Deutschland ist die Erstellung und Verbreitung von Deepfake Pornos explizit nicht strafbar. In Einzelfällen können folgende Vorschriften greifen:
- § 185 StGB Beleidigung: Bezieht sich auf Beleidigungen. Damit er greift, muss nachgewiesen werden, dass jemand in seiner Ehre verletzt wurde. Bisher lag der Fokus vor allem auf Worten, weniger auf Bildern.
- § 201a Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen: Schützt den höchstpersönlichen Lebensbereich, also zum Beispiel Fotos, die heimlich in der eigenen Wohnung gemacht werden. Für frei zugängliche Bilder im Internet gilt er meist nicht.
- § 22 KUG Gesetz betreffend das Urheberrecht an Werken der bildenden Künste und der Photographie: Regelt das Recht am eigenen Bild – also, dass Fotos nur mit Zustimmung veröffentlicht werden dürfen. Bei Deepfakes ist das schwierig, weil es sich um künstlich erzeugte Bilder handelt, nicht um echte Fotos.
Aktuell gibt es einen Gesetzesantrag des Freistaates Bayern, der einen Gesetzesentwurf zum strafrechtlichen Schutz von Persönlichkeitsrechten vor Deepfakes beinhaltet. Es handelt sich dabei um eine Ergänzung zu § 201a der sich mit der Verletzung des höchstpersönlichen Lebensbereichs sowie Persönlichkeitsrechten durch Bildaufnahmen auseinandersetzt. Die Änderung des Strafgesetzbuches würde laut Entwurf wie folgt lauten: „§ 201b Verletzung von Persönlichkeitsrechten durch digitale Fälschung“. Auf Anfrage von deutschlandfunk schreibt das Bundesjustizministerium, dass man derzeit prüfe, wie man den Entwurf am besten umsetzen kann.
Zudem gibt es inzwischen technische Möglichkeiten, eigene Bilder vor unerlaubter Nutzung durch KI-Modelle zu schützen. Programme wie Nightshade oder Glaze wurden entwickelt, um Künstler:innen zu unterstützen. Sie verschlüsseln oder verändern Bilder so, dass KI-Systeme sie nicht zum Trainieren oder zum Kopieren des Stils verwenden können.
Diese Schutztools lassen sich auch für eigene Fotos einsetzen.
Wie kann ich mich selbst bestmöglich schützen?
Auf der re:publica 2025 in Hamburg wurde von Patrizia Schlosser der Rat gegeben, möglichst wenig persönliche Inhalte ins Internet zu stellen. Jemand, der Inhalte von Online-Plattformen wie Instagram oder TikTok konsumiert, aber selbst nicht gesehen werden will, kann auf einiges achten. Zum Beispiel sollte man keine privaten Bilder in der Öffentlichkeit posten und ein Profilbild nutzen, auf dem man kaum zu erkennen ist. Weitere Tipps zum Schutz der eigenen Identität findet ihr auf der Website von HateAid.
Erstrebenswert ist, dass das Bedürfnis, Inhalte öffentlich zu teilen, nicht durch Täter*innen und deren Demütigungen eingeschränkt wird. Der Ansatz, wenig zu posten, ist nicht für alle der richtige Weg, denn genau das wollen die Täter*innen erreichen: dass Betroffene sich zurückziehen. Stattdessen sollte die Gesellschaft den weiblichen Körper nicht länger mit Scham belegen und Frauen sollten nicht für ihre Sichtbarkeit im Netz bestraft werden. Es ist wichtig, dass sich die Strukturen auch in Deutschland ändern und Gesetze an die schnellen Änderungen in unserer Gesellschaft angepasst werden.
Petition #NotYourPorn
Gemeinsam mit HateAid, change.org und Am I In Porn hat ANNA NACKT die Petition #NotYourPorn gestartet. Sie fordert, dass der Missbrauch eigener Bilder auf Pornoplattformen strafbar wird. Dafür sollen 75.000 Unterschriften gesammelt werden. Wenn auch du unterschreiben möchtest, um deinen Teil beizutragen folge einfach diesem Link.
Kathrin M.



Schreibe einen Kommentar