Schrift:
Ansicht Home:
Netzwelt

"Deepfakes"

Firmen gehen gegen gefälschte Promi-Pornos vor

Die Tech-Branche streitet über Videos, in denen Gesichter von Stars auf die Köpfe von Pornodarstellern montiert werden. Einige Plattformen wollen die Clips jetzt loswerden.

Getty Images

Mann vor Smartphone

Von
Mittwoch, 07.02.2018   20:43 Uhr

"Mit diesem Programm kann jeder im Porno landen - ob er will oder nicht!", schreibt der "Berliner Kurier". "Algorithmus macht Katy Perry zum Pornostar wider Willen ", heißt es in der "Welt". Und die "FAZ" konstatiert: "Jetzt also 'Fake Porn'."

Schlagzeilen wie diese zeigen: Über mangelnde öffentliche Erregung kann sich der Reddit-Nutzer mit dem Pseudonym "deepfakes" nicht beschweren. Er hatte vergangenen Herbst mehrere Videos veröffentlicht, in denen er Pornodarstellerinnen digital die Gesichter von Hollywoodstars wie Emma Watson, Gal Gadot und Scarlett Johansson aufsetzte. Er nutzte dazu eine als Face-Swap bezeichnete Technik, einen digitalen Gesichtstausch mithilfe künstlicher Intelligenz.

"Ich habe einfach einen cleveren Weg gefunden, einen Face-Swap einzusetzen", ließ sich "deepfakes" Anfang Dezember vom Tech-Magazin "Motherboard" zitieren, das als Erstes prominent und kritisch über das Netzphänomen berichtet hatte.

Dann kam die App für Laien

Der Artikel hatte Folgen: Diverse Medien weltweit sprangen auf das Thema an und hievten damit auch das den Videos gewidmete Reddit-Unterforum r/deepfakes ein Stück weit aus der Nische.

Zum Jahresanfang 2018 präsentierte dort ein weiterer Reddit-Nutzer ein Programm namens "FakeApp". Mit dieser Software lassen sich die Gesichter in Pornoclips auch ohne viel technisches Vorwissen austauschen - eine gewisse Rechenleistung und genug passendes Bildmaterial vorausgesetzt. Das, was "deepfakes" machte, konnten plötzlich auch viele andere Nutzer.

Auch darüber berichtete "Motherboard", diesmal mit einem noch größeren Medienecho. Nach den Fake News wurde so auf einmal "Fake Porn" zum Aufreger. Was, wenn bald jeder das Gesichter von Promis oder Bekannten in Pornos einfügen kann? Lässt sich diese Entwicklung noch stoppen?

Reddit-Nutzer "deepfakes" hatte nach Erscheinen des ersten "Motherboard"-Textes selbst geschrieben, die Bedenken, die im Text geäußert werden, seien "real". Zu seinem Kommentar gehörte aber auch die Bemerkung, man ahne nicht, wie viele Kommentare und Nachrichten er in seinem Posteingang habe: "Zum Teil ist das reines Glück", schrieb "deepfakes". "Wuschige Männer sind simple Kreaturen."

Twitter und Pornhub wollen Fake-Pornos löschen

Tatsächlich dürfte die Berichterstattung rund um die Porno-Fakes deren Popularität nur befeuert haben - und so sind dieser Tage die Plattformen, auf denen die Videos geteilt werden, in den Fokus der Debatte geraten. Facebook und Instagram spielen hierbei allerdings keine Rolle, da sie ohnehin keine pornografischen Inhalte dulden.

Twitter jedoch kündigte diesen Dienstag auf eine "Motherboard"-Anfrage hin an, Accounts zu sperren, die Videos im Stil der "deepfakes"-Werke ins Netz stellen oder die sich der Verbreitung solches Clips verschreiben. Eine ähnliche Position vertritt seit Kurzem auch Gfycat: Die Betreiber der Gif-Austauschplattform erklärten Ende Januar, "solche Inhalte" zu löschen. Zuvor hatte bereits die Chatplattform Discord einen Chatkanal rund um gefälschte Promi-Pornovideos vom Netz genommen.

Laut einer Stellungnahme will neuerdings auch die Porno-Plattform Pornhub Videos im "deepfakes"-Stil verschwinden lassen - was zunächst jedoch vor allem ein Lippenbekenntnis zu sein scheint: Mittwochmittag jedenfalls ließen sich auf der Plattform noch immer "deepfakes"-Videos abrufen.

Reddit schwieg lange

Die Haltung von Reddit blieb dagegen bis zum Mittwochabend unklar. Im Unterforum r/deepfakes wurden fleißig immer neue Fake-Clips geteilt. Nutzer gaben sich dort Tipps, wie sich die Videos optimieren lassen. Auf Anfragen zum Thema, etwa von "Motherboard" und "Mashable", reagierte die Plattform zunächst nicht.

Am Mittwochabend dann griff Reddit durch: Das Unterforum ist mittlerweile komplett gesperrt worden, die Richtlinien der Plattform zum Verbot von "unfreiwilliger Pornografie" wurden unter anderem um den expliziten Hinweis ergänzt, dass sie auch für gefälschte Darstellungen gelten.

Dass sich Reddit erst jetzt öffentlich von den Promi-Pornos distanziert hat - wenn auch mit dem Sperren des ganzen Unterforums recht klar -, ist überraschend, weil vermeintliche Sex-Aufnahmen von Stars schon einigen Digitalfirmen Ärger einbrachten. Anfang der Nullerjahre etwa setze sich Steffi Graf vor Gericht gegen Microsoft durch, nachdem auf "MSN" gefälschte Fotos der Tennisspielerin aufgetaucht waren.

Ein großes Thema

Obwohl nun mit dem Reddit-Unterforum der wichtigste Szene-Treffpunkt offline ist, ist abzusehen, dass das Thema "deepfakes" nicht allein durch angepasste Löschregeln einzelner Plattformen wieder verschwinden wird. Schon die moralische Frage, ob es verwerflich ist, echte Personen virtuell zum Sexobjekt zu machen, beschäftigt angesichts etwa von Sex-Apps für Virtual-Reality-Brillen, längst nicht mehr nur Philosophen, sondern auch Software-Entwickler und Computernutzer.

Fotostrecke

Sex-Apps für VR-Brillen: Pixeliges Vergnügen

Auch die Technik hinter den Fake-Videos wird im Gespräch bleiben, dafür ist das Interesse daran zu groß, auch jenseits der Pornoszene: Die Chance, ohne Vorkenntnisse Videos manipulieren zu können, dürfte zum Beispiel auch die Verbreiter politischer Falschnachrichten ansprechen. In Zeiten, in denen immer mehr Bilder und Videos von Personen im Netz landen, lässt sich das dafür notwendige Ausgangsmaterial leichter finden als früher.

Es kommt auf den Kontext an

Für viele Menschen gehört Software, wie sie in der "FakeApp" zum Einsatz kommt, sogar bereits zum Alltag. Face-Swapping, das Tauschen von Gesichtern, gehört in simplerer Form schließlich zu den beliebtesten Funktionen von Videochat-Apps wie Snapchat.

Bei der Frage, ob Menschen eine Technologie praktisch, lustig oder schlimm finden, kommt es eben auch immer auf den Kontext an. Auf der "Stern"-Website etwa ist angesichts der "deepfakes"-Videos von einer "erschreckenden Technik" die Rede. Vor gut einem Jahr hieß es dort aber zur Handy-App "Face Swap Live": "Die kreativen Möglichkeiten sind schier unendlich - und die Ergebnisse wirklich komisch."

Und selbst für ein Programm wie "FakeApp" gibt es weniger kontroverse Anwendungen als Porno-Fälschungen: So veröffentlichte der belgische Computerexperte Sven Charleer vor einigen Tagen einen Blogpost, der seine Frau als Gast in Jimmy Fallons "Tonight Show" zeigte. Charleer hatte dafür das Gesicht der Schauspielerin Anne Hathaway durch das seiner Frau ersetzt. Überschrieben hatte er seinen Artikel mit "Familienspaß mit Deepfakes".


Update, 20.40 Uhr: Der Artikel wurde um die Reaktion von Reddit ergänzt.

insgesamt 20 Beiträge
welto 07.02.2018
1.
deepfake mit faceswap zu vergleichen ist grundsätzlich falsch. Deepfake ist sehr viel mächtiger. Faceswap erkennt wo sich im Bild die Gesichter befinden und tauscht sie pixel für pixel also verschiebt lediglich vorhandenes [...]
deepfake mit faceswap zu vergleichen ist grundsätzlich falsch. Deepfake ist sehr viel mächtiger. Faceswap erkennt wo sich im Bild die Gesichter befinden und tauscht sie pixel für pixel also verschiebt lediglich vorhandenes Bildmaterial auf dem Bildschirm umher. Deepfake ist eine künstliche Intelligenz die lernt was das gesicht einer Person ausmacht. Hat es das für zwei Personen gelernt, so kann es das Gesicht des einen in das Gesicht des anderen umwandeln. Dabei wird die Mimik übernommen und neue Bildinhalte werden geschaffen. Doch Personen die nicht in der Öffentlichkeit stehen müssen sich kaum sorgen machen. Das tranieren der Künstlichen Intelligenz braucht viele Bilder die vielfälltig sein müssen (kennt die KI kein Bild der person mit offenem Mund, kann sie auch kein solches Bild erzeugen) und bei viele Bilder sind tausende Bilder gemeint.
Atheist_Crusader 07.02.2018
2.
Müssen Sie nicht? Haben Sie noch nie was von Rachepornos gehört? Wer entsprechendes Bildmaterial der Ex ins Netz stellt, der hat auch keine Hemmungen entsprechende Faktes zu erstellen und zu verbreiten. Dürfte sogar die [...]
Zitat von weltodeepfake mit faceswap zu vergleichen ist grundsätzlich falsch. Deepfake ist sehr viel mächtiger. Faceswap erkennt wo sich im Bild die Gesichter befinden und tauscht sie pixel für pixel also verschiebt lediglich vorhandenes Bildmaterial auf dem Bildschirm umher. Deepfake ist eine künstliche Intelligenz die lernt was das gesicht einer Person ausmacht. Hat es das für zwei Personen gelernt, so kann es das Gesicht des einen in das Gesicht des anderen umwandeln. Dabei wird die Mimik übernommen und neue Bildinhalte werden geschaffen. Doch Personen die nicht in der Öffentlichkeit stehen müssen sich kaum sorgen machen. Das tranieren der Künstlichen Intelligenz braucht viele Bilder die vielfälltig sein müssen (kennt die KI kein Bild der person mit offenem Mund, kann sie auch kein solches Bild erzeugen) und bei viele Bilder sind tausende Bilder gemeint.
Müssen Sie nicht? Haben Sie noch nie was von Rachepornos gehört? Wer entsprechendes Bildmaterial der Ex ins Netz stellt, der hat auch keine Hemmungen entsprechende Faktes zu erstellen und zu verbreiten. Dürfte sogar die bessere Wahl sein, weil sich reale Bilder oft zurückverfolgen lassen und zu rechtlichen Schritten führen. Mit digitalen Kunstschöpfungen die man aus ein paar öffentlichen Bildern zusammengesetzt hat, dürfte das schon schwieriger sein. Ich weiß nicht wie das rechtlich in Deutschland geregelt ist, aber z.B. in den USA führt sowas gerne mal zu Kündigungen. Andererseits... wenn die Technik so weit ist, dann ließe sich grundsätzlich alles als Fake abtun - auch reales Material. Das könnte es leichter machen die Echtheit von Fälschungen abzustreiten und den Sensationswert echter Bilder zu reduzieren - auf die gleiche Weise auf die UFO-Fotos und anderes fragwürdiges Zeug noch mehr an Beweiskraft verloren, je mehr sich Bildmanipulationssoftware verbreitete. Je einfacher eine Fälschung ist, desto mehr werden auch Originale in Zweifel gezogen.
hoeffertobias 07.02.2018
3.
Das halte ich für eine reine Mutmaßung! Auch wenn aktuelle deepfake - Software dazu entsprechend viele Fotos benötigt, wird das in Zukunft nicht mehr nötig sein. Aus Fotos anderer Personen wird die Software den [...]
Zitat von weltodeepfake mit faceswap zu vergleichen ist grundsätzlich falsch. Deepfake ist sehr viel mächtiger. Faceswap erkennt wo sich im Bild die Gesichter befinden und tauscht sie pixel für pixel also verschiebt lediglich vorhandenes Bildmaterial auf dem Bildschirm umher. Deepfake ist eine künstliche Intelligenz die lernt was das gesicht einer Person ausmacht. Hat es das für zwei Personen gelernt, so kann es das Gesicht des einen in das Gesicht des anderen umwandeln. Dabei wird die Mimik übernommen und neue Bildinhalte werden geschaffen. Doch Personen die nicht in der Öffentlichkeit stehen müssen sich kaum sorgen machen. Das tranieren der Künstlichen Intelligenz braucht viele Bilder die vielfälltig sein müssen (kennt die KI kein Bild der person mit offenem Mund, kann sie auch kein solches Bild erzeugen) und bei viele Bilder sind tausende Bilder gemeint.
Das halte ich für eine reine Mutmaßung! Auch wenn aktuelle deepfake - Software dazu entsprechend viele Fotos benötigt, wird das in Zukunft nicht mehr nötig sein. Aus Fotos anderer Personen wird die Software den geöffneten Mund einfach konstruieren. Für mich nur eine Frage der Zeit...
welto 07.02.2018
4.
Eine Beziehung hat immer auch einen Vertrauenspart... dieses Vertrauen kann natürlich missbraucht werden. Eine Person die einem Vertraut zu verletzen war jedoch auch vor deepfake ziemlich einfach. Alles was ich sagen wollte ist, [...]
Eine Beziehung hat immer auch einen Vertrauenspart... dieses Vertrauen kann natürlich missbraucht werden. Eine Person die einem Vertraut zu verletzen war jedoch auch vor deepfake ziemlich einfach. Alles was ich sagen wollte ist, es ist nicht möglich aus einer handvoll Bilder eine Person in ein belibiges Video einzufügen. Dazu braucht es tausende von bildern, und diese sollten im normal Fall nicht öffentlich verfügbar sein. Deep fake trifft vorallem Personen des öffentlichen Lebens , Schauspieler, Model...
joergsi 07.02.2018
5.
Die Frage dich sicher jeder Durchschnittsparanoiker, so wie ich, stellen sollte ist die folgende, wenn eine Software aus einem "Hobbyprojekt" solche Ergebnisse liefert, zu was sind Geheimdienste in der Lage?
Die Frage dich sicher jeder Durchschnittsparanoiker, so wie ich, stellen sollte ist die folgende, wenn eine Software aus einem "Hobbyprojekt" solche Ergebnisse liefert, zu was sind Geheimdienste in der Lage?

Artikel

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH
TOP