Nacktfotos, die im Internet kursieren, will niemand. Was aber, wenn plötzlich solche Fotos oder gar Videos von euren Töchtern auftauchen, ohne, dass sie irgendetwas damit zu tun haben? Sogenannte Deep fakes, manipulierte Medien wie Bilder und Videos, sind ein zunehmendes Problem im Netz und gerade Frauen werden immer wieder Opfer dieser Onlineübergriffe.
Ihr surft im Netz und plötzlich seht ihr eure Frau oder eure Tochter auf einem Nacktfoto oder in einem Video. Ihr schaut genauer hin und erkennt: Das ist zwar der Kopf eures geliebten Menschen, aber definitiv nicht der Körper. Es klingt wie in einem Horrorfilm, kann aber schneller als uns lieb ist Realität werden. Denn inzwischen gibt es Programme, die diese Fotos und Videos herstellen können.
Deep fakes sind nicht als fake erkennbar
Diese Medien sind so echt, dass niemand mit bloßem Auge erkennen kann, dass sie gefälscht sind. Während die Betroffenen natürlich ganz genau wissen, dass die Bilder und Videos nicht von ihnen stammen, ist das für die Menschen im Netz nicht zu erkennen. Es lässt sich nicht nachverfolgen wer diese Medien von euch manipuliert hat und auch das Löschen dieser wird schwer.
Die Cybersicherheitsfirma Sensity AI, die sich auf die Aufdeckung manipulierter Medien spezialisiert hat, hat im Nachrichtendienst Telegram einen Bot gefunden, der gefälschte Fotos kostenlos anfertigt. Jede*r kann dem Bot ein Foto schicken und bekommt kurze Zeit später eine gefälschte Nacktaufnahme. Diese ist mit einem Wasserzeichen versehen, um das zu entfernen muss etwas mehr als 1€ pro Bild gezahlt werden.
Kleiner Spaß oder ernste Bedrohung?
Ja und, denkt ihr vielleicht, was ist denn das Problem? Ist doch nur ein kleiner Spaß unter Freunden. Wenn ihr das im privaten Rahmen und mit gegenseitigem Einverständnis tut (und die Bilder oder Videos im besten Fall nach dem Lacher wieder löscht), dann könnt ihr das gern tun. Deep fakes werden aber immer öfter auch für Rachepornos eingesetzt, um Frauen zu demütigen und unter Druck zu setzen.
Neue Form der sexuellen Belästigung
Eine Studie der American Psychological Association kam 2019 zu dem Schluss, dass jede 12. Frau irgendwann in ihrem Leben Opfer von Rachepornographie wird. In einigen Ländern wie Großbritannien, Australien und Neuseeland soll sogar eine von vier Frauen betroffen sein. Diese neue Form der sexuellen Belästigung ist hochproblematisch, auch, weil die Frauen gar nicht wissen, dass solche Medien von ihnen existieren.
Auch Minderjährige unter den Opfern
Im Fall des neu aufgetreteten Bots, der über mehrere einfach auffindbare Telegram-Kanäle läuft, wird das Ausmaß der sexuellen Belästigung deutlich. Die Kanäle haben hohe Mitgliederzahlen und eine sehr aktive Community. Für viele ist es ein Spiel, Fotos von Frauen und Mädchen, einige Fotos zeigen laut Sensity AI Minderjährige, zu tauschen und auch zu bewerten. Je beliebter das einzelne Bild, desto größer die Belohnung für den deep fake Ersteller. Diese erfolgt in Form von Zugriffen zu Premium-Funktionen des Bots.
Sensity AI fand heraus, dass die meisten User, die den Service des Bots nutzen, ihre Opfer entweder gut kannten oder Fotos von Instagram hochgeladen haben, um den Personen zu schaden.
Vielfältige Missbrauchsmöglichkeiten
Diese deep fakes können großen (emotionalen) Schaden anrichten. Dr. Thomas-Gabriel Rüdiger beschäftigt sich als Cyberkriminolge auch mit dem Thema deep fakes. Er sagt „Die Missbrauchsmöglichkeiten sind unfassbar vielfältig." Und leider gibt es auch kaum etwas, das wir gegen deep fakes tun können. Dr. Rüdiger sagt: „Letztlich reicht ein Bild von Instagram, WhatsApp Profil oder ähnliches". Eine Lösung, wie wir uns davor schützen Opfer von deep fakes zu werden, hat auch der Cyberkriminologe momentan noch nicht. Eine „individuelle Schutzmöglichkeiten sehe ich nicht. Es ist auch illusorisch davon auszugehen, dass man keine Bilder oder Videos von Menschen im Netz findet. Wenn man selbst keine einstellt, machen es vielleicht Freunde, Schule, Vereine usw...", sagt Dr. Thomas-Gabriel Rüdiger.
Quelle: heise.de
Meine Meinung
Natürlich ist es spannend zu sehen, was alles möglich ist. Und vermutlich war die Grundidee von deep fakes nicht, anderen Menschen Schaden zuzufügen. Aber jetzt, wo klar ist, was passieren kann, muss auch gehandelt werden. Denn sind die Foto erst mal im Netz, lässt sich wenig dagegen tun.
Bildquelle: getty images / E+ / martin-dm