KI-Fakes, Nudes und Co.: So erkennst du sie  

4 Minuten
Texte verfassen, sprechen, Musik produzieren, Bilder erstellen und vieles mehr, all das kann eine künstliche Intelligenz. Mittlerweile trifft man immer häufiger auf KI-generierte Bilder, einige von ihnen sind sogar ziemlich freizügig. Doch wie geht das und wie erkennst du Fakes?
KI-Fakes, Nudes und Co.: So erkennst du sie  
KI-Fakes, Nudes und Co.: So erkennst du sie  Bildquelle: Jernej Graj / Unsplash

Der Papst wird zur neuen Mode-Ikone. Joe Biden, der 46. US-amerikanischer Präsident, stürzt zu Boden und man sieht seine Windel. Mark Zuckerberg schlägt einen neuen Berufsweg ein und wird zum Laufsteg-Model. Das sind nur ein paar der vielen Fotos, die durch die sozialen Medien kursieren. Aber wie kannst du ein KI-generiertes Fake-Bild erkennen?

KI-Fakes: Das ist heute möglich 

Eine künstliche Intelligenz (KI) versucht, menschliches Denken und Lernen auf einen Computer zu übertragen. Einer ihrer Vorteile ist, dass sie nicht für jeden Zweck programmiert werden muss, denn sie findet ihre Antworten sowie Problemlösungen selbst. Fast jeder hat schonmal etwas vom textbasierten Chatbot ChatGPT gehört. KIs können jedoch deutlich mehr als nur Antworten generieren. Sie können Fotos, Videos und sogar Audio-Dateien erstellen. Hieraus kann aber auch schnell ein sogenanntes Deepfake werden. Manche von ihnen sehen so realistisch aus, dass sie mit dem bloßen Auge gar nicht erkannt werden können. 

Diese sorgen aber immer wieder aufs Neue für Schlagzeilen. Erst kürzlich tauchten vermehrt KI-erstellte Bilder der US-amerikanischen Pop- und Country-Sängerin Taylor Swift auf, auf denen sie nackt und pornografisch dargestellt wurde. Dem Magazin Daily Dot zufolge konnten über 22 Millionen Menschen diese Fotos zu Gesicht bekommen, bis X sie entfernt hatte. Somit ist klar, dass nicht alle KIs Gewaltdarstellungen und sexuelle Inhalte ausschließen. 

Gefälscht: Wie weit kannst du gehen?

Beim Erstellen eines KI-Deepfakes kann gegen die Bildrechte einer Person verstoßen werden. Gleichzeitig kann das allgemeine Persönlichkeitsrecht oder Urheberrecht verletzt werden. In einem Bericht der WBS betonte Rechtsanwalt Christian Solmecke: „Eine Strafbarkeit ergibt sich daher zunächst aus dem Bundesdatenschutzgesetz nach §42 BDSG. Hier droht eine Geldstrafe oder Haftstrafe bis zu zwei Jahre, wenn man bei der Datenverarbeitung die ‚Absicht‘ hat, einen anderen zu schädigen.“ Egal, ob Fake-Nackt-Bild oder ein anderes Motiv, solang man keine eindeutige Zustimmung der Person hat, ist es hierzulande illegal, Bilder von anderen Personen hochzuladen und diese zu überarbeiten.

KI-Fakes: So einfach kann es gehen 

Mithilfe von KI können ganz einfach Deepfakes jeglicher Art erstellt werden. Es gibt mehrere Tools, die das ermöglichen, wie zum Beispiel Tryiton. Mit Tryiton kannst du ganz einfach ein oder mehrere Bilder hochladen. Im Anschluss klickst du auf „Head to Photoshoot“ und schon erscheint ein fertig generiertes Bild auf dem Bildschirm. Eine weitere Software, mit der du ein gefälschtes Bild oder auch Video erstellen kannst, ist Vidnoz. Durch das Hochladen von insgesamt zwei Bildern kannst du ganz einfach die Gesichter tauschen. Dasselbe Prinzip gilt auch für die Bearbeitung von Videos. Auf das Endergebnis musst du nicht lange warten, jedoch ist es nicht schwer das KI-generierte Bild oder Video zuerkennen. Dazu kommt, dass die meisten Plattformen früher oder später die Hand aufhalten und Bares für ihre Dienstleistung verlangen.

Für das Erstellen von realistischen Fake-Nackt-Bildern werden meist sogenannte „Nudify“-Apps genutzt. Einem Bericht von Graphika zufolge wuchsen die Nutzerzahlen im September 2023 dieser Dienste auf einen Höchststand von 24 Millionen. Zudem gab es einen Anstieg von 2.400 Prozent bei der Anzahl der Links, welche über verschiedene Plattformen wie Reddit geteilt wurden. 

Ist das echt oder fake?

Mittlerweile lassen sich einige KI-generierte Bilder kaum von echten unterscheiden. Einige von ihnen können sogar nur dank einer speziellen Software wie beispielsweise Intels FakeCatcher oder WeVerify erkennen. Trotzdem gibt es einige Tipps, die dir dabei helfen können, gefälschte Fotos oder Videos genauer unter die Lupe zu nehmen. 

  • Prüfe nicht nur die Logik, sondern auch den Kontext des Bildes oder Videos. 
  • Wie gut oder schlecht ist die Qualität? Auf den ersten Blick sehen die gefälschten Inhalte qualitativ hochwertig aus, schaut man beispielsweise in die Ecken, kann das Ganze schon anders aussehen. 
  • Fällt dir irgendetwas Ungewöhnliches ins Auge? Deepfakes haben bei genauerem Hinschauen zum Beispiel häufig sechs Finger an einer Hand. 
  • Wenn du dir immer noch unsicher bist, kannst du den Inhalt melden. 

Und was sagst du?

Bitte gib Dein Kommentar ein!
Bitte gibt deinen Namen hier ein