Symbol künstlicher Intelligenz

«Es braucht eine Art forensisches Denken»

Ist das Video echt? Oder doch ein Fake? Dass diese Frage oft nicht leicht zu beantworten ist, hat vor allem auch mit KI-Anwendungen zu tun, die immer ausgefeilter werden. Sogenannte Deepfakes werden häufiger. Wie enttarnen wir sie?

Ist das Video echt? Oder doch ein Fake? Dass diese Frage oft nicht leicht zu beantworten ist, hat vor allem auch mit KI-Anwendungen zu tun, die immer ausgefeilter werden. Sogenannte Deepfakes werden häufiger. Wie enttarnen wir sie?

Bekannte Beispiele wurden schon oft genannt: → Papst Franziskus taucht trendbewusst im weissen Daunenmantel auf. Der russische Präsident → Wladimir Putin kniet sich ehrerbietig vor Chinas Staatschef Xi Jinping hin. → Donald Trump wird festgenommen. Und in der Ukraine ruft Präsident → Wolodymyr Selenskyj zur Kapitulation auf.

Allen Beispielen ist gemein: Hier war künstliche Intelligenz am Werk. Mit ihrer Hilfe lassen sich Fotos, Videos und Stimmen inzwischen ganz leicht manipulieren. Bereits 2018 veröffentlichte der amerikanische Schauspieler und Regisseur Jordan Peele ein → Deepfake-Video, in dem er den ehemaligen US-Präsidenten Barack Obama Dinge sagen liess, die dieser bei voller Zurechnungsfähigkeit in der Öffentlichkeit niemals ausgesprochen hätte. Das Video zeigt, wie täuschend echt solche Manipulationen sein können. Und seither sind die Entwicklungen nicht stillgestanden. KI-Tools werden immer besser.

Audiovisuellen Inhalten haben wir bisher viel Vertrauen geschenkt. Ein Video mit Ton haben wir automatisch für glaubhafter gehalten.

Patric Raemy, Universität Freiburg

Und plötzlich sind Nacktfotos im Netz, die es gar nicht gibt

Von »Deepfake« wird deshalb gesprochen, weil eine Form des maschinellen Lernens (Englisch: Deep Learning, Deutsch: mehrschichtiges oder tiefes Lernen) dazu genutzt wird, um eine Fälschung (Engl: Fake) zu erzielen. Einfach gesagt sammelt eine KI Bild- und Tonmaterial z.B. von einer Person, analysiert diese und generiert dann mithilfe von Algorithmen komplett neue Inhalte. Das geht bedeutend weiter als etwa eine einfache Fotomontage oder ein Zusammenschnitt von Ton- oder Videoausschnitten.

Weil es sich um komplexe Technologien handelt, stehen Deepfakes in Abgrenzung zu sogenannten »Cheap Fakes«, die auf einfacheren technischen Mitteln basieren. Deepfakes mit prominenten Persönlichkeiten sind deshalb verbreitet, weil sich von ihnen viele Fotos, Videos oder auch Tonaufnahmen im Internet finden – genügend Material also für eine KI, um zu lernen. In Zeiten von Social Media und all den Momenten, die wir im Netz mit anderen teilen, gilt das allerdings längst nicht mehr nur für Politiker, Influencerinnen und andere Stars. Erst im letzten Herbst war ein Fall aus einer spanischen Kleinstadt publik geworden, wo in WhatsApp-Gruppen plötzlich Nacktfotos von mehreren Mädchen im Alter von 11 bis 17 Jahren kursierten. Die Täter, Mitschüler und Bekannte der Opfer, hatten eine KI-App benutzt, die aufgrund normaler Fotos Nacktbilder erstellte. Selbst eine der Mütter, die den Fall an die Öffentlichkeit brachte, hatte angegeben, dass sie genau hinschauen musste, um das Bild ihrer Tochter als Fälschung zu erkennen.

Videos werden als vertrauenswürdig empfunden

Dass es angesichts der kontinuierlichen technologischen Weiterentwicklung künftig noch schwieriger werden wird, Deepfakes (oder wie im Fall der Nacktbilder »Deepnudes«) zu enttarnen, davon ist auch Patric Raemy vom Departement für Kommunikationswissenschaft und Medienforschung der Universität Fribourg überzeugt. Aber nicht nur das. Selbst wenn Medienmanipulationen so alt sind wie die Medien selbst, sieht der promovierte Sozialwissenschaftler beim Thema Deepfake einen erschwerenden Faktor: «Wie leicht sich Fotos manipulieren lassen, wissen wir seit Photoshop. Aber audiovisuellen Inhalten haben wir bisher viel Vertrauen geschenkt, weil hier Informationen auf der Ton- und auf der Bildebene zusammenkommen. Ein Video mit Ton haben wir automatisch für glaubhafter gehalten.»

Sich davon zu lösen, sei gar nicht so leicht: «Es braucht ein kritisches Umdenken – und eine Art forensisches Denken, um Deepfakes zu enttarnen.»
 

Den Schwachstellen auf den Grund gehen

Dieses forensische Denken können Sie mit Ihrem Kind trainieren. Fangen Sie damit an, selbst bzw. gemeinsam mit KI-Tools zu experimentieren. Foto-Anwendungen wie → Midjourney oder → Stable Diffusion zum Beispiel bieten eine spannende Ausgangslage. Geben Sie der KI textlich Anweisungen und lassen Sie sich von den Fotos überraschen, die das Tool daraus generiert. Woran lässt sich erkennen, dass es kein reales Foto ist?

Auch bei professionell gemachten Deepfakes gibt es in der Regel Schwachstellen, die – zumindest nach heutigem Stand der Technik noch – darauf hindeuten, dass es sich um eine Manipulation handelt. Dazu gehören:

  • Sprünge im Video
  • Unstimmige Lippensynchronisation, d.h. das, was die Person sagt, und die Lippenbewegungen dazu stimmen nicht richtig überein.
  • Ungewöhnliche Formen (bei dem Foto von Putin auf den Knien ist z.B. einer seiner Schuhe unverhältnismässig gross)
  • Verschwommene Stellen (das kommt oft bei Händen oder beim Übergang vom Hals zum Kopf vor)
  • Unnatürliche Haare
  • Unsinnige Schatten
  • Seltsame Intonation/Betonung
  • Perfektion (ein zu ebenmässiges Gesicht oder zu glatte Haut)

Bei sozialen Medien ist vieles inszeniert. Das ist sicher die Quelle, bei der die grösste Vorsicht geboten ist.

Patric Raemy

In den Augen liegt die Wahrheit

Wissenschaftler*innen der Universität Buffalo haben ausserdem einen Deepfake-O-Meter für Fotos und Videos entwickelt, auf denen Gesichter zu erkennen sind. Die Software funktioniert nur bei Gesichtern, weil sie sich auf die Augen konzentriert bzw. auf das, was darin reflektiert wird. Ist das Foto oder Video real, spiegeln beide Augen nämlich logischerweise dasselbe, weil der Blick sich ja auf ein Ziel richtet. Die meisten Bilder, die mithilfe von künstlicher Intelligenz entstanden sind, weisen laut den Informatiker*innen aber unterschiedliche Reflexionsmuster auf. Bei ihren Tests lag das Tool denn auch in 94 Prozent der Fälle richtig. Und bei Ihnen?

Ganz grundsätzlich hilft bei der Frage, ob es sich um ein Deepfake handelt, auch der Quellen- und Fakten-Check: Wurde das Foto/Video auf einer vertrauenswürdigen Seite veröffentlicht, z.B. von einem journalistischen Medium? Oder wurde es (nur) auf Social Media verbreitet? «Bei sozialen Medien ist vieles inszeniert», sagt denn auch Patric Raemy. «Das ist sicher die Quelle, bei der die grösste Vorsicht geboten ist. Denn die ganze Architektur ist ja dafür ausgelegt, dass es möglichst viele Klicks und Likes gibt.»

Die Bilder-Rückwärtssuche, z. B. über → TinEye oder → GoogleImages hilft zu sehen, wo überall ein Foto bereits gepostet wurde.

Beim Fakten-Check kann ich nicht zuletzt auf meinen gesunden Menschenverstand zurückgreifen: Macht die Aussage der gezeigten Person wirklich Sinn? Oder ist das, was gezeigt wird, eher unlogisch?

Schauen Sie sich mit Ihrem Kind Beispiele von Deepfakes und Falschnachrichten an. So erhält es ein Gespür dafür, wann es skeptisch sein sollte.

Sollte Ihr Kind selbst Opfer von einem Deepfake werden, ist es wichtig, die Fotos/Videos als Beweismaterial abzuspeichern und Screenshots zu erstellen. Danach sollten die Inhalte gelöscht werden, wobei es Sinn machen kann, das durch die Plattformbetreiber zu veranlassen. Wenden Sie sich an die Polizei und holen Sie sich Hilfe bei einer kantonalen Opferberatung oder der Schweizerischen Kriminalprävention, die Erstberatungen anbietet.

Mit Dalí ins Museum

Und natürlich ist Deepfake nicht automatisch mit kriminellen Machenschaften gleichzusetzen. Die Technologien, die dahinterstecken, bieten schon heute vielfältige Möglichkeiten. Hier nur ein paar Beispiele:

Die eigene Stimme wiederfinden

ALS ist die Abkürzung für eine Nervenkrankheit, die zu Muskellähmungen und dadurch auch zum Stimmverlust führt. Unter dem Arbeitstitel »Project Revoice« arbeitet die ALS Association mit einem Start-up zusammen, um mit KI-Technologie die Stimmen von Betroffenen zu klonen und so zu erhalten.

Kaffeekränzchen mit Dalí

Bereits 2019 hatte das Dalí-Museum in St. Petersburg, Florida, den Künstler zum Leben erweckt. Die KI lernte aus Interviews und kreierte Dalí, der die Besucherinnen und Besucher fortan begrüsste, aus seinem Leben plauderte und Selfies mit sich machen liess.

Das perfekte Outfit

Sich immer wieder an- und auszuziehen macht Shopping manchmal ganz schön ermüdend. Erste Versuche mit KI zielen darauf ab, diesen Prozess massiv zu vereinfachen und zu verkürzen. In Zukunft sollen ein paar Klicks auf dem Smartphone reichen – und schon ist es da, das perfekte Outfit.

*

Der Bundesrat strebt mit einer neuen → Vorlage eine Regulierung von grossen Plattformen wie YouTube, Facebook oder X an, um mehr Transparenz einzufordern.

Bettina Bichsel ist Journalistin und Texterin. Sie schreibt und bloggt unter anderem für Jugend und Medien.