Cookie-Einstellungen

Für unseren Service speichern wir Cookies und andere Informationen auf Ihren Geräten und verarbeiten damit einhergehend Ihre personenbezogenen Daten bzw. greifen auf solche zu. Manche helfen uns, das Nutzungserlebnis unserer Services zu verbessern, sowie personalisierte Empfehlungen und Werbung auszuspielen. Hierfür bitten wir um Ihre Einwilligung. Darüber hinaus nutzen wir mit Ihrer Einwilligung Technologien zur Datenübermittlung für die Zielgruppenauswahl und die Ausspielung von Werbung bei Partnern. Sie können Ihre Einwilligung jederzeit über die Cookie-Einstellungen, erreichbar über den Link "Cookies" im Footer wie auch unter Ziffer 12 unserer Datenschutzerklärung, ändern und widerrufen.

Deine Privatsphäre Einstellungen

Für unseren Service speichern wir Cookies und andere Informationen auf Ihren Geräten und verarbeiten damit einhergehend Ihre personenbezogenen Daten bzw. greifen auf solche zu. Manche helfen uns, das Nutzungserlebnis unserer Services zu verbessern, sowie personalisierte Empfehlungen und Werbung auszuspielen. Hierfür bitten wir um Ihre Einwilligung. Darüber hinaus nutzen wir mit Ihrer Einwilligung Technologien zur Datenübermittlung für die Zielgruppenauswahl und die Ausspielung von Werbung bei Partnern. Sie können Ihre Einwilligung jederzeit über die Cookie-Einstellungen, erreichbar über den Link "Cookies" im Footer wie auch unter Ziffer 12 unserer Datenschutzerklärung, ändern und widerrufen.

Diese Cookies und andere Informationen sind für die Funktion unseres Services unbedingt erforderlich. Sie garantieren, dass unser Service sicher und so wie von Ihnen gewünscht funktioniert. Daher kann man sie nicht deaktivieren.

Wir möchten für Sie unseren Service so gut wie möglich machen. Daher verbessern wir unsere Services und Ihr Nutzungserlebnis stetig. Um dies zu tun, möchten wir die Nutzung des Services analysieren und in statistischer Form auswerten

Um unseren Service noch persönlicher zu machen, spielen wir mit Hilfe dieser Cookies und anderer Informationen personalisierte Empfehlungen und Werbung aus und ermöglichen eine Interaktion mit sozialen Netzwerken. Die Cookies werden von uns und unseren Werbepartnern gesetzt. Dies ermöglicht uns und unseren Partnern, den Nutzern unseres Services personalisierte Werbung anzuzeigen, die auf einer website- und geräteübergreifenden Analyse ihres Nutzungsverhaltens basiert. Die mit Hilfe der Cookies erhobenen Daten können von uns und unseren Partnern mit Daten von anderen Websites zusammengeführt werden.

Wenn Sie uns Ihre E-Mail-Adresse zur Verfügung stellen (z.B. in einem Formular), geben wir diese mit Ihrer Einwilligung zur Auswahl von Zielgruppen (Custom Audiences) in pseudonymisierter Form an unsere Partner weiter. Diese ermitteln, ob Sie dort über ein Nutzerkonto verfügen. Wenn dem so ist, wird ihre pseudonymisierte E-Mail-Adresse von unseren Partnern in eine sog. Custom Audience aufgenommen und für die zielgruppenbasierte Ausspielung von Werbung genutzt. Die E-Mail-Adresse wird von unseren Partnern unmittelbar im Anschluss an den Abgleich gelöscht; E-Mails werden nicht verschickt. Weitere Informationen finden Sie unter Zwecke der Datenverarbeitung. Die relevanten Partner finden Sie anhand der ergänzenden Bezeichnung "Custom Audience".

Fakes im Netz: Gefälschte Fotos und Videos erkennen

Bildquelle: ©Adobe Stock / Text: dpa/tmn

Kaiserslautern/Darmstadt – Gerade jene Bilder und Videos, die im Netz am häufigsten geklickt werden, sind oft gefälscht oder aus dem Zusammenhang gerissen. Doch wie erkennt man Fakes? Wer allein auf technische Lösungen hofft, wird enttäuscht: "Es gibt keine Webseite und kein Tool, das Ihnen mit Sicherheit bestätigen kann, dass ein Foto nicht manipuliert ist", warnt Prof. Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie (SIT).

Das bedeutet aber nicht, dass Technologie nicht wertvolle Hilfe leisten kann. "Die einfachste und häufigste Art von Desinformation ist die Wiederverwendung von alten Fotos oder Videos in neuem Kontext", sagt Steinebach. Wird solches Archivmaterial seriös eingesetzt, etwa weil zu einem aktuellen Ereignis noch keine Bilder vorliegen, gibt es eine Einblendung. Diese trägt den Hinweis "Archivmaterial" oder besteht aus dem Datum der Aufnahme samt ihrem Urheber. Fotos und Videos können aber natürlich auch unkommentiert instrumentalisiert werden, um die Wahrnehmung von Ereignissen zu verfälschen.

Umgekehrte Bildersuche nutzen

So ein irreführender oder betrügerischer Einsatz lässt sich oft durch die inverse Bildersuche von Suchmaschinen wie Google, Bing oder Yandex sichtbar machen. Letztere findet etwa tendenziell mehr Suchergebnisse von Seiten aus Osteuropa. Ist ein Bild tatsächlich schon einmal im Netz aufgetaucht, finden es Suchmaschinen mit hoher Wahrscheinlichkeit. Allerdings klappt das nicht mit allen Arten von Fotos gleich gut. Lädt man etwa bei der Google-Bildersuche eine allgemeine Aufnahme einer Demonstration in Berlin hoch, werden als "optisch ähnliche Bilder" Demos an unterschiedlichsten Orten und zu verschiedensten Anlässen angezeigt. Doch sobald etwa Transparente auf dem Bild zu sehen sind, erhöht das die Trefferwahrscheinlichkeit wieder.

"Allerdings können schon kleine Veränderungen am Bild oder der Trick, es spiegelverkehrt zu publizieren, die inverse Bildersuche ins Leere laufen lassen", warnt Prof. Steinebach. Um Veränderungen oder Bildmontagen zu entdecken, gibt es Webtools wie Fotoforensics.com oder Forensically.

Solche Tools arbeiten basierend auf der Annahme, dass durch die verschiedenen Komprimiervorgänge, die ein Digitalfoto meist durchläuft, sich dessen Bildflächen am Ende unterscheiden – etwa in den Farbwerten oder genereller im Bildrauschen, erläutert IT-Forensiker Steinebach. Teilweise analysierten diese Tool auch Metadaten wie Aufnahmeort oder -zeitpunkt. Aber auch hier gibt es ein Aber: "Wenn das Foto nach der Manipulation nochmals komprimiert wird, kann das frühere Manipulationen verdecken", erklärt Steinebach. Umgekehrt reagierten Flächen mit viel Textur anders als plane Flächen, was falschen Alarm auslösen könne.

Steinebach selbst habe zu Testzwecken schon einmal das Foto eines Stromzählers manipuliert und mit unterschiedlichen Tools untersucht. Ergebnis: Die völlig andere Struktur der Plomben löste Fake-Alarm aus, der veränderte Zählerstand blieb unbemerkt.

Manipulierte Videos erkennen

Auch mit Videos wird der Versuch unternommen, falsche Tatsachen vorzuspielen oder zu untermauern. Die Nutzung bereits vorhandener Aufnahmen in neuem, falschem Kontext, ist auch hier die häufigste Manipulationsform.

Die US-amerikanische Sektion von Amnesty International stellt auf einer Seite namens Citizenevidence eine Suchmaske bereit, in die Links verdächtiger Youtube-Videos kopiert werden können. Die Seite stellt dann Metadaten wie Aufnahmeort oder Zeitpunkt des Hochladens fest und extrahiert zudem einzelne Bilder, die wiederum für eine inverse Bildersuche verwendet werden können.

Bei Videos außerhalb von Youtube raten Experten dazu, genauer hinzuschauen: Sind im Bild auftauchende Schriftzüge in der Sprache des Landes verfasst, wo das Ereignis angeblich stattgefunden hat? Stimmen Jahres- und Tageszeit überein? Außerdem sei es wichtig, mindestens eine zweite Quelle für das Ereignis zu finden, betont Pina Merkert vom IT-Fachmagazin "c't".

"Wenn es keine zweite Quelle gibt oder die erste behauptet, andere Medien würden dieses Ereignis bewusst verschweigen, ist das eher ein Hinweis, dass ich gerade angelogen werde", sagt Merkert. Weniger aktuelle, aber wiederkehrende zweifelhafte Behauptungen unterzögen viele Medien einem Faktencheck und veröffentlichten die Ergebnisse online.

Mit Deepfakes rechnen

Ganz anders funktionieren sogenannte Deepfakes. Das sind Video-Fälschungen, bei denen etwa prominente Köpfe auf andere Körper gesetzt oder Menschen falsche Aussagen untergeschoben werden. "Man erkennt sie meist an typischen Fehlern wie verschwurbelten Haaren und komisch geformten Ohren", erklärt Pina Merkert. Das liege daran, dass die dazu eingesetzte Künstliche Intelligenz (KI) zwar immer besser werde, wenn es viele verfügbare Daten gebe. Wenn also bestimmten Personen oft beim Reden gefilmt wurden, seien Lippen, Mund, Nase oder Augen leichter darzustellen. Für die oft von Haaren verdeckten Ohren oder den nur manchmal sichtbare Mund-Innenraum fehlten der KI dagegen Beispiele, um realistisch wirkende Bilder zu errechnen.

Gesprochene Sprache lässt sich etwa recht einfach mit Hilfe von Googles Sprachsynthese-Programm Wavenet nachbilden. Hierfür seien anfangs riesige Datensätze notwendig gewesen, die nur große Unternehmen bereitstellen konnten. Inzwischen sei die benötigte Datenmenge jedoch um den Faktor vier geschrumpft und Manipulationen entsprechend einfacher, weiß Merkert.

Sie rät jedem, sich im Netz einige Beispiele anzusehen, um ein Gefühl für Deepfakes zu bekommen – etwa auf den gängigen Videoportalen: "Die sind leicht zu finden, weil die Mehrzahl ja nicht in böser Absicht, sondern einfach als Gag mit Promis produziert wurde."

Nicht auf Tools verlassen

Einen Hinweis darauf, welche Jedermann-Mittel es in Zukunft geben wird, um das Erkennen oder die Suche nach Fake-News zu erleichtern, zeigt ein Blick zum Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Dort arbeitet man an einem Browser-Add-on namens News Verifier, das diverse, bereits vorhandene Systeme kombiniert. Es vergleicht ähnliche Fotos und Bildausschnitte, analysiert, ob Teile hinzugefügt oder ausgeschnitten wurden, sucht mittels Gesichtserkennung nach bekannten Persönlichkeiten und filtert die wichtigsten Begriffe der Ursprungs-Webseite.

Allerdings wird die Erweiterung derzeit nur am Institut selbst zu Testzwecken verwendet. "Methodisch haben wir alles, um ein downloadbares Plug-in für alle zu entwickeln", sagt DFKI-Forschungsbereichsleiter Prof. Andreas Dengel.

Eine entsprechende Finanzierung vorausgesetzt, könne die Browser-Erweiterung binnen eines Vierteljahres für die massenhafte Nutzung fertiggestellt werden, so Dengel. Bis dahin, aber auch darüber hinaus, gilt es, sich mit vorhandenen Tools und einer großen Portion Logik und Skepsis vor Fake-Fotos und -Videos zu schützen.