Medienverifikation durch Gretchen AI:
Fragen und Antworten
Das Media Verification Dashboard
Wofür wurde das Gretchen AI- Dashboard entwickelt und was genau macht es?
Unser Gretchen AI Media Verification Dashboard integriert zwei wesentliche Aufgaben, um Menschen bei der Erkennung von Falschinformationen zu unterstützen:
- KI-gestützte Deepfake-Erkennung, um die Authentizität eines Bildes zu prüfen: d. h. zu analysieren, ob ein Bild oder Video manipuliert oder synthetisch generiert wurde;
- Kontextanalyse, um zu prüfen, ob das Bild oder Video in seinem ursprünglichen, wahrheitsgemäßen Kontext präsentiert wird oder aber aus dem Zusammenhang gerissen wurde.
Ist die Wirksamkeit des Tools wissenschaftlich belegt?
Ja, wir haben unser Tool gegen wissenschaftliche Benchmarks und andere „State-of-the-Art“ (SOTA) Methoden getestet. Bei Benchmarks wie Deepfake-Eval-2024 erzielten wir eine Leistungssteigerung von bis zu +44 % gegenüber herkömmlichen SOTA-Methoden.
Warum ist unser Tool besser als andere?
Wir analysieren Bilder auf mehreren Skalen – von winzigen Bildbereichen (Patches) zur Erkennung lokaler Artefakte bis hin zum Gesamtbild. Unser Modell nutzt modernste Vision-Foundation-Modelle und verfügt über ein ganzheitliches Wissen durch das Training mit einer enormen Bandbreite an Deepfake-Typen.
Deepfake-Erkennung zur Berechnung des Authentizitäts-Scores
Wofür ist das Tool zur Bild-Deepfake-Erkennung gedacht?
Dieses Tool hilft Nutzern, manipulierte oder synthetische, also KI-generierte, Bilder zu erkennen. Es analysiert visuelle und digitale Signale im Bild und erstellt einen zusammengefassten „Authentizitäts-Score“. Dieser schätzt ein, wie wahrscheinlich es ist, dass das Bild künstlich erzeugt oder manipuliert wurde.
WICHTIG: Es ersetzt nicht das menschliche Urteilsvermögen, sondern dient als Entscheidungshilfe. Kombinieren Sie die Ergebnisse der Authentizitäts-Scores möglichst immer mit der Kontextanalyse.
Welche Arten der Deepfake-Erkennung bietet Gretchen?
Es sind zwei Arten von Erkennungsmechanismen integriert:
- Menschliche Gesichter: Der erste Typ konzentriert sich ausschließlich auf Gesichter (maximal fünf pro Bild). Er prüft, ob ein Gesicht mittels Face-Swap, Face-Reenactment (Änderung von Emotionen oder Lippensynchronität) oder Face-Editing (Modifizierung von Merkmalen, z. B. Altern) verändert wurde. Diese Manipulationen erfolgen meist lokal, während der Rest des Bildes unverändert bleibt.
- Synthese-Erkennung: Der zweite Mechanismus analysiert das gesamte Bild und prüft, ob es vollständig KI-generiert wurde. Das System schlägt auch dann Alarm, wenn nur ein kleiner Teil durch KI-Tools wie Midjourney, Qwen oder Nano Banana verändert wurde.
Obwohl beide Methoden unabhängig arbeiten, weisen beide darauf hin, sobald ein Bild die Kriterien für Authentizität nicht erfüllt.
Was sehe ich nach meinem Upload auf dem Dashboard?
Wenn Sie ein Bild oder Video in unser Dashboard hochladen, müssen Sie sich entscheiden, ob Sie eine Deepfake-Erkennung starten, oder eine umfassendere Analyse inklusive Deepfake-Erkennung starten. Sie sehen Sie die Authentizitäts-Scores werden direkt unter den jeweiligen Bildern angezeigt. Darunter folgen die Ergebnisse unserer netzweiten Suche nach Referenzbildern. Diese zeigen die Verbreitung der gefundenen Kontextinformationen, unterteilt in drei Quellentypen – farblich gekennzeichnet: Fact-Checking-Quellen, vertrauenswürdige Quellen und unbekannte Quellen Sie können Referenzbilder wählen und markieren, um zu sehen, woher die gesammelten Informationen (Datum, Handlung, Ort, Person und Quelle) dazu verbreitet. So erkennen Sie Konsistenzen und Widersprüche auf einen Blick.
Wie ist die Höhe des Authentizitäts-Scores zu interpretieren?
Ein sehr niedriger Score (unter 10 %) bedeutet, dass starke Beweise für eine synthetische Erzeugung oder Manipulation vorliegen. Der Bereich bis ca. 50 % deutet auf eine hohe Wahrscheinlichkeit hin. Umgekehrt bedeutet das Urteil „Sicher authentisch“, dass eine hohe Gewissheit über die Echtheit besteht. Da die Schätzung mehrere Schritte umfasst, die auch uneindeutig sein können, geben wir diese Ergebnisse transparent heraus. Wir glauben, dass die Offenlegung der algorithmischen Gewissheit (auch in Zweifelsfällen) der Schlüssel zur Vertrauensbildung ist. TIPP: Im Zweifelsfall empfiehlt es sich, die Analyse mit benachbarten Frames oder ähnlichen Bildern zu wiederholen. Hinweis: Bei Einzelbildern aus Videos bezieht sich der Score nur auf dieses spezifische Frame. Es ist möglich, dass nur Teile eines Videoclips manipuliert wurden
Warum gibt es manchmal das Ergebnis „Uneindeutig/Unsicher“?
KI-generierte Medien entwickeln sich rasant. Neue Modelle hinterlassen oft digitale Fingerabdrücke, die dem Erkennungsmodell noch nicht bekannt sind. Zudem können reale Bilder durch starke Bearbeitung, Filter oder Kompression Artefakte aufweisen, die für den Detektor verdächtig wirken. Auch moderne Smartphone-Kameras nutzen oft KI-Filter. In solchen Fällen empfehlen wir eine weitere Untersuchung mithilfe der Metadaten und Kontextanalyse des Dashboards.
Welche Arten von Deepfake-Modellen kann das Tool erkennen?
Unsere Modelle sind robust gegenüber einer Vielzahl von Verfahren, da sie mit Daten aus über 60 verschiedenen Algorithmen trainiert wurden. Dazu gehören Methoden zur Bildmanipulation (z. B. Face-Swap) sowie generative Modelle (Vollsynthese). Technisch abgedeckte Methoden sind unter anderem: FaceShifter, FaceSwap, SimSwap, DeepFaceLab, HeyGen, VQGAN, StyleGAN3, SD-2.1, Midjourney 6, Gemini 2.5 Flash, Nano Banana und viele weitere.
Wo liegen die Grenzen des Tools?
Das Tool arbeitet am besten mit Bildern in Originalauflösung. Screenshots oder skalierte Versionen verlieren oft wichtige Signale. Rauschen oder starke JPEG-Kompression erhöhen die Unsicherheit. Derzeit ist das Tool für Gesichter und menschenzentrierte Bilder optimiert; unbelebte Objekte oder Landschaften sind schwerer zu erkennen.
Kann das Tool irren?
Kurz gesagt: Ja. Kein KI-Tool ist perfekt. Es gibt zwei Fehlerszenarien: 1. False Positives: Ein echtes Bild wird als Fake markiert. False Negatives: Ein manipuliertes Bild wird als echt eingestuft. Deshalb verfolgen wir die Philosophie „Assistieren, nicht ersetzen“. Unser Dashboard ergänzt die Forensik um die Kontextanalyse für eine 360-Grad-Bewertung, um Faktenchecker bestmöglich zu unterstützen.
Werden Medienberichte und Social-Media-Posts in die Score-Berechnung einbezogen?
Nein, der Authentizitäts-Score basiert rein auf der Bildforensik. Die Kontextanalyse unterhalb der Scores arbeitet unabhängig davon.
Beeinflussen Weichzeichner (z. B. „Beautifier“) die Erkennung?
Wenn diese Filter in erheblichem Maße generative KI nutzen, schlägt der Detektor an. Da die Wirkung dieser Filter jedoch stark variiert, arbeiten wir kontinuierlich daran, die Robustheit gegenüber solchen Einflüssen zu verbessern.
Die API
Was sind die Voraussetzungen für die Gretchen AI API?
Welche Vorteile und Nachteile hat die Integration?
Medien-Kontextanalyse
Was macht die Kontextanalyse?
Sie arbeitet unabhängig vom Authentizitäts-Score und sucht im Web nach identischen, ähnlichen oder ereignisbezogenen Bildern. Die Ergebnisse werden in Clustern dargestellt. Per Klick auf ein Referenzbild sehen Sie, welche Quellen welche Informationen (Datum, Ort, etc.) verbreiten, was Widersprüche sofort sichtbar macht. Die Farben der Grafiken stehen für die Quellentypen und sind anpassbar.
Werden Ergebnisse in gespeicherten Projekten automatisch aktualisiert?
Nein, gespeicherte Projektdaten sind statisch. Dies dient der Konsistenz und Nachvollziehbarkeit Ihrer Analyse. Um neue Funktionen oder aktuellere Modelle zu nutzen, führen Sie die Analyse einfach in einem neuen Projekt erneut durch.
Wie aktuell sind die Suchergebnisse?
Unser Suchindex wird regelmäßig aktualisiert. Große Websites werden im Schnitt zweimal täglich indexiert. Die Ergebnisse im Dashboard zeigen den Stand am Tag der Analyse. Für aktuellste Web-Daten starten Sie bitte eine neue Suche.
Woher stammen die Listen der vertrauenswürdigen Quellen und Fact-Checking-Dienste?
Die Fact-Checking-Liste entspricht der monatlich aktualisierten Liste der IFCN-Mitglieder (siehe ifcncodeofprinciples.poynter.org). Um in diese Liste aufgenommen zu werden, muss eine Organisation die Verpflichtung zu Überparteilichkeit, Fairness, Transparenz der Quellen, der Finanzierung und der Methodik sowie zu offenen Korrekturen nachweisen. Wichtig: Jede Quellenliste kann verwaltet und – falls gewünscht – vollständig überschrieben werden.
Kann die Zeitachse (Timeline) falsche Ergebnisse liefern?
Ja, gelegentlich können Zeitstempel irreführend sein. Dies passiert oft bei Archivseiten von Medienhäusern, wenn der Zeitstempel das Datum der Archivseite anzeigt und nicht das ursprüngliche Veröffentlichungsdatum des Artikels, in dem das Bild erschien.
Was passiert, wenn kein Referenzbild oder Original im Web gefunden wird?
Selbst wenn kein direktes Duplikat gefunden wird, zeigt das System ähnliche Bilder an. Unabhängig von den Suchergebnissen wird der Authentizitäts-Score für Ihr Bild immer berechnet.
Was ist die ereignisbasierte Bildsuche?
Dies ist eine spezialisierte Methode, die über die Standard-Rückwärtssuche hinausgeht. Sie findet nicht nur Kopien, sondern bestimmt den Kontext und Zeitraum eines Ereignisses. Wir suchen nach dem identischen Ereignis, was verschiedene Kameraperspektiven desselben Geschehens liefern kann – dies erhöht den Erkenntnisgewinn signifikant.