Was nützt die beste Erkennungsrate, wenn man die Entscheidung nicht versteht?
Am Fraunhofer IOSB entwickeln wir erklärbare KI-Verfahren (XAI), die nicht nur zeigen, dass ein Deepfake erkannt wurde, sondern auch wie.
So wird Erklärbarkeit selbst zum Werkzeug, um Erkennungssysteme messbar zu verbessern und menschliches Vertrauen zu stärken.
Explainable AI (XAI) verleiht der Deepfake-Erkennung Transparenz und Struktur.
Sie zeigt, wie Modelle entscheiden, und liefert Daten für ihre gezielte Optimierung.
Dieser Beitrag beschreibt, wie Fraunhofer IOSB XAI als methodischen Kern für nachvollziehbare, robuste und menschengerechte Detektionsverfahren einsetzt.
Deepfake-Erkennung braucht mehr als Zahlen
Deepfake-Erkennungssysteme liefern häufig nur Wahrscheinlichkeiten – ein Prozentwert, der „Fake“ signalisiert.
Doch diese Zahl erklärt nicht, warum die KI zu dieser Einschätzung gelangt.
Gerade bei sicherheitsrelevanten oder journalistischen Anwendungen ist das ein Problem.
XAI liefert hier den entscheidenden Mehrwert: Sie zeigt, welche Bildmerkmale, Texturen oder Regionen ein Modell als auffällig bewertet – und macht damit eine vorher unsichtbare Entscheidungslogik sichtbar.
Erklärbarkeit als Methode zur Modellverbesserung
Am Fraunhofer IOSB nutzen wir Erklärbarkeit nicht nur als Analysewerkzeug, sondern als Optimierungsmethode:
Indem wir nachvollziehen, wie ein Modell auf bestimmte Bildbereiche reagiert, können wir systematisch Schwachstellen erkennen – etwa Überempfindlichkeiten für Rauschen oder unzureichende Generalisierung auf neue Deepfake-Generatoren.
So werden Erklärungen selbst zu einem Lernsignal für das Modell. Das Ergebnis: präzisere, robustere und effizientere Detektionssysteme.
Wie XAI Erkennung und Transparenz verbindet
Unsere Forschung konzentriert sich auf drei Aspekte:
- Visuelle Erklärungen: Heatmaps oder Region-Attributionskarten zeigen, welche Teile eines Bildes zur Deepfake-Einstufung beitragen.
- Metrische Bewertung: Kennzahlen wie Insertion und Deletion Score messen, wie aussagekräftig eine Erklärung wirklich ist.
- Menschzentrierte Darstellung: Wir untersuchen, welche Formen der Visualisierung Menschen intuitiv verstehen – und wie sich Vertrauen durch klare Darstellung steigern lässt.
So entsteht eine messbare Erklärbarkeit, die technisches Verständnis und menschliche Wahrnehmung zusammenführt.
Optimierung durch Feedback
Erklärbare KI (XAI) liefert auch wertvolles Feedback für die Weiterentwicklung der Verfahren:
Wenn eine Erklärung zeigt, dass ein Modell falsche Regionen betont, kann das Training gezielt angepasst werden.
Damit fließen Erklärungen direkt in den Optimierungsprozess ein – die KI lernt, besser und zugleich verständlicher zu entscheiden.
Fazit
Erklärbare KI (XAI) macht aus Deepfake-Erkennung mehr als ein binäres Urteil.
Sie verwandelt sie in einen nachvollziehbaren Prozess, bei dem Mensch und Maschine gemeinsam verstehen, warum etwas als künstlich gilt.
So entsteht Vertrauen – und eine neue Qualität von Transparenz, die für den Einsatz in Medien, Sicherheit und Industrie unverzichtbar wird.