Was passiert, wenn künstliche Intelligenz Bilder erschafft, die von echten kaum mehr zu unterscheiden sind?
Am Fraunhofer IOSB entwickeln wir Verfahren der erklärbaren KI (XAI), die Deepfake-Erkennung transparenter, nachvollziehbarer und verlässlicher machen.
Denn in einer Welt synthetischer Medien genügt es nicht, Deepfakes zu finden – man muss auch verstehen, warum ein System sie erkennt.
Deepfakes stellen die Glaubwürdigkeit visueller Medien vor neue Herausforderungen.
Erklärbare KI (XAI) ermöglicht, Entscheidungen von Erkennungssystemen sichtbar und überprüfbar zu machen – eine Voraussetzung für Vertrauen und Qualität.
Dieser Beitrag erläutert, wie XAI im Kontext der Deepfake-Erkennung Transparenz schafft und technologische wie gesellschaftliche Verantwortung stärkt.
Deepfakes: Täuschend echt – und schwer zu erkennen
Deepfakes sind längst mehr als ein digitales Kuriosum.
Mit modernen Diffusions- oder GAN-Modellen lassen sich realistische Gesichter, Objekte und ganze Szenen erzeugen.
Diese neuen Möglichkeiten bergen Chancen – aber auch Risiken: Manipulierte Inhalte können Meinungen beeinflussen, Vertrauen erschüttern oder Beweise verfälschen.
Erkennungssysteme spielen daher eine zentrale Rolle – doch sie stoßen schnell an Grenzen, wenn ihre Entscheidungen nicht nachvollziehbar sind.
Eine KI, die „Fake“ sagt, ohne zu zeigen warum, bleibt letztlich eine Black Box.
XAI als Schlüssel zu Vertrauen und Robustheit
Explainable AI (XAI) macht sichtbar, wie ein Modell denkt:
Welche Bildregionen oder Merkmale führten zur Entscheidung? Welche Unsicherheiten bestehen?
Im Kontext der Deepfake-Erkennung ist das entscheidend – denn nur nachvollziehbare Systeme können Vertrauen schaffen, regulatorische Anforderungen erfüllen und gezielt verbessert werden.
Die vom BSI und Fraunhofer IOSB gemeinsam veröffentlichte Studie „Detection of Images Generated by Multi-Modal Models“ zeigt:
Erklärbare Verfahren liefern nicht nur bessere Einsichten, sondern ermöglichen auch eine fundierte Bewertung der Zuverlässigkeit von Erkennungssystemen.
Vom Erkennen zum Verstehen
XAI-Methoden decken auf, wo ein Deepfake „verrät“, dass es künstlich ist – etwa durch unnatürliche Texturen, fehlende Bildkonsistenz oder Frequenzartefakte.
Diese visuelle oder semantische Erklärung erlaubt es Menschen, Entscheidungen nachzuvollziehen – und schafft die Basis für Qualitätsbewertung und Weiterentwicklung.
Am Fraunhofer IOSB integrieren wir solche Erklärverfahren direkt in unsere Detektionspipelines, um Deepfake-Erkennung nicht nur technisch, sondern auch konzeptionell robuster zu gestalten.
Fazit
Die Zukunft sicherer und vertrauenswürdiger KI liegt in der Verbindung von Erkennung und Erklärbarkeit.
Deepfakes zu erkennen, ist wichtig – zu verstehen, warum, ist entscheidend.
Nur erklärbare Systeme können langfristig Vertrauen schaffen und den Missbrauch generativer KI eindämmen.
Weiterführende Informationen
BSI & Fraunhofer IOSB (2024): Detection of Images Generated by Multi-Modal Models.
https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/KI/Detection_Images_Multi-Modal_Models.html