Deepfakes

Deepfakes 3/3: Erklärbare KI verbessert die Detektion

Je realistischer Deepfakes werden, desto wichtiger wird die Frage: Können wir der Erkennung trauen?Am Fraunhofer IOSB erforschen wir, wie erklärbare KI (XAI) künftig nicht nur Deepfakes erkennt, sondern ihre Erklärungen nutzt, um sich selbst zu verbessern.So entsteht eine neue Generation…

Deepfakes 2/3: Erklärbare KI macht Deepfake-Erkennung verständlich und präzise

Was nützt die beste Erkennungsrate, wenn man die Entscheidung nicht versteht?Am Fraunhofer IOSB entwickeln wir erklärbare KI-Verfahren (XAI), die nicht nur zeigen, dass ein Deepfake erkannt wurde, sondern auch wie.So wird Erklärbarkeit selbst zum Werkzeug, um Erkennungssysteme messbar zu verbessern…

Deepfakes 1/3: Warum erklärbare KI entscheidend für die Erkennung von Deepfakes ist

Was passiert, wenn künstliche Intelligenz Bilder erschafft, die von echten kaum mehr zu unterscheiden sind?Am Fraunhofer IOSB entwickeln wir Verfahren der erklärbaren KI (XAI), die Deepfake-Erkennung transparenter, nachvollziehbarer und verlässlicher machen.Denn in einer Welt synthetischer Medien genügt es nicht, Deepfakes…