In der rasch fortschreitenden Welt der Künstlichen Intelligenz (KI) stehen wir an der Schwelle zu einer neuen Ära der Technologiegestaltung und -regulierung. Der AI Act zielt darauf ab, einen umfassenden rechtlichen Rahmen für den Einsatz von KI-Systemen zu schaffen. Parallel dazu gewinnt das Konzept der Erklärbaren KI (Explainable AI, XAI) an Bedeutung – als Schlüssel, um die Funktionsweise komplexer KI-Modelle zu demystifizieren und ihre Entscheidungen für den Menschen nachvollziehbar zu machen. Diese beiden Entwicklungen sind nicht isoliert zu betrachten; vielmehr sind sie miteinander verflochten und bilden gemeinsam einen Wegweiser für eine vertrauenswürdige und nachhaltige Zukunft der KI.
Der AI Act: Ein Pionier in der KI-Regulierung
Der AI Act unterteilt KI-Systeme in verschiedene Kategorien basierend auf ihrem Risiko. Diese Klassifikationen haben direkte Auswirkungen auf die Anforderungen bezüglich Transparenz und Erklärbarkeit, die für diese Systeme gelten. Im folgenden werden die verschiedenen Kategorien im AI Act unterschieden und ihre Bedeutung im Kontext der Erklärbaren KI näher beleuchtet:
- Hohes Risiko: Hochrisikobehaftete KI-Systeme, wie sie im AI Act definiert sind, umfassen Anwendungen, die ein erhebliches Risiko für die Sicherheit, die Grundrechte und das Wohlbefinden von Personen darstellen. Dazu gehören beispielsweise KI-Systeme für biometrische Identifikation, kritische Infrastrukturen, sowie die Bereitstellung von Bildung und Arbeitsplatzsuche. Für diese Systeme gelten die strengsten Anforderungen bezüglich Transparenz und Erklärbarkeit. Es wird erwartet, dass sie ihre Entscheidungen nicht nur offenlegen, sondern auch verständlich machen können, um potenzielle Auswirkungen und Risiken für die Nutzer zu erklären.
- Geringes bis minimales Risiko: In den Kategorien gering bis minimale risikobehaftete KI-Systeme sind Anwendungen enthalten, die zwar weniger potenzielle Risiken bergen, aber dennoch Auswirkungen auf die Rechte und Freiheiten von Einzelpersonen haben können. Hierbei könnten beispielsweise KI-Systeme zur personalisierten Werbung, zur Bewertung von Kreditwürdigkeit oder zur Personalbeschaffung eingeordnet werden. Auch für diese Systeme fordert der AI Act eine gewisse Transparenz und Erklärbarkeit, jedoch nicht in demselben Umfang wie für hochrisikobehaftete Systeme.
Der AI Act betont die Bedeutung von Vertrauen und Sicherheit in der KI, indem er fordert, dass KI-Systeme fair, transparent und nachvollziehbar sein müssen.
Erklärbare KI: Der Schlüssel zur Entschlüsselung von KI-Entscheidungen
Erklärbare KI geht über die reine technische Leistung hinaus und adressiert die dringende Notwendigkeit, KI-Entscheidungsprozesse für den Menschen verständlich zu machen. KI-Systeme werden zunehmend Entscheidungen treffen, die das menschliche Leben beeinflussen. Damit ist die Fähigkeit, KI-Entscheidungen zu verstehen und zu hinterfragen, von unschätzbarem Wert. Erklärbare KI fördert nicht nur das Vertrauen der Nutzer in KI-Anwendungen, sondern erleichtert auch die Einhaltung gesetzlicher Vorgaben, wie sie im AI Act festgelegt sind.
Die Synergie von AI Act und Erklärbarer KI
Die Kombination aus dem regulatorischen Rahmen des AI Act und den Prinzipien der Erklärbaren KI bietet einen vielversprechenden Ansatz für die Entwicklung und Implementierung von KI-Systemen. Einerseits gewährleistet der AI Act, dass KI-Entwicklungen innerhalb eines sicheren und gerechten Rahmens stattfinden. Andererseits ermöglicht Erklärbare KI, dass diese Entwicklungen transparent sind.
Diese Synergie kann nicht nur die Akzeptanz und das Vertrauen in KI-Technologien erhöhen, sondern auch sicherstellen, dass die Entwicklung von KI im Einklang mit ethischen Grundsätzen erfolgt. Indem Entwickler und Regulierungsbehörden zusammenarbeiten, um beide Aspekte zu integrieren, können wir ein Umfeld schaffen, in dem KI-Technologien zum Wohl der Gesellschaft beitragen.
Ein Blick in die Zukunft
Während der AI Act seinen Weg durch das legislative Verfahren der EU nimmt, bleibt die Forschung und Entwicklung im Bereich der Erklärbaren KI dynamisch und innovativ. Die Herausforderung besteht darin, Methoden zu entwickeln, die nicht nur technisch fortschrittlich, sondern auch in der Lage sind, komplexe KI-Entscheidungen auf eine Art und Weise zu erklären, die für jeden verständlich ist. Die Gruppe Explainable AI am Fraunhofer IOSB forscht genau zu diesem Thema, nämlich bislang undurchsichtige Blackbox-KI-Systeme mittels der umfangreichen XAI-Toolbox transparent zu gestalten.