Erklärbare KI (XAI): Transparenz in KI-Entscheidungen herstellen

Kernaussage: Erklärbare KI (Explainable AI, XAI) bezeichnet Methoden und Techniken, die KI-Entscheidungen für Menschen verständlich und nachvollziehbar machen — eine Voraussetzung für Vertrauen, Compliance und verantwortungsvolles KI-Deployment.

Was ist erklärbare KI?

Erklärbare KI (XAI) ist ein Forschungs- und Praxisfeld, das sich damit beschäftigt, wie KI-Modelle — insbesondere komplexe Deep-Learning-Modelle — ihre Entscheidungen transparent machen können.

Das Problem: Moderne KI-Modelle, insbesondere neuronale Netze, treffen Entscheidungen auf der Basis von Millionen von Parametern, die für Menschen nicht direkt interpretierbar sind. XAI-Methoden erzeugen Erklärungen, die zeigen, welche Eingabefeatures eine Entscheidung wie stark beeinflusst haben.

XAI ist nicht optional, wenn KI im hochriskanten Kontext eingesetzt wird: Die DSGVO gewährt betroffenen Personen das Recht auf eine "aussagekräftige Information über die involvierte Logik" bei automatisierten Entscheidungen (Artikel 22). Der EU AI Act fordert Transparenz gegenüber Deployer und menschliche Aufsicht — beides setzt erklärbare Modelle voraus.

Wichtige XAI-Methoden

LIME (Local Interpretable Model-Agnostic Explanations)

LIME erklärt einzelne Vorhersagen, indem es lokal um den Datenpunkt herum ein einfacheres, interpretierbares Modell anpasst und dessen Verhalten analysiert.

SHAP (SHapley Additive exPlanations)

SHAP ordnet jedem Feature einen Beitragsanteil an einer Modellentscheidung zu — basierend auf spieltheoretischen Shapley-Werten. SHAP ist besonders beliebt für tabellarische Daten und wird von Regulatoren zunehmend als Standard anerkannt.

Attention-Visualisierungen

In Transformer-Modellen (wie LLMs) können Attention-Maps zeigen, welche Teile eines Textes das Modell bei einer Entscheidung besonders stark gewichtet hat.

Intrinsisch interpretierbare Modelle

Statt Black-Box-Modelle nachträglich zu erklären, verwendet man von vornherein interpretierbare Modelle (Entscheidungsbäume, lineare Regression) — zu Lasten von Vorhersagegenauigkeit.

Praxisbeispiele im DACH-Kontext

Kreditinstitut in Frankfurt: Ein Kreditscoring-Modell liefert mit SHAP zu jeder Kreditentscheidung eine Erklärung in natürlicher Sprache: "Die Hauptgründe für die Ablehnung sind: hohe bestehende Verschuldung (+34 %), unregelmäßiges Einkommen (+28 %) und kurze Kredithistorie (+19 %)." Diese Erklärungen erfüllen die DSGVO-Informationspflichten.

Recruiting-Tool in Wien: Ein KI-Bewerbermanagementsystem zeigt HR-Managern neben dem Ranking-Score eines Kandidaten auch, welche Qualifikationen das Score besonders stark beeinflusst haben — Transparenz für eine informierte menschliche Endentscheidung.

Wie Knowlee Erklärbarkeit umsetzt

Knowlee integriert Erklärungen direkt in den Workflow: Jede KI-Empfehlung im Vertrieb — ob Lead-Priorisierung oder Outreach-Timing — zeigt die zugrundeliegenden Signale. Mitarbeitende verstehen nicht nur das "Was", sondern auch das "Warum" hinter KI-Empfehlungen.

FAQ

Ist vollständige Erklärbarkeit bei neuronalen Netzen möglich? Vollständige, technisch exakte Erklärungen sind bei komplexen neuronalen Netzen nicht immer erreichbar. XAI-Methoden liefern nützliche Annäherungen, die für Compliance und Vertrauen ausreichend sein können.

Was unterscheidet Erklärbarkeit von Interpretierbarkeit? Interpretierbarkeit beschreibt, inwieweit ein Modell selbst verständlich ist (z. B. ein Entscheidungsbaum). Erklärbarkeit beschreibt die Fähigkeit, nachträglich Erklärungen für Entscheidungen zu generieren — auch für Black-Box-Modelle.

Wann ist XAI gesetzlich verpflichtend? Bei automatisierten Entscheidungen mit rechtlicher oder ähnlich erheblicher Wirkung auf Personen (DSGVO Art. 22) und bei Hochrisiko-KI-Systemen nach EU AI Act, die menschliche Aufsicht erfordern.