Erklärbare KI findet immer mehr Beachtung, da Kunden und Nutzer verstehen wollen, wie KI-Modelle zu ihren Vorhersagen und Schlussfolgerungen kommen. Es ist jedoch schwierig, “traditionelle” XAI-Ansätze auf Natural Language Processing/Understanding-Modelle anzuwenden, da Datenpunkte durch unterschiedliche Vorverarbeitungstechniken und Datentypen ihre Bedeutung verlieren. Larissa spricht über mögliche Umgehungen, Lösungen und Erfahrungen.