Nein, wir reden hier weder von einer Provinzhauptstadt in Mosambik noch von einer ausgestorbenen indigenen Sprache Brasiliens. Das oder vielmehr die XAI, die wir hier meinen, bedeutet Explainable Artificial Intelligence, also sowas wie erklärbare künstliche Intelligenz (KI). Ja, geht denn das überhaupt?
Nein, wir reden hier weder von einer Provinzhauptstadt in Mosambik noch von einer ausgestorbenen indigenen Sprache Brasiliens. Das oder vielmehr die XAI, die wir hier meinen, bedeutet Explainable Artificial Intelligence, also sowas wie erklärbare künstliche Intelligenz (KI). Ja, geht denn das überhaupt?
In der Tat scheint die Erklärbarmachung der KI ein ziemlich dornenreiches Unterfangen zu sein. Die Probleme fangen schon damit an, dass real existierende Anwendungen oft noch sehr «beta» wirken und dementsprechend schlecht funktionieren. Auch nicht hilfreich ist sicher, dass die Exponenten und Erfinder der KI oft den Eindruck hinterlassen, sie wüssten selbst nicht recht, was genau da im Hintergrund so abläuft. Fundamentaler wird es, wenn sich der KI unser angeborenes oder erworbenes Misstrauen entgegenstemmt, das wir allem gegenüber entwickeln, was wir nicht kennen oder verstehen. Und die vorderste Front bilden schliesslich allseits bewunderte Datenbarone wie Elon Musk, der prophezeit, die KI werde «der wahrscheinlichste Auslöser des dritten Weltkriegs» sein.
Glücklicherweise muss die XAI hier weder vermitteln noch Stellung beziehen. Sie versteht ihre Aufgabe einzig darin, den Anwendern die KI beliebt zu machen. Ketzer würden jetzt sagen: Sie soll für Marktanteile und Moneten zu sorgen. Aber damit täte man ihr auch wieder unrecht – immerhin will sie die KI ja nicht nur besser verkaufen, sondern auch verbessern. Dabei verfolgt sie zwei Ansätze: Zum einen hilft sie, die Modelle so zu gestalten, dass sie für Laien von vornherein leichter begreifbar werden – dies nennt sich dann Ante-Hoc-XAI. Zum anderen versucht sie die Outputs der Algorithmen im Nachhinein so zu erklären, dass sie ein breites Publikum auch verstehen kann. Das gehört dann zur Post-Hoc-XAI.
Wie auch immer man zur KI steht – sie verständlicher zu machen, ist sicher eine gute Idee. Schliesslich produziert, was nicht begriffen wird, auf Dauer eher mehr Ärger als Erträge.
Veröffentlicht in: Netzwoche Ausgabe 6, 2022
Wir freuen uns, von Ihnen zu hören.
Owner, Expert Consultant
Dr. Christopher H. Müller, founder and owner of Ergonomen Usability AG, earned his PhD from the Institute for Hygiene and Applied Physiology at ETH Zurich. With over 22 years of experience, he is an expert in usability and user experience. His strong sense of empathy allows him to quickly understand the needs and perspectives of his clients. With creativity and courage, he supports his clients in their digitalization projects and the optimization of products, services, and processes. He takes a practical approach, developing tailored solutions that can be effectively implemented. Dr. Christopher H. Müller is a columnist for Netzwoche. He also serves as a board member for the Zugang für alle Foundation, and is a member of two Swico advisory boards and co-president of the Regional Conference Nördlich Lägern.