Nein, wir reden hier weder von einer Provinzhauptstadt in Mosambik noch von einer ausgestorbenen indigenen Sprache Brasiliens. Das oder vielmehr die XAI, die wir hier meinen, bedeutet Explainable Artificial Intelligence, also sowas wie erklärbare künstliche Intelligenz (KI). Ja, geht denn das überhaupt?
Nein, wir reden hier weder von einer Provinzhauptstadt in Mosambik noch von einer ausgestorbenen indigenen Sprache Brasiliens. Das oder vielmehr die XAI, die wir hier meinen, bedeutet Explainable Artificial Intelligence, also sowas wie erklärbare künstliche Intelligenz (KI). Ja, geht denn das überhaupt?
In der Tat scheint die Erklärbarmachung der KI ein ziemlich dornenreiches Unterfangen zu sein. Die Probleme fangen schon damit an, dass real existierende Anwendungen oft noch sehr «beta» wirken und dementsprechend schlecht funktionieren. Auch nicht hilfreich ist sicher, dass die Exponenten und Erfinder der KI oft den Eindruck hinterlassen, sie wüssten selbst nicht recht, was genau da im Hintergrund so abläuft. Fundamentaler wird es, wenn sich der KI unser angeborenes oder erworbenes Misstrauen entgegenstemmt, das wir allem gegenüber entwickeln, was wir nicht kennen oder verstehen. Und die vorderste Front bilden schliesslich allseits bewunderte Datenbarone wie Elon Musk, der prophezeit, die KI werde «der wahrscheinlichste Auslöser des dritten Weltkriegs» sein.
Glücklicherweise muss die XAI hier weder vermitteln noch Stellung beziehen. Sie versteht ihre Aufgabe einzig darin, den Anwendern die KI beliebt zu machen. Ketzer würden jetzt sagen: Sie soll für Marktanteile und Moneten zu sorgen. Aber damit täte man ihr auch wieder unrecht – immerhin will sie die KI ja nicht nur besser verkaufen, sondern auch verbessern. Dabei verfolgt sie zwei Ansätze: Zum einen hilft sie, die Modelle so zu gestalten, dass sie für Laien von vornherein leichter begreifbar werden – dies nennt sich dann Ante-Hoc-XAI. Zum anderen versucht sie die Outputs der Algorithmen im Nachhinein so zu erklären, dass sie ein breites Publikum auch verstehen kann. Das gehört dann zur Post-Hoc-XAI.
Wie auch immer man zur KI steht – sie verständlicher zu machen, ist sicher eine gute Idee. Schliesslich produziert, was nicht begriffen wird, auf Dauer eher mehr Ärger als Erträge.
Veröffentlicht in: Netzwoche Ausgabe 6, 2022
Wir freuen uns, von Ihnen zu hören.
Inhaber, Expert Consultant
Dr. Christopher H. Müller, Gründer und Inhaber der Ergonomen Usability AG, promovierte am Institut für Hygiene und Arbeitsphysiologie der ETH Zürich. Er ist seit mehr als 22 Jahren Experte für Usability und User Experience. Sein ausgeprägtes Einfühlungsvermögen ermöglicht es ihm, rasch die Bedürfnisse und Perspektiven der Kunden zu verstehen. Mit viel Kreativität und Mut unterstützt er seine Kunden in Digitalisierungsvorhaben und bei der Optimierung von Produkten, Dienstleistungen oder Prozessen. Er verfolgt einen praxisorientierten Ansatz und entwickelt massgeschneiderte Lösungen, die effektiv umgesetzt werden können. Dr. Christopher H. Müller ist Kolumnist in der Netzwoche. Weitere Engagements sind unter anderem Stiftungsrat bei der Stiftung Zugang für alle, Mitglied in zwei Swico-Beiräten und Co-Präsident der Regionalkonferenz Nördlich Lägern.