11 January 2021
Dr. Kevin Bauer

Künstliche Intelligenz im Alltag verstehen

Künstliche Intelligenz prägt unseren Alltag mehr, als viele denken. Von Sprachassistenten bis hin zu smarten Empfehlungen - die Technologie entwickelt sich rasant. Dabei bleibt jedoch die Frage der Erklärbarkeit offen. Wir beleuchten, wie AI unser Leben beeinflusst und welche Chancen und Herausforderungen damit einhergehen.

Bild mit der Aufschrift 'KI'

Künstliche Intelligenz in unserem täglichen Leben

Künstliche Intelligenz (KI) ist ein Bereich der Informatik, der sich mit der Synthese menschlicher Intelligenz befasst. Das Gebiet schöpft aus verschiedenen Disziplinen, einschließlich Psychologie, Neurobiologie, Verhaltenswissenschaft und Ingenieurwesen. Obwohl das Ziel, einen intelligenten Agenten mit breiten, kreativen Problemlösungsfähigkeiten zu konstruieren, die mit denen von Menschen vergleichbar sind, auf absehbare Zeit unerreichbar erscheint, sind KI-Anwendungen bereits Teil unseres Alltagslebens.

Beliebte Beispiele sind unter anderem intelligente Assistenten (z.B. Apples Siri oder Amazons Alexa), Objekterkennung (automatisierte Fotobeschreibung von Instagram) und intelligente Empfehlungen (z.B. Filmempfehlungen von Netflix).

Im Kern verwenden die mächtigsten KI-Anwendungen, wie Deep Convolutional Neural Networks oder Recurrent Neural Networks, große Mengen komplexer Trainingsdaten, um versteckte Muster zu erkennen und letztendlich hochpräzise Vorhersagen über unsichere (zukünftige) Zustände zu treffen. Die hohe Vorhersageleistung modernster maschineller Lernmodelle geht häufig zu Lasten der Transparenz und Interpretierbarkeit der Vorhersagen, da Maschinen keine für Menschen verständlichen Informationen vermitteln können, warum sie zu bestimmten Ergebnissen kommen. Aus diesem Grund werden maschinelle Lernanwendungen oft als Black Boxes bezeichnet, deren Funktionsweise weder von den Designer:innen noch von den Nutzer:innen vollständig verstanden wird. Die fehlende Interpretierbarkeit kann aus mehreren Gründen bedenklich sein.

Erstens schafft die Undurchsichtigkeit maschinell generierter Ergebnisse im Großen und Ganzen Probleme bei der Verantwortung, Haftung und Prüfung. Das erschwert es naturgemäß, voreingenommene oder diskriminierende Ergebnisse zu erkennen und macht die Klärung von Haftungsfragen schwierig. Zweitens, wenn Entwickler:innen und Nutzer:innen keine Erklärungen über die inneren Abläufe von KI-Anwendungen erhalten, beraubt das die Möglichkeit, das Design des Systems zu verbessern und neue Erkenntnisse von der Maschine zu lernen, die menschliche Problemlösungsfähigkeiten verbessern können. Dieser Aspekt ist besonders ein erhebliches Hindernis für die Fähigkeit der KI, die wirtschaftliche Effizienz und das menschliche Wohlergehen zu verbessern, indem neue Domänenkenntnisse aufgedeckt werden, die in komplexen Big Data versteckt sind. Drittens kann die Black-Box-Natur maschineller Lernanwendungen das Vertrauen der Menschen in ihre Leistungsfähigkeit negativ beeinflussen und letztlich ihre Akzeptanz beeinträchtigen.

Der Aufstieg der erklärbaren KI (XAI) und die Zukunft technologiezentrierter Menschlichkeit

Das Ziel der erklärbaren Künstlichen Intelligenz (XAI) ist es, die dargelegten Probleme im Zusammenhang mit der Black-Box-Natur zu mildern, indem die Verarbeitungsschritte der KI zwischen Eingabe und Ausgabe auf eine Weise erklärt werden, die für Menschen verständlich ist. Es gibt mehrere Ansätze, um die Black Box zu öffnen. Auf einer hohen Ebene kann man zwischen intrinsischen Erklärmethoden und posthoden Erklärmethoden unterscheiden.¹

Intrinsische Methoden sind effektiv Modelle, die von Natur aus selbsterklärend sind und eine sofort menschlich lesbare Interpretation davon bieten, wie sie bestimmte Dateninputs in Outputs umwandeln. Dies sind relativ einfache Modelle, deren innere Struktur Menschen ohne zusätzliche Transformationen nachvollziehen können. Post-hoc-Methoden drehen sich hingegen um das Erreichen der Interpretierbarkeit eines gegebenen komplexen maschinellen Lernmodells durch den Bau eines zweiten, einfacheren Modells (genannt Surrogat-Modell), das das Verhalten des komplexeren Modells annähert, aber für Menschen interpretierbar ist.

Angesichts der Tatsache, dass KI-Anwendungen in der Regel durch hohe Skalierbarkeit gekennzeichnet sind, ist es ermutigend, dass Forscher:innen, politische Entscheidungsträger:innen und Praktiker:innen gleichermaßen zunehmend nach Standards für Erklärungen darüber rufen, wie und warum eine KI-Anwendung eine spezifische Ausgabe produziert. Eine wachsende Zahl regulatorischer Bemühungen, wie die Europäische Datenschutz-Grundverordnung oder die Verordnung zum freien Fluss nicht-personenbezogener Daten, fordern, dass Menschen, die mit KI-Anwendungen interagieren, insbesondere diejenigen, die davon betroffen sind, ein Recht auf eine Erklärung haben.

Potentielle Nachteile

Obwohl der Schritt zur Förderung der Interpretierbarkeit von KI-Anwendungen aus verschiedenen Blickwinkeln wünschenswert ist, gibt es auch mögliche Nachteile. Systeme verständlich zu machen, ist möglicherweise nicht immer ohne erhebliche Leistungseinbußen möglich. In Situationen, in denen die hohe Genauigkeit von KIVorhersagen wichtiger ist als hohe Transparenz (z. B. die richtige Krebsdiagnose), kann es unerwünscht sein, KI-Systeme interpretierbar zu machen.

Ein weiteres Problem ist der Datenschutz. Systemen interpretierbar zu machen, kann manchmal sensible (persönliche) Daten offenlegen, die bestimmte Interessengruppen strikt ablehnen oder die sogar gesetzlich verboten sind. Es ist wichtig zu beachten, dass Erklärungen auch nicht korrekt sein und (absichtlich) irreführend sein können.

Dies kann dazu führen, dass Nutzer:innen und Betroffene eher bereit sind, sich auf die KI-Ausgaben zu verlassen und ihnen zu folgen, obwohl diese falsch sind. Ähnlich können die Beobachter:innen von Erklärungen Erkenntnisse über die Beziehung zwischen den Ein- und Ausgaben des KI-Systems ableiten, die es ihnen ermöglichen, das System zu umgehen (z. B. zu verstehen, wie man bei Steuerhinterziehung nicht entdeckt wird) oder ihre Wahrnehmungen unerwünscht anzupassen (z. B. die Annahme, dass Geschlecht ein bestimmender Faktor für die Bereitschaft einer Person ist, hart zu arbeiten).

Verschiedene Lösungen für unterschiedliche Anforderungen

Schließlich, wie bei vielen Methoden und Anforderungen, wird eine Einheitsgröße wahrscheinlich nicht für all diese Techniken passen. Verschiedene Interessengruppen benötigen unterschiedliche Erklärungen. Entwickler:innen und Personen, die für die Wartung von KI-Anwendungen verantwortlich sind, benötigen beispielsweise eine detailliertere Erklärung der spezifischen mathematischen Berechnungen als die Endnutzenden, die eine hochrangige Erklärung der relevantesten Determinanten der Ausgaben benötigen.

¹Weitere Informationen findest du hier: Bauer, K., Hinz, O., van der Aalst, W., & Weinhardt, C. (2021). Expl (AI) n It to Me–Explainable AI and Information Systems Research

Werde ein:e lebenslange:r Lernende:r und erwerbe 21. Jahrhundert-Fähigkeiten in KI, indem du dich über den B.Sc. in KI & Nachhaltige Technologien informierst.

Dr. Kevin Bauer
Join our learning experience
Zwei lächelnde junge Frauen mit lockigem Haar teilen sich Kopfhörer und schauen gemeinsam auf ein Handy, beide mit Rucksäcken.Zwei lächelnde junge Frauen mit lockigem Haar teilen sich Kopfhörer und schauen gemeinsam auf ein Handy, beide mit Rucksäcken.Get Brochure