„KI, die Menschen verstehen können“ Erklärbare KI erklären

Modelle für maschinelles Lernen und Deep Learning sind im Allgemeinen für die Klassifizierung und Vorhersage effektiv, aber praktisch nie perfekt. Modelle haben fast immer einen gewissen Prozentsatz an falsch positiven und falsch negativen Vorhersagen. Während dieser Fehler in einigen Fällen toleriert werden kann, ist er bei kritischen Aufgaben problematisch. Wenn beispielsweise ein Drohnenwaffensystem eine Schule fälschlicherweise als terroristischen Stützpunkt identifiziert, könnte es unbeabsichtigt unschuldige Kinder und Lehrer töten, es sei denn, menschliche Arbeiter verhindern die Entscheidung zum Angriff.

Vor dem Zulassen oder Abbrechen eines Angriffs müssen die Arbeiter wissen, warum die KI eine Schule als Angriffsziel eingestuft hat und wie unsicher ihre Entscheidungsfindung ist. Es gibt eindeutige Beispiele für Terroristen, die Schulen, Krankenhäuser und religiöse Einrichtungen als Stützpunkte für Raketenangriffe nutzen. War die betreffende Schule eine dieser Schulen? Gibt es irgendwelche Geheimdienstinformationen oder neuere Beobachtungen, dass die Schule derzeit von solchen Terroristen besetzt ist? Gibt es Berichte oder Beobachtungen, dass die Schule keine Schüler oder Lehrer hat?
CarlosCastilla / Getty Images

Ohne eine solche Erklärung ist das Modell im Wesentlichen eine Blackbox, was ein großes Problem darstellt. Bei hochwirksamen KI-Entscheidungen (die nicht nur Auswirkungen auf das Leben, sondern auch monetäre oder regulatorische Auswirkungen umfassen) ist es wichtig, ein klares Verständnis davon zu haben, welche Faktoren sich in der Entscheidungsfindung des Modells widerspiegeln.

Was ist erklärbare KI?

Erklärbare KI (XAI), auch als interpretierbare KI bekannt, bezieht sich auf Methoden des maschinellen Lernens und des Deep Learning, die die Entscheidungen der KI für den Menschen verständlich erklären können. Die ultimative Hoffnung ist, dass XAI irgendwann so genau wie ein Black-Box-Modell sein wird.

Die Erklärbarkeit kann entweder anti-hoc (ein direkt interpretierbares White-Box-Modell) oder post-hoc (eine Technik zum Erklären eines zuvor trainierten Modells oder seiner Vorhersagen) sein. Anti-hoc-Modelle umfassen erklärbare neuronale Netze (xNN), erklärbare Boosting-Maschinen (EBM), ultrasparse lineare Integer-Modelle (SLIM), inverse temporale Aufmerksamkeitsmodelle (RETAIN) und Bayesian Deep Learning (BDL).

Post-hoc-Erklärungsmethoden umfassen lokal interpretierbare modellunabhängige Erklärungen (LIME) und kumulative lokale Effekt (ALE)-Plots, ein- und zweidimensionale partielle Abhängigkeits-Plots (PDP), individuelle bedingte Erwartungen (ICE)-Plots und Entscheidungsbaumsubstitution Modelle. Lokale und globale Modellvorhersagevisualisierungen wie

So funktioniert der XAI-Algorithmus

Wenn Sie auf alle obigen Links klicken, um die Dokumentation zu lesen, können Sie diesen Abschnitt überspringen. Nachfolgend eine kurze Zusammenfassung. Die ersten fünf sind Anti-hoc-Modelle, der Rest sind Post-hoc-Methoden.

erklärbare neuronale Netze

Erklärbare neuronale Netze (xNNs) basieren auf additiven Indexmodellen, die komplexe Funktionen approximieren können. Die Elemente dieser Modelle werden Projektionsindizes und Ridgefunktionen genannt. xNN ist ein neuronales Netz, das entwickelt wurde, um additive Indexmodelle zu lernen, und subneuronale Netze lernen Ridge-Funktionen. Die erste versteckte Schicht verwendet eine lineare Aktivierungsfunktion, und das subneurale Netzwerk besteht normalerweise aus mehreren vollständig verbundenen Schichten und verwendet eine nichtlineare Aktivierungsfunktion.

xNN kann als erklärendes Vorhersagemodell verwendet werden, das direkt aus Daten innerhalb von xNN selbst erstellt wird. Es kann auch als alternatives Modell verwendet werden, um andere nicht-parametrische Modelle wie baumbasierte Verfahren und neuronale Feed-Forward-Netze zu beschreiben. Sie können das Papier von Wells Fargo aus dem Jahr 2018 auf xNN sehen.

erklärbare Boosting-Maschine

Wie in unserem Review zu Azure AI and Machine Learning erwähnt, hat Microsoft das InterpretML-Paket als Open Source veröffentlicht und in das Explanation-Dashboard von Azure Machine Learning integriert. Zu den vielen Funktionen von InterpretedML gehört das “Glassbox”-Modell von Microsoft Research, das als Explainable Boosting Machine (EBM) bezeichnet wird.

EBM ist so konzipiert, dass es einfach zu interpretieren ist und gleichzeitig die gleiche Genauigkeit wie Random Forests und Boosting Trees hat. Es ist ein generalisiertes additives Modell mit mehreren Verbesserungen. EBM lernt jede Feature-Funktion mit modernen Machine-Learning-Techniken wie Bagging und Gradient Boosting. Da die Boosting-Prozedur auf das sequentielle Lernen eines Merkmals nach dem anderen unter Verwendung einer sehr niedrigen Lernrate beschränkt ist, ist die Merkmalsreihenfolge kein Problem. Es kann auch paarweise Interaktionsterme erkennen und einschließen. C++- und Python-Implementierungen sind parallelisierbar.

Ultradünnes lineares Integer-Modell

Ultrasparse Linear Integer Model (SLIM) ist ein ganzzahliges Programmierproblem, das direkte Messungen der Genauigkeit (0-1 Verlust) und Sparsity (10-Halb-Standard) optimiert, während die Koeffizienten auf einen kleinen Satz von disjunkten ganzen Zahlen begrenzt werden. SLIM könnte ein datengesteuertes Bewertungssystem schaffen, das für medizinische Untersuchungen nützlich ist.

Zeitumkehr-Aufmerksamkeitsmodell

Das Reverse Temporal Attention (RETAIN)-Modell ist ein interpretierbares Vorhersagemodell für elektronische Patientenaktendaten (EHR). RETAIN erreicht eine hohe Genauigkeit bei gleichzeitiger Beibehaltung der klinischen Interpretierbarkeit. Es basiert auf einem zweistufigen neuronalen Aufmerksamkeitsmodell, das historische Besuche mit Auswirkungen und wichtige klinische Variablen innerhalb dieser Besuche erkennt (Primärdiagnose). RETAIN ahmt Ärzte in einer Weise nach, die EHR-Daten in umgekehrter chronologischer Reihenfolge untersucht, wodurch die jüngsten klinischen Besuche wahrscheinlicher auf ein höheres Interesse stoßen. Die im RETAIN-Papier diskutierten Testdaten sagten eine Herzinsuffizienz auf der Grundlage von Langzeitdiagnosen und Medikamenten voraus.

Bayesianisches Deep Learning

Bayesian Deep Learning (BDL) bietet eine prinzipielle Unsicherheitsabschätzung in Deep-Learning-Architekturen. Grundsätzlich ist BDL eine Methode zur Modellierung eines Netzwerk-Ensembles, indem Gewichtungen aus einer gelernten Wahrscheinlichkeitsverteilung genommen werden, wodurch das Problem gelöst werden kann, dass die meisten Deep-Learning-Modelle ihre eigene Unsicherheit nicht modellieren können. BDL verdoppelt normalerweise die Anzahl der Parameter.


Source: ITWorld Korea by www.itworld.co.kr.

*The article has been translated based on the content of ITWorld Korea by www.itworld.co.kr. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!