Translate

on

"Das Schwierigste auf der Welt ist die Einkommensteuer." Dieses Zitat
kommt von dem Mann, der die Relativitätstheorie entwickelt hat – nicht genau die
am einfachsten zu verstehendes Konzept. Hatte er ein bisschen länger gelebt, Albert?
Einstein hätte vielleicht "KI" statt "Einkommensteuer" sagen können.

Einstein starb 1955, ein Jahr bevor das erste Programm für künstliche Intelligenz – Logic Theorist – auf dem Dartmouth Summer Research Project on Artificial Intelligence vorgestellt wurde. Von da an wurde das allgemeine Konzept der Denkmaschinen zu einem festen Bestandteil der populären Unterhaltung, von Robby the Robot bis HAL. Aber die Details der KI sind für die meisten Menschen mindestens so schwer zu verstehen wie die Einkommenssteuer. Das Problem der KI-Erklärbarkeit ist bis heute eine harte Nuss, die selbst das Talent von Experten auf die Probe stellt. Der Kern des Problems besteht darin, eine nützliche Antwort darauf zu finden: Wie kommt die KI zu ihren Schlussfolgerungen und Vorhersagen?

Es erfordert viel Fachwissen, um tiefe neuronale Netze zu entwerfen, und noch mehr, um sie effizient zu betreiben – "Und selbst wenn sie ausgeführt werden, sind sie schwer zu erklären", sagt Sheldon Fernandez, CEO von DarwinAI. Die Generative Synthesis AI-gestützte Designplattform des Unternehmens, GenSynth, bietet detaillierte Einblicke in das Verhalten eines neuronalen Netzwerks – warum es entscheidet, was es entscheidet – und hilft Entwicklern, ihre eigenen Deep-Learning-Modelle zu verbessern.

Die Öffnung der „Black Box“ der KI ist von entscheidender Bedeutung, da die Technologie immer mehr Branchen betrifft – Gesundheitswesen, Finanzen, Fertigung. "Wenn Sie nicht wissen, wie etwas zu seinen Entscheidungen gelangt, wissen Sie nicht, wo es fehlschlagen wird und wie Sie das Problem beheben können", sagt Fernandez. Er merkt auch an, dass regulatorische Mandate ein Anstoß dafür sind, ein gewisses Maß an Erklärung für die Ergebnisse von Modellen des maschinellen Lernens liefern zu können, da Gesetze wie die DSGVO verlangen, dass die Menschen das Recht auf eine Erklärung für die automatisierte Entscheidungsfindung haben.

Big Player Fokus auf KI-Erklärbarkeit

Das Erklärbarkeitsproblem – auch als Interpretierbarkeitsproblem bekannt – ist ein Fokus für die großen Waffen in der Technologie. Im November kündigte Google seinen nächsten Schritt zur Verbesserung der Interpretierbarkeit von KI mit Google Cloud AI Explanations an, mit dem der Beitrag jedes Datenfaktors zur Ausgabe eines maschinellen Lernmodells quantifiziert wird. Laut Google helfen diese Zusammenfassungen Unternehmen zu verstehen, warum das Modell die getroffenen Entscheidungen getroffen hat – Informationen, mit denen Modelle weiter verbessert oder nützliche Erkenntnisse mit den Verbrauchern des Modells ausgetauscht werden können.

"Mit erklärbarer KI können Sie als Kunde, der KI in einem Unternehmenskontext oder einem Unternehmensprozess verwendet, verstehen, warum die KI-Infrastruktur zu einem bestimmten Ergebnis geführt hat", sagte Thomas Kurian, CEO von Google Cloud. „Wenn Sie beispielsweise KI für die Kreditbewertung verwenden, möchten Sie verstehen können:‚ Warum hat das Modell einen bestimmten Kreditantrag nicht abgelehnt und einen anderen akzeptiert? 'Die erklärbare KI bietet Ihnen die Möglichkeit zu verstehen das. “

Im Oktober kündigte Facebook Captum an, ein Tool zur Erklärung von Entscheidungen, die von neuronalen Netzen mit dem Deep-Learning-Framework PyTorch getroffen wurden. "Captum bietet hochmoderne Tools, um zu verstehen, wie sich die Bedeutung bestimmter Neuronen und Schichten auf die von den Modellen gemachten Vorhersagen auswirkt", sagte Facebook.

Der SageMaker-Debugger von Amazon für seinen von SageMaker verwalteten Dienst zum Erstellen, Ausführen und Bereitstellen Modelle für maschinelles Lernen interpretieren die Funktionsweise eines Modells als „einen frühen Schritt in Richtung Erklärbarkeit des Modells“, so das Unternehmen. Debugger war eines der Tool-Upgrades für SageMaker, die Amazon letzten Monat angekündigt hat.

Wie weit
Ist erklärbare KI gekommen?

Im Dezember präsentierte DarwinAI auf der NeurIPS 2019 akademische Forschungsergebnisse zur Frage, wie Unternehmen KI-generierten Erklärungen vertrauen können. Die Studie, die in dem Artikel erläutert wurde. Reflektieren Erklärungen Entscheidungen? Eine maschinenzentrierte Strategie zur Quantifizierung der Leistung von Erklärbarkeitsalgorithmen untersuchte eine maschinenzentrierte Strategie zur Quantifizierung der Leistung von Erklärbarkeitsmethoden in tiefen Faltungs-Neuronalen Netzen.

Das Team hinter der Forschung quantifizierte die Bedeutung von kritisch
Faktoren, die durch eine Erklärbarkeitsmethode für eine bestimmte Entscheidung von a
Netzwerk; Dies wurde erreicht, indem die Auswirkungen identifizierter Faktoren auf untersucht wurden
die Entscheidung und das Vertrauen in die Entscheidung.

Unter Verwendung dieses Ansatzes für Erklärbarkeitsmethoden wie LIME, SHAP, Expected Gradients und seine proprietäre GSInquire-Technik ergab die Analyse:

„Dies zeigte, dass im Fall von visuellen Wahrnehmungsaufgaben wie z Als Bildklassifizierung können einige der beliebtesten und am weitesten verbreiteten Methoden wie LIME und SHAP Erklärungen liefern, die möglicherweise nicht so reflektierend sind, wie erwartet, was das tiefe neuronale Netzwerk nutzt, um Entscheidungen zu treffen. Neuere Methoden wie Expected Gradients und GSInquire zeigten in allgemeinen Szenarien eine deutlich bessere Leistung. “

Das Papier stellt jedoch fest, dass ein erheblicher Spielraum für vorhanden ist
Verbesserung im Erklärbarkeitsbereich.

AI muss sein
Vertrauenswürdig

Gartner ging in seinem jüngsten Bericht Cool Vendors in Enterprise AI Governance und Ethical Response auf das Problem der Erklärbarkeit ein. " Die Einführung von KI wird durch Probleme im Zusammenhang mit mangelnder Regierungsführung und unbeabsichtigten Konsequenzen behindert", sagte das Forschungsunternehmen. DarwnAI, Fiddler Labs, KenSci, Kyndi und Lucd werden als coole Anbieter für die Anwendung neuartiger Ansätze genannt, mit denen Unternehmen ihre Governance und Erklärbarkeit von KI-Lösungen verbessern können.

Die profilierten Unternehmen verwenden eine Vielzahl von KI-Techniken, um ML-Modelle mit „Black Box“ in leichter verständliche, transparentere „Glasbox“ -Modelle umzuwandeln, so Gartner:

„Die Fähigkeit, AI-basierten Lösungen zu vertrauen, ist Entscheidend für das Risikomanagement “, heißt es in dem Bericht und rät den Verantwortlichen für KI-Initiativen im Rahmen von Daten- und Analyseprogrammen,„ Prioritäten bei der Verwendung von KI-Plattformen zu setzen, die adaptive Governance und Erklärbarkeit bieten, um Freiheit und Kreativität in Data-Science-Teams zu unterstützen und auch die zu schützen Organisation vor Reputations- und regulatorischen Risiken. “

Gartner
prognostiziert, dass bis 2022 KI-Projekte von Unternehmen mit integrierter Transparenz durchgeführt werden
mit 100% höherer Wahrscheinlichkeit von CIOs finanziert werden.

Erklärbar
KI für alle

Erklärbarkeit dient nicht nur dazu, Softwareentwicklern zu helfen
auf technischer Ebene verstehen, was passiert, wenn ein Computerprogramm
funktioniert nicht, sondern erklärt auch Faktoren, die Entscheidungen in gewisser Weise beeinflussen
Das macht für nicht-technische Benutzer Sinn, sagt Fernandez – warum ihre Hypothek
wurde zum Beispiel abgelehnt. Es ist "Erklärbarkeit in Echtzeit".

Die Unterstützung dieses Bedarfs wird nur an Bedeutung gewinnen
Verbraucher werden bei ihren täglichen Transaktionen zunehmend von KI berührt.
Anhänger folgen auf den Fersen von Early-Adopter-Branchen wie
Automobil-, Luft- und Raumfahrt- und Unterhaltungselektronik. „Sie fangen an zu rechnen
dass Investitionen in KI zu einer existenziellen Notwendigkeit werden “, sagt er
Fernandez.

AI verändert bereits die Finanzdienstleistungsbranche, hat aber noch nicht jede Ecke erreicht. Das beginnt sich zu ändern. Als Beispiel weist Fernandez darauf hin, dass selbst die konservativsten Akteure die Botschaft verstehen:

„Banken in Kanada setzen selten auf neue und aufkommende Technologien“, sagt er, „aber wir sprechen jetzt mit zwei der Big Five, die wissen, dass sie diese haben schnell handeln, um für die Verbraucher und ihre Geschäftstätigkeit relevant zu sein. “

DarwinAI plant, seine Lösungen erheblich zu verbessern
Erklärbarkeitsmöglichkeiten mit einem neuen Angebot in den nächsten Monaten.

Bild verwendet unter Lizenz von
Shutterstock.com

Der Beitrag Arbeiten für eine erklärbare KI – DATENVERSITÄT erschien zuerst auf Business Intelligence Online.



Weiterlesen: https://ift.tt/2z5Skr2

0 comments:

Post a Comment