Menschen, die Entscheidungen treffen, verfügen über Expertise, die weder von Maschinen gelernt wird, noch in die Empfehlungen von Maschinen Eingang findet. Wie kann die Nutzung von künstlicher Intelligenz helfen, menschliche Expertise weiterzuentwickeln? Und wie kann es gelingen, menschliche Expertise und maschinell generiertes Wissen zu einem menschlich und maschinell dargestellten „best of both worlds“ zusammenzuführen?

K
Künstliche Intelligenz und maschinelles Lernen haben in den letzten Jahren eine geradezu atemberaubende Entwicklung erfahren, Euphorie und Angst gleichermaßen beflügelt, neue Risiken und Chancen aufgezeigt.

Gegenstand dieses Artikels ist die Betrachtung der Interaktion zwischen KI und menschlichen Experten, die entweder selbst Entscheider in Geschäftsprozessen sind oder deren Wissen, Urteilsfähigkeit und Erfahrung Eingang in Entscheidungen finden. In jedem Falle trägt der Mensch juristisch, ethisch und moralisch für getroffene Entscheidungen die Verantwortung, ganz gleich, welcher Hilfsmittel er sich bedient hat.

In welchem Maße er den Quellen der Entscheidungsfindung vertrauen kann, ist hierbei essenziell und sollte im Hintergrund beim Lesen dieses Artikels berücksichtigt werden, ohne dass wir aus Platzgründen näher darauf eingehen können. Worin also sehen wir die Zukunft im Zusammenspiel von künstlicher Intelligenz und menschlichen Experten?

Experten sind meist anerkannte und gut bezahlte Mitarbeiter. Sie haben sich über Jahre Fachwissen, praktische Erfahrungen in der Anwendung sowie Einsichten und ein hohes Maß an Verständnis für ihr Spezialgebiet im Verhältnis zu anderen Bereichen erarbeitet.

Wie macht KI bessere Experten?

Ihre Expertise ist also ein Markenzeichen des Mitarbeiters und ein Asset einer Firma. Deshalb ist es nachvollziehbar, dass viele Experten den Anspruch haben, durch ihre Arbeit noch bessere Experten zu werden. KI kann dazu beitragen, Wissen, das aus Daten gelernt wurde, so an den Experten weiterzugeben, dass er dieses Wissen verstehen und bewerten kann. Der Experte kann das im Anschluss so bestätigen, übernehmen, oder zurückweisen. Nur so ist es ihm auch möglich, dieses Wissen in eigener Verantwortung für seine Entscheidungen oder Entscheidungsbeiträge zu ver­wenden.

Wir wollen dies an einem sehr einfachen Beispiel illustrieren, das leicht auf spezielle Gebiete wie medizinische Diagnostik, Qualitätssicherung in der Werkstoffkunde, Auswertung von Satellitenaufnahmen etc. angewendet werden kann.

Nehmen wir an, ein System wurde mit 10.000 Hunde- und Katzenbildern trainiert und kann diese Tiergattungen gut unterscheiden. Nun präsentiert ein Mensch diesem auf Hunde und Katzen trainierten System das Bild eines Fuchses zur Erkennung bzw. Kategorisierung.Das System wird dieses Bild nach seinem „Wissen“ einer Tierart zuordnen, vielleicht den Fuchs als Hund erkennen. Wir können dieses Ergebnis akzeptieren oder verwerfen. Wir können aber auch Fragen stellen, die uns verstehen lassen, warum dieses System das erfolgte Resultat gegeben hat.


Durch die Einbindung des Menschen in den Empfehlungsprozess entsteht eine echte Symbiose


Solche Fragen können sein:

  • Welche Arten von Tieren kennst Du (Hunde und Katzen)?
    Der Nutzer kann entscheiden, ob dieser Wissensum­fang ihm für eine gute Empfehlung reicht.
  • Was sind die (drei) ähnlichsten Exemplare, von Tieren (Bildern) die Du „gesehen“ hast?
    Das System könnte drei Dackel zeigen, die von allen Hunden dem Fuchs am ähnlichsten sehen. Der Nutzer würde dann erkennen, dass zwischen den Dackel­bildern und dem Fuchsbild einige Unterschiede bestehen.
  • Welche Merkmale sprechen für einen Hund?
    Das System könnte dann die Größe und die Form der Nase zeigen.
  • Welche Merkmale sind eher untypisch?
    Hier könnte das System die Ohren und den Schwanz benennen…

Wir halten einen solchen Dialog mit einem System (auch mit menschlichen Beratern) für sehr wertvoll, um das jeweilige Erkennungsresultat nachvollziehen und gegebenenfalls die Verantwortung für darauf basieren­de Aktionen übernehmen zu können. Auch weitere Fragen, die wir generell für wichtig halten, sollten vom System beantwortbar sein:

  • Woher kommen Deine Trainingsdaten?
  • Wie viele Trainingsdaten hast Du gesehen?

So kann sich der Nutzer selbst ein Bild machen, wie gut das System ist – vergleichbar mit der Frage an Menschen, wo sie ihren Abschluss gemacht und welchen Grad der Ausbildung sie erreicht haben.

Anhand erklärter und begründeter Resultate eines KI-Systems oder generell eines Lehrers ist es möglich, das fachliche Wissen des Experten zu bestätigen, zu erweitern oder auch Widersprüche hervorzurufen, die dann durch Hinzuziehung weiterer Wissensquellen oder Fehlerkor-rekturen zur Revision des einen oder anderen (KI oder Experte) führen können. Kurz gesagt: KI-Systeme können so Vertrauen in ihre Kompetenz vermitteln und zur Erweiterung der Expertise beitragen.

Fachwissen plus Situationskontext

Wenn Wissen aus einer KI-basierten Empfehlung auf eine aktuelle Situation angewendet werden soll, ist eine generelle Benennung eines Objekts oder einer Aktion meist nicht ausreichend. Es geht vielmehr darum, konkrete Ausprägungen der empfohlenen Objekte/Aktionen mit solchen der aktuellen Situation zu vergleichen und zu bewerten.

Da heute KI-Systeme sehr spezialisiert sind, z. B. lediglich sehr präzise Objekte oder Sachverhalte erkennen aber nicht in einem Anwendungskontext bewerten können, können sie noch nicht das zur Anwendung, Revision und Neubewertung von gelerntem Wissen notwendige breite Anwendungswissen darstellen. Diese Brücke muss vielmehr vom Experten geleistet werden.

Nehmen wir beispielsweise an, ein bestimmtes Ersatzteil muss beschafft werden. Zur Bestimmung einer Empfehlung für eine günstige Beschaffung betrachtet ein Recommendersystem folgende Parameter: Preis, Entfernung des Lagers für Shipment, Name des Produzenten. Eine Empfehlung könnte sein, das Ersatzteil aus einem 20 Kilometer entfernten Lager zu akquirieren zu einem Preis von 50 Euro, produziert von der Firma ABC.

Nun weiß ein Experte (mit breitem Weltwissen), dass gerade eine Lieferung anderer Teile aus einem 80 Kilometer entfernten Lager erfolgt, wobei sich der Lieferpreis unseres Ersatzteils aber drastisch reduziert, wenn es einfach mitgeschickt wird.

Der Experte weiß auch, dass eine hohe Gefahr für verspätete Lieferung vom empfohlenen Produzenten ABC besteht, da einer von dessen Zulieferern gerade in Rückstand geraten ist. Bei einem alternativen Produzenten DEF kostet das Teil statt 50 Euro 53 Euro. So bewertet der Experte die KI-Empfehlung neu und bestellt das Ersatzteil beim weiter entfernten Lager, von einem teureren Produzenten – aber insgesamt günstiger und verlässlich lieferbar.

Damit der Experte eine derartige Bewertung vornehmen kann ist es notwendig, die Details der Empfehlung zu kennen, um ihr gegebenenfalls zu widersprechen oder sie abzuwägen.

KI geht beim Menschen in die Lehre

Bisher haben wir untersucht, wie Wissen aus künstlicher Intelligenz für den Menschen so präsentiert und erklärt werden kann, dass Menschen davon lernen oder dieses Wissen auf aktuelle Situationen anwenden können. Es ist aber auch die andere Richtung zu betrachten.

Wie kann Wissen von menschlichen Experten in gelerntes Wissen einer KI integriert werden? Diese Frage wird besonders wichtig, wenn ein Mensch der Empfehlung von einer künstlichen Intelligenz widerspricht und autorisiert ist, diesem System seine Empfehlung als Lerndaten zur Wissensrevision bereitzu­stellen. Im Gegensatz zur Nutzung statistischer Lernverfahren, wie z. B. das hochaktuelle „Deep Learning“, lernen Menschen von sehr bedeutsamen Beispielen. Es ist aber nicht immer die Häufigkeit des Auftretens von Ereignissen, manchmal reicht ein einziges, um großen Einfluss zu nehmen. Man denke nur an die wenigen, aber dafür höchst schicksalhaften Unfälle in Kernkraftwerken.

Es kann auch sein, dass einer KI nicht die Berücksichtigung von Einzelbeispielen (Outliers) vermittelt werden muss, sondern eine neue Lernkategorie vor­gegeben werden sollte. Bezugnehmend auf unser einfaches Tierbeispiel könnte das bedeuten, dass der Nutzer, der weiß, dass es sich beim gezeigten Bild um das eines Fuchses handelt, das System um eine neue Tier­kategorie erweitern kann, indem er den vorhandenen „Kategorien Hund“ und „Katze“ die Kategorie „Fuchs“ hinzufügt. Praktisch treten solche Fälle, wo eine KI vom Experten belehrt wird, im Support auf. Hier gibt es oft pragmatische Lösungen zu Problemen, die auf breites Weltwissen zurückgreifen, das beim maschinellen Lernen nicht zur Verfügung steht.

Natürlich müssen ein Entscheider und ein Experte, der die künstliche Intelligenz verändern darf, nicht dieselbe Person sein. Es könnte z. B. sein, dass ein Entscheider einer KI-erzeugten Empfehlung skeptisch gegenübersteht und deshalb einen erfahrenen Experten zurate zieht. Dieser kann auf Grundlage der Empfehlung seine Revision sowohl dem Entscheider als auch der KI mitteilen und so beiden helfen. Wichtig ist hier anzumerken, dass durch die Einbindung von Menschen in den Empfehlungs- und Erklärungsprozess die Barriere zwischen KI und natürlicher Intelligenz gewissermaßen aufgehoben wird oder besser – eine echte Symbiose entsteht.

KI lernt aus Daten, doch häufig haben Experten Kenntnisse und Erfahrungen, die aus den Lerndaten nicht erfasst werden können.

Künstliche Intelligenz kann Experten helfen, auf der Grundlage der Nutzung ungeheurer Datenmengen sehr präzise Empfehlungen zu geben. Damit der Mensch seiner Verantwortung gerecht werden kann, müssen solche Empfehlungen hinreichend begründet und erklärt werden. Erklärungen sind auch nötig, um die Expertise eines Menschen zu vertiefen, da nur durch ein detailliertes Verständnis neue Kenntnisse erworben und in bestehendes Fachwissen integriert werden können. Da Empfehlungen immer in einem bestimmten Anwendungskontext genutzt werden, hängt der Wert nicht nur von der Empfehlung, sondern auch von der gegebenen Anwendungssituation ab, genauer: wie adäquat eine Empfehlung in dieser Situation relevant und gültig ist. Deshalb braucht ein Entscheider begründende Details, um sie mit den Details der Situation zu betrachten und zu bewerten. KI lernt aus Daten, doch häufig haben Experten Kenntnisse und Erfahrungen, die aus den Lerndaten nicht erfasst werden können. Deshalb ist es höchst relevant, auch Wissen von Experten explizit maschinell zu lernen.

Experten und ihr Verhältnis zu IT und KI verändern sich mit der Zeit, Experten von heute legen noch großen Wert auf ihr erworbenes Wissen. Experten von morgen werden immer mehr Wert darauf legen, zu wissen, wie ihnen Maschinen beim Lösen von Aufgaben helfen können.

KI ist ein Werteverstärker.

Zukunftstendenzen

Die Abgabe von Kontrolle bei wachsendem Vertrauen in die KI führt dazu, dass Fachexperten tendenziell von KI ersetzt werden. Dies geschieht analog zum Inhalt der Themen in diesem Artikel:

In der ersten Phase wird ein KI-System lernen, die Qualität seines Lernens zu beurteilen und gegebenenfalls neue Quellen zum Vertiefen von Gelerntem erschließen. Es wird sich also selbst Erklärungen generieren und entsprechend agieren.

In Phase zwei werden verschiedene Wissensquellen miteinander zu einer kontextuellen KI verknüpft. So kann gelerntes Wissen auf aktuelle Situationen unter verschiedenen Bewertungsperspektiven zu optimalem Verhalten führen.

In einer dritten Phase wird die KI durch permanente Beobachtung von Prozessen multiperspektivisch und reflektierend selbst Erfahrungen sammeln, Ereignisse nicht nur quantitativ, sondern aufgrund beobachteten Impacts auch qualitativ bewerten und lernen können.

Damit verlieren Experten mehr und mehr an Bedeutung, allerdings je nach Industriezweig in variierender Geschwindigkeit und Intensivität. Als Analogon zu unseren Ausführungen sei das autonome Fahren angeführt. KI ist ein Werteverstärker. Sie kann sukzessive menschliche Experten ersetzen, indem sie immer schneller aktualisiert werden kann, ihr Wissen immer breiter wird und sie aufgrund permanenter Präsenz kontinuierlich Erfahrungen sammeln kann. Die Frage, ob wir das wollen, muss jedoch gesellschaftlich beantwortet werden. Sie ist unweigerlich verbunden mit der Frage, was Menschen brauchen, um ein erfülltes Leben zu führen. Dazu gehören nach modernen Forschungsergebnissen beispielsweise persönliches Engagement, soziale Anerkennung, sinnhafte Tätigkeit und Erfolge.

In ganzheitlicher Betrachtung sollten wir interdisziplinär der Frage Raum geben, wie Geschäftsmodelle Teil erfüllender Lebensmodelle werden können.

Über den Autor

Mehr zum Thema

..finden Sie unter:
www.kaiser-consulting.de

Besuchen Sie auch unseren ExpertTalk „The Power of AI & IoT Platforms“ in Würzburg am 10. April 2019. Anmeldung unter:
https://www.next-industry.de