Die künstliche Intelligenz hat längst Einzug in unseren Alltag gehalten und ist ein bedeutender Wettbewerbstreiber. Dennoch ist die europäische Debatte geprägt von Unverständnis und Vorurteilen gegenüber der neuen Technologie. Um dem konstruktiv zu entgegnen, müssen wir Erfahrung aufbauen: durch Ausprobieren, Schaffen von Transparenz und Kontrolle an den richtigen Stellen.

A
Am 11. März 2011 verwüstete ein Tsunami nach einem starken Erdbeben die Küste Japans. 20.000 Menschen verloren ihr Leben, Hunderte von Unternehmensstandorten verschwanden unter den Fluten. Unzählige stellten die Produktion ein, um sich um die Überlebenden zu kümmern. Das ist die Geschichte, die jeder kennt. Ich würde gerne eine andere Geschichte erzählen, in der auf die Naturkatastrophe auf eine unerwartete Weise mit Algorithmen und Modellrechnungen reagiert wurde und so eine schwere Wirtschaftskrise verhindert werden konnte.

Weil in Japan viele Menschen schlicht ums Überleben kämpften, hörten viele Firmen im ganzen Land auf, Unternehmensdaten zu melden. Dun & Bradstreet (D&B), eines der ältesten amerikanischen Unternehmen, bemerkte das sofort. Seit fast 150 Jahren analysiert D&B direkte und indirekte Zahlen von Firmen und gibt seinen Kunden Auskunft über Kreditausfall­risiken einzelner Lieferanten, über Compliance-Auswirkungen von Auslandstöchtern von Firmen auf das Gesamtergebnis in ganzen Industrien oder über Profile einzelner Regionen für neue Entwicklungsprojekte.

Lediglich unzureichendes Vertrauen hindert die KI daran, ihr wahres Poten­zial zu entfalten.

Japan ist ein wichtiger Teil im Mosaik der Weltwirtschaft und damit auch in der Datenbasis von D&B. Die gesamte Consumer Electronics Branche hängt z.B. von den Erzeugnissen der Japaner ab. Wenn japanische Unternehmen ihre Daten nicht melden, dann führt das zu einem Dominoeffekt in Korea, Finnland und Deutschland. Banken können die Höhe von Investitionen nicht mehr ausreichend einschätzen. Die Finanzmärkte, die drei Jahre zuvor bereits eine schwere Krise erlebt hatten, könnten in Panik geraten.

Anthony Scriffignano, der Chief Data Scientist von D&B, hatte nicht vor, den Effekt von Naturkatastrophen auf die Widerstandsfähigkeit von Industrien und die Nachhaltigkeit von Unternehmen zu analysieren. Sein Team befasste sich zu der Zeit gerade mit einem Vorhaben, das es „Remote Computational Interface“ nannte. Es ging bei dem Projekt um das Ausfiltern von Datenlärm. Nicht alle Wirtschaftsfragen können durch Befragen von Spezialisten beantwortet werden. Wie kann man aus der Ferne Hypothesen formulieren, die die Realität gut abbilden? Wie findet man eine Nadel im Heuhaufen?

Zwischen dem 12. März und dem 30. Juni 2011 erstellten acht Mitarbeiter von D&B ein Modell der japanischen Volkswirtschaft. Die Ergebnisse wurden kostenlos ins Web gestellt, die Zeit der „Datenabwesenheit“ aus Japan konnte erfolgreich überbrückt werden.

Als Japan wieder anfing Daten zu melden, stellte man schnell fest, dass die Modellzahlen sehr präzise waren. Sie basierten auf Annahmen, die in einem interdisziplinären Team entstanden und mit heuristischen Modellen und Machine-Learning-­Algorithmen beschrieben wurden. Ein Physiker kümmerte sich z. B. um die Frage, wie hoch die tatsächliche Radioaktivität in einzelnen Ortschaften war. Er nutzte eine „crowdsourced“ Datenbank, verstand jedoch, Radioaktivitätsschwankungen und -verteilung richtig zu interpretieren. Ein Biologe wandte sein Wissen zur Herausarbeitung eines „Trocken-Nass-Arbeitsfähig“-Algorithmus. Satellitenbilder, meteorologische Daten und 3D-Karten lieferten wertvolle Einblicke in die Geschehnisse, obwohl diese Tausende Kilometer entfernt waren. Satellitenbilder einer bestimmten Anzahl parkender Fahrzeuge vor Firmengebäuden wurden als „Insight“, Nachtlichter einzelner Gebäude hingegen als „False Signal“ interpretiert, das lediglich zeigt, dass obdachlos gewordene Menschen Zuflucht in Industriegebäuden suchten.

Die Macht des Computers und die Fähigkeit der Menschen, die richtigen Fragen an die Maschine zu stellen und einzelne Parameter klar zu definieren, bestimmten den Projekterfolg. Künstliche und menschliche Intelligenz lösten gemeinsam ein konkretes Problem. Ein Paradebeispiel dafür, dass Vielfalt im Team, Abkehr von traditionellen Regressionsmethoden und Experimentieren mit neuartigen Datenquellen wichtiger sein können als die Anzahl der Mitarbeiter und die Verfügbarkeit eines Supercomputers.


Technologie-Bildung wird bereits heute zum Wettbewerbstreiber.


Das Modewort KI

Vor 2011 interessierten sich nur wenige Medien für künstliche Intelligenz. Das war lange bevor DeepMind’s AlphaGo den Champion Lee Sedol besiegte, bevor Nvidia’s Graphic Processing Units (GPUs) in aller Munde waren, und bevor der Physiker Stephen Hawking die Menschheit vor den möglichen Folgen der KI warnte. 2016 erwachte die globale KI-Industrie aus ihrem Dornröschenschlaf.

Alphabet, Amazon, Apple, Facebook und Microsoft verkünden in ihren Jahresberichten, dass sie nun KI-zentrische Unternehmen seien. Die Regierung des US Präsidenten Obama verabschiedete drei Berichte zum Einfluss der KI: auf den Arbeitsmarkt, auf die Wettbewerbsfähigkeit der USA und auf die nationale Sicherheit. Im Jahr 2018 kann die Polizei mithilfe von maschinellem Lernen auf einer Karte zeigen, wo Verbrechen mit großer Wahrscheinlichkeit geschehen können. Ärzte können vorhersagen, wann ein Patient einen Schlaganfall oder eine Herzattacke erleiden kann.

Tausende Entscheidungen von Algorithmen bestimmen heute unseren Alltag. Sie sagen uns, was uns auf Netflix gefallen könnte. Sie bewerten unsere Kreditwürdigkeit. Wie die US-Wahlen 2016 und zuvor der Brexit zeigten, beeinflussen sie die öffentliche Diskussion in einer Art und Weise, die ein Wahlergebnis und sogar unseren Willen, zur Wahl zu gehen, verändern können.

Wenn wir dies alles betrachten, stellt sich eine wichtige Frage: Sind wir als Bürger, Wähler, Mitarbeiter eines Unternehmens, Opernfans und Hobbyköche dafür verantwortlich, die Entscheidungsmacht von Algorithmen zu verstehen, um ihr, falls nötig, ausweichen zu können? Sind gewisse Prinzipien und Werte, nach denen wir leben und entscheiden wollen, in einem mathematischen Modell abbildbar? Verantwortung wird hier zu einem sehr wichtigen Konzept, doch wer übernimmt sie? Verstehen wir überhaupt, wie diese Algorithmen funktionieren?

Was ist KI?

Vereinfacht dargestellt, ist KI eine Familie von Technologien mit dem Ziel, einen Computer durch Wissenserwerb nützliche Dinge tun zu lassen und die Welt zu beschreiben. Das Lernen geschieht durch die Analyse von Daten – strukturierten Daten, wie Finanzdaten aus SAP Systemen, oder – viel schwieriger – unstrukturierten Daten, wie etwa aus Texten von juristischen Dokumenten, oder Aufzeichnungen von Kundenbeschwerden.

Algorithmen helfen dabei, in Daten bestimmte Muster und Gesetzmäßigkeiten zu erkennen. Maschinelles Lernen (ML) ist eine Teildisziplin der KI, die selbst aus weiteren Denkschulen und Ansätzen besteht. Stanford’s Y-Combinator, eine der besten Start-up-Schmieden der Welt, spricht von 21 unterschiedlichen KI-Kulturen. Eng verwandt mit ML ist tiefes Lernen (Deep Learning, DL), wo Forscher seit 2006 wichtige Erfolge erzielen.

Wie unsere Anfangsgeschichte zu Japan zeigt, ist eine Maschine ohne eine Person, die die richtigen Fragen stellt, nutzlos. Yann LeCun, Chief AI Scientist von Facebook, verglich im letzten Jahr die maschinelle Intelligenz mit der einer Ratte. Der vor Kurzem verstorbene Microsoft-Mitgründer Paul Allen sagte, dass trotz allgegen­wärtiger Fortschritte der Technologie wir erst bei fünf Prozent dessen angelangt sind, was KI potenziell liefern kann.

Viele Experten glauben, dass die Zukunft unserer Gesellschaft auf eine Koexistenz und Kooperation zwischen Menschen und Maschinen angewiesen ist. Lediglich unzureichendes Vertrauen von Menschen in die Maschinen verlangsamt diese Entwicklung, und hindert die KI daran, ihr wahres Potenzial zu entfalten. Doch hier stoßen wir an unsere Grenzen: Menschliches Vertrauen basiert auf unserer Interpretation davon, wie unsere Gesprächspartner denken und fühlen. Obwohl die Neurowissenschaftlerin Lisa Barrett nachgewiesen hat, dass Menschen im Nachvollziehen der Emotionen anderer Menschen meist versagen, meinen wir immer noch beurteilen zu können, was in den Köpfen unserer Mitmenschen vorgeht.


Quelle: © Callaghan Innovation Grafik: Next Industry

Unterschiedliche Entscheidungsfindung

Die Entscheidungsfindung in einer Maschine dagegen, die Millionen von Datensätzen verarbeitet, ist für die meisten von uns unverständlich. Als ein KI-System entgegen Expertenmeinungen Donald Trump als Sieger der Wahlen im Jahr 2016 vorhersagte, wurden dessen Dateninterpretationskünste bestaunt. Es gibt jedoch genügend Beispiele, bei denen KI schlicht und einfach versagt hat, so wie bei einem selbstfahrenden Auto der Firma Uber, das bei Rot über Ampeln in San Francisco fährt, oder bei einer automatisierten YouTube-Kampagne, die Werbung neben antisemitischen Videos zeigt, oder der Google-Algorithmus, der dunkelhäutige Menschen als Gorillas identifiziert. Diese Beispiele erhalten viel Aufmerksamkeit in den Medien. Am Ende geht es jedoch hier darum, dass die Algorithmen des Maschinellen Lernens genauso fehlerbehaftet sind, wie die Menschen, die damit arbeiten.

Vor Kurzem versuchte Google zu verstehen, wie Menschen auf KI reagieren. Zahlreiche Probanden wurden gebeten, sich Filme wie Terminator, Her und Ex-Machina anzusehen. Menschen, die eher eine optimistische Einstellung gegenüber Technologien insgesamt und insbesondere KI hatten, äußerten ihren Enthusiasmus unabhängig davon, ob ein Roboter Liebe fand oder alles um sich herum in die Luft sprengte. Skeptiker fühlten sich jedoch bei jedem Szenario bestätigt – die Menschen sollten lieber die Finger von der KI lassen.

Diese Ergebnisse waren zu erwarten. Menschen nutzen Einblicke in die Welt der KI, um ihre bestehenden Vorurteile und Vorlieben zu bestätigen. Dieses Phänomen – als „Confirmation Bias“ bekannt und in vielen wissenschaftlichen Disziplinen beschrieben – wird auch künftig das Fortschreiten der KI in unserer Gesellschaft bestimmen. Mehr noch, es könnte zu einer weiteren Polarisierung unserer Gesellschaft führen. Einer Polarisierung, bei der es diejenigen geben wird, die KI befürworten, verwenden und davon profitieren, und anderen, die dies nicht tun, Zugang zu guten Arbeitsplätzen verlieren, und sich nicht im Klaren darüber sind, wie ihr Verhalten heimlich von Facebook und Amazon beeinflusst wird.

Technologie-Bildung wird bereits heute zu einem Wettbewerbstreiber. Ignoriert man die positiven Seiten von KI, wird diese Technologie trotzdem voranschreiten, Gemeinschaften, Ortschaften und sogar Regionen verändern. Sollte es in der Politik und in lokalen Gemeinden an Verständnis für Technologien mangeln, wird es schwierig werden, KI positiv zum Wohl dieser Gemeinden einzusetzen.

Um die KI-Technologie auch Nicht-Ingenieuren zu vermitteln, habe ich im Jahr 2017 das Buch „The Artificial Intelligence Roadmap. A Practical Roadmap for Business“ geschrieben. Die größten Fans des Buches sitzen jedoch erstaunlicherweise im Pentagon, bei der NATO, der UNO, bei amerikanischen Pharmakonzernen und asiatischen Telekommunikationsanbietern, und in den KI-entwickelnden Unternehmen selbst. Habe ich meine Zielgruppe verfehlt?

Ausprobieren, Verstehen, Kontrollieren

Es scheint mir, dass den traditionellen Unternehmen in Deutschland und dem europäischem Ausland drei Dinge fehlen, die einzelne Entscheidungsträger dazu ermutigen könnten, sich auch abseits von Wirtschafts­treffen in Davos mit KI zu befassen.

Erfahrung durch Spielen und Ausprobieren: Wenn unsere Kinder selbst KI bauen, dann wissen wir, dass die Technologie uns viel stärker betrifft als ursprünglich gedacht. Vielleicht wäre ein Robotics Studio abseits von Großstädten wie San Francisco oder Dublin gerade richtig. Vielleicht informieren sich dann deutsche Lehrer darüber, dass es in Finnland und in den USA zahlreiche Onlineportale gibt, die Schülern kostenlos das maschinelle Lernen beibringen. Vielleicht hinterfragt unsere Politik, warum China seit Mai 2018 an allen Schulen ab der sechsten Klasse maschinelles Lernen als Pflichtfach unterrichtet.

Verstehen von KI-Transparenz: KI-zentrische Unternehmen wie Nvidia, Google, Twitter und Airbnb arbeiten bereits heute an Methoden, um KI-Algorithmen transparenter zu machen, der sogenannten „Explain­able AI“ (XAI). Ein besseres Verständnis der Zusammenhänge in Modellen wird zu mehr Vertrauen bei Menschen führen, die die Entscheidungen zum Einsatz dieser Technologien treffen. Eine hyperaktive Regulierung, die KI-Modelle verbietet, wenn man sie heute noch nicht erklären kann, würde ins Abseits führen. Wie wäre es mit dem Vorschlag, jedes Großunternehmen zumindest ein Projekt zu AI Ethics und XAI bei einer Universität sponsern zu lassen – und darüber zu kommunizieren?

Kontrolle: Unsere Gesellschaft braucht selbstverständlich Kontrolle über die Erstellung und Anwendung von KI-Algorithmen. Eine Studie der University of Pennsylvania hat gezeigt, dass Menschen Ergebnissen der KI-Modelle eher trauen, wenn sie verstehen, wie diese entwickelt wurden. Die Probanden der Studie durften die Algorithmen unwesentlich modifizieren – schon zeigten sie sich deutlich zufriedener und waren bereit, die Modelle in Zukunft anzuwenden.

Wenn das Denken der Vergangenheit unsere Zukunft zu sehr beeinflusst, wird eine positive Entwicklung – auch mit KI – schwierig. Spontaneität, Neugier und Experimentierfreude eignen sich zwar nicht als Com­pliance-Begriffe. Doch sollten sie zu festen Bestand­teilen in Risikomanagement-Systemen werden, wenn wir von KI profitieren wollen. Man könnte Winston Churchill’s Aussage zu Gebäuden nehmen und auf Algorithmen anwenden: „Zunächst gestalten wir sie, dann gestalten sie uns.“


Trotz des historischen Rückstands sollten wir die neue deutsche KI-Strategie begrüßen und unterstützen.


KI in Deutschland

In den letzten Monaten haben wir erlebt, dass Deutschland sich den Herausforderungen der KI stellt. 3 Milliarden EUR Investitionsgelder bis 2025 wurden angekündigt. Zugang zu Daten, etwa im Gesundheits- und Verkehrssektor sowie eine verbesserte Bezahlung von KI-Experten wurden als Kernpunkte der Strategie genannt. KI „Made in Germany“ soll zum internationalen Markenzeichen werden.

Optimisten bejubeln diese Entwicklung. Pessimisten dagegen zitierten die 150 Milliarden USD, die China bis 2030 in KI investieren wird, um so – wie vor einem Jahrzehnt – auch in dieser Technologie die Oberhand zu gewinnen. Es ist klar, dass es ein weiter Weg an die Weltspitze ist. Experten wollen freie Entscheidung darüber haben, wo sie arbeiten. KI-Lehrstühle werden erst langsam die Spitzenleistungen der Hochschulen MIT, Stanford, Toronto, Montreal oder Carnegie Mellon erreichen können.

Trotz des historischen Rückstands sollten wir die neue deutsche KI-Strategie begrüßen und unterstützen. Ich würde mir wünschen, dass KI-Themen in den Wahlprogrammen der Parteien genauso prominent vorkommen wie die Umwelt- oder Chinapolitik. Ich würde gerne sehen, dass Deutschland parallel zu den Universitäten verstärkt in die Schulen investiert und Programme schafft, um Lehrer aus dem Ausland anzulocken, und Eltern wie Kinder in eine breite gesellschaftliche Diskussion über Technologien und die Zukunft einzubinden.

Über die Autorin

Mehr zum Thema

…finden Sie in Dr. Lauterbachs Buch:
www.bit.ly/AIimperative

SAVE THE DATE: „The Future Code“ am 6./7. Juni 2019 auf dem Vogel Campus in Würzburg. Mehr unter:
www.TheFutureCode.de