Rote Flagge für Künstliche Intelligenz?

Blogartikel über Künstliche Intelligenz (KI)
(c)istock_Peschkova

Beitrag teilen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email

Künstliche Intelligenz (KI) ist in aller Munde. Was vor wenigen Jahren noch ein Nischenthema für die Forschung und ein paar führende Technologieunternehmen war, beschäftigt heute alle: ob multinationaler Konzern oder mittelständischer Betrieb, ob Bildungseinrichtung oder öffentliches Amt – keiner kommt mehr an diesem Thema vorbei.

Das hat auch die Politik auf den Plan gerufen. Politiker aller Parteien fürchten nicht nur, dass Europa den Anschluss an die USA und China verlieren könnte. Vielmehr werden Bedenken laut, dass KI zu nicht nachvollziehbaren Entscheidungen führt, die einzelne Bürger oder ganze Bevölkerungsgruppen systematisch benachteiligen könnten.

Erst kürzlich hat EU-Wettbewerbskommissarin Margrethe Vestager für einen „europäischen Weg“ und „vertrauenswürdige KI“ mit „Trust by Design“ plädiert, während EU-Parlamentarier „erklärbare und transparente KI“ fordern und in einer Resolution betonen, dass Menschen bei algorithmischen Entscheidungen immer das letzte Wort haben müssten.

Ein wenig erinnert die Situation an Red Flag Act, der im Vereinigten Königreich 1865 eingeführt wurde, um Unfälle im Straßenverkehr durch die immer weiter verbreiteten Dampfwagen zu vermeiden. Das Gesetz schrieb nicht nur eine Höchstgeschwindigkeit von 4 Meilen pro Stunde vor, es hatte auch bei jedem Automobil ein Fußgänger voraus zu laufen, der zur Warnung der Bevölkerung eine rote Flagge (red flag) tragen musste.

(c)National Motor Museum Scan via timeline.com

Eine nennenswerte Verbesserung der Verkehrssicherheit ist nicht überliefert, allerdings gilt als gesichert, dass dadurch die Entstehung einer eigenständigen Automobilindustrie in Großbritannien erheblich verzögert wurde. Profitiert davon haben kontinentaleuropäische Länder wie das Deutsche Reich, wo es ein vergleichbares Auto-feindliches Gesetz nicht gab.

KI-Regelung darf nicht zum Wettbewerbsnachteil werden

Auch wenn die Sorgen von Politikern und Verbraucherschutzorganisationen durchaus berechtigt sind, so dürfen die geplanten oder bereits verabschiedeten Regelungen nicht dazu führen, dass Europa im internationalen Wettbewerb weiter ins Hintertreffen gerät bzw. den Anschluss an die führenden KI-Nationen USA und China endgültig verliert.

Die Forderungen nach Transparenz und Erklärbarkeit kann dahingehend interpretiert werden, dass neuronale Netze und selbstlernende Algorithmen nicht zum Einsatz kommen können. Überdies wäre zu klären, was genau mit diesen Begriffen gemeint ist. Wem wäre damit geholfen, wenn die Begründung für eine Entscheidung lautet „der Wert des 12. Knotens in der 27. Schicht ist auf -0,53678 gefallen“?

Wichtiger wäre es, Unternehmen bzw. Anwender von KI-Methoden zu einer realitätsnahen, nicht einsatzverhindernden Transparenz zu verpflichten:

  • Welche Fragestellung soll mit dem KI-Modell beantwortet werden?
  • Welche Datensätze werden für das Training verwendet?
  • Wie werden diese aufbereitet?
  • Wie beeinflusst das Modellergebnis die Entscheidung?
  • Welche manuellen Eingriffe gibt es?

Banken, die aufgrund ihrer volkswirtschaftlichen Bedeutung und der Tragweite ihrer Entscheidungen für den Einzelnen – zurecht – besonders streng beäugt werden, haben durch die in der 2018 veröffentlichen Studie „Big Data trifft auf Künstliche Intelligenz“ dargelegten Standpunkte der BaFin bereits einen relativ klaren Rahmen für den möglichen Einsatz von KI.

Banken zögerlich bei Einführung neuer KI-Lösungen

Als Resultat sind Banken überaus zögerlich bei der Umsetzung und Einführung neuer KI-Lösungen, schrecken vielfach gänzlich davor zurück. Wenn doch, so bleibt KI auf harmlose Anwendungsbereiche wie NLP (Natural Language Processing) für Chatbots in der Kundenbetreuung oder RPA (Robotic Process Automation) zur Erleichterung repetitiver Verwaltungstätigkeiten beschränkt.

Einzelne Häuser wagen sich in spannendere Gebiete, wie z. B. den Kreditprozess vor. Die hierbei entstehenden Modelle haben jedoch ausschließlich Informationscharakter, werden zwar mit den Ergebnissen der herkömmlichen Modelle verglichen und zur Validierung und Weiterentwicklung dieser eingesetzt, jedoch nicht für die Kreditentscheidung selbst herangezogen.

Rückgriff auf Erfahrung aus bestehender Governance

Was Banken im Vergleich zu anderen Branchen zugutekommt, ist die langjährige Erfahrung mit der Dokumentation von analytischen Modellen und dem Nachweis ihrer Zuverlässigkeit. Auch die Investitionen im Bereich des Modellrisikomanagements, die in den letzten Jahren getätigt wurden, sollten für die gesetzeskonforme KI-Anwendung eine große Hilfe darstellen.

Für Unternehmen aller Branchen gilt, dass eine AI & Analytics Governance etabliert werden muss. Hierbei kann häufig auf die bereits bestehende Data Governance zurückgegriffen werden, die zumindest Fragen zu Herkunft, Richtigkeit und Aktualität der in den KI-Modellen verwendeten Daten zu beantworten vermag.

Anwender und Gesetzgeber müssen aufeinander zugehen

Insgesamt bleibt zu hoffen, dass beide Seiten, Anwender wie Gesetzgeber, ein wenig umdenken und aufeinander zugehen. Unternehmen sollten durch proaktive Schritte in Richtung mehr Transparenz, wie oben dargelegt, und die Politik durch die Ermöglichung größerer Spielräume im Sinne der langfristigen Wettbewerbsfähigkeit des europäischen Wirtschaftsraumes aufeinander zugehen.

Autoren

Stefan Ruhland

Stefan ist Director  bei der TME. Er ist Experte für Data & Analytics. Er hat zahlreiche Banken bei der Einrichtung und Umsetzung erfolgreicher Data-Governance-Initiativen unterstützt.

Thomas Deibert

Thomas ist Mitgründer der TME AG. Als Partner betreut er die Bereiche IT & Data Management sowie Business Transformation.