Künstliche Intelligenz: Kompetenzen ausbauen, ethische Fragen beantworten

Einer großen Studie von 2021 zufolge fühlen sich die meisten Unternehmen der Versicherungsbranche gut bis ausreichend für den Einsatz von Künstlicher Intelligenz (KI) aufgestellt beziehungsweise nutzen diese bereits (Adesso SE: „KI – eine Bestandsaufnahme"). Dabei gehen mit KI prozessbezogene und ethische Herausforderungen einher, die neu und bisher nur bedingt beantwortet sind.

Von Prof. Dr. Jörg Kopecz, FOM Hochschule für Oekonomie & Management

Wer nach Künstlicher Intelligenz fragt, stellt sich hoffentlich auch die Frage, was denn „natürliche Intelligenz“ sei, und gerät sofort in unsichere Gewässer. Die einfachste, etwas stoische Antwort gab der Psychologe Edwin G. Boring bereits 1923: „Intelligenz ist das, was Intelligenztests messen.“ Von KI sprechen wir, wenn Systeme Eigenschaften zeigen, die wir eigentlich Menschen zuschreiben würden, also zum Beispiel das Planen von Aktionen, das Erkennen von Gegenständen oder das „Lernen“ aus Beispielen. Bisher sind die intelligenten Fähigkeiten auf konkrete Anwendungsfälle begrenzt, deren Zahl jedoch exponentiell wächst.

Die Versicherungsbranche investiert hohe Summen in die Anwendung von KI, vor allem in den Bereichen Customer Contact und Schadenregulierung. So hat eine deutsche Versicherung bereits 2018 eine Möglichkeit geschaffen, mithilfe von intelligenten Sprachassistenten automatisiert Versicherungen abzuschließen. Einsatzbereiche von KI umfassen aber auch die Optimierung der Schadenabwicklung, Robotic Process Automation, die Textanalyse von Korrespondenz und die intelligente Bildverarbeitung etwa aus Schadenfällen.

Die Technologien, die Unternehmen helfen, Kundengruppen zu segmentieren oder Risiken zu klassifizieren, können auch von der „Gegenseite“ genutzt werden. Das klassische Beispiel hierfür sind Deepfake-Bilder oder -Videos. Dies hat zur Folge, dass sich das Kompetenzprofil für Mitarbeitende in den Versicherungen weiter wandeln und/oder von extern Know-how in das Unternehmen transferiert werden muss. Die Herausforderung bleibt hoch, denn die zugrunde liegende Technologie ist komplex, und Expert:innen, die die technisch-algorithmische Seite als Potenzial in Unternehmenspolitik und -strategie übersetzen können, sind bis auf Weiteres selten.

Ethische Fragen nach Transparenz und Fairness

Wir übersehen gerne, dass Künstliche Intelligenz anders ist als menschliche Intelligenz. Dennoch: Wie Menschen sind auch KIs in der Regel nicht transparent, sie liefern eine Entscheidung, jedoch keine Begründung. „Explainable AI“ versucht, dies zu beheben, deren Erfolge sind jedoch übersichtlich und werden es voraussichtlich bleiben. Ohnehin entsteht Vertrauen in eine Systemleistung nicht durch Erklärung, sondern durch Beobachtung. Als Beispiel sei hier unser komplexes Geldsystem angeführt: Das System verhält sich meistens korrekt, also vertraut man auf die aktuell vorliegende Entscheidung.

Zur Intransparenz kommt als Herausforderung „Fairness Bias“ hinzu. Die britische Zeitung „The Guardian“ berichtete vor einigen Jahren von einem Maschinen-Suchergebnis zur Anfrage nach „drei schwarzen Teenagern“ und „drei weißen Teenagern“. Abhängig von der Historie und den zur Verfügung stehenden Daten zeigte der Suchalgorithmus für die erste Anfrage drei Gefängnisinsassen und für die zweite drei fröhliche Menschen mit Freizeitbezug. Doch nicht die KI der genutzten Suchmaschine war „rassistisch“, sondern die Tatsache, dass die Datenlage solch eine Auswahl nahegelegt hat. Wir leben den gezeigten Bias also selbst vor und eine auf Datenauswertung basierende KI kann somit nur zu einem auf Vorurteilen basierten Ergebnis kommen.

Plädoyer für die zweitbeste Lösung

Mit zunehmender Geschwindigkeit und Komplexität der Daten und Prozesse entsteht so insgesamt ein erhebliches Interpretationsproblem der Daten. Allein auf KI zu setzen und auf diese Art das Werkzeug zur Bewältigung der Herausforderungen zu nutzen, welches das Problem herbeigeführt hat, kann keine Lösung sein. Aus Sicht des Autors brauchen wir im Kontext von entscheidungsunterstützenden oder entscheidungsfähigen Systemen vielmehr die Verankerung der Option der zweitbesten Lösung in den Prozessen von Unternehmen, also einen klar gesicherten Raum für Bauchentscheidungen, für vermeintlich zweitbeste Entscheidungen. In Unternehmen muss diese Möglichkeit neben der normativen Kraft des Faktischen, nämlich der nur theoretischen Möglichkeit, ein Analyseergebnis einer KI zu überstimmen, der/dem menschlichen Beteiligten explizit gegeben werden und die Konsequenzen dieser Option nicht nur theoretisch akzeptiert und sanktionsfrei gehalten werden. Unternehmen haben hier zum Beispiel im Rahmen ihres Corporate Governance Frameworks durchaus Gestaltungsmöglichkeiten.

Autonome Systeme: Ein neuer Player in den Märkten

Ein weitergehender Aspekt weist in die Zukunft: KI könnte potenziell als autonomer Akteur am Wirtschaftsleben teilnehmen. Von Autonomie sprechen wir, wenn Systeme ohne menschlichen Einfluss Entscheidungen fällen, die sich abhängig von Kontext und Lernen verändern können – das ist auch ein Thema für Versicherungen. Wer haftet beispielsweise, wenn sich ein System aufgrund von Lernen selbstständig verändert und es Entscheidungen trifft, die anderen Schaden (oder Nutzen) zufügen? Innerhalb der Europäischen Union wird dazu der Vorschlag einer dritten juristischen Einheit, der „elektronischen Person“ diskutiert: Roboter beziehungsweise KI sollen hierzu als autonom agierende Einheiten einen eigenen, haftungsrelevanten Status erhalten. Als Branche wird sich die Assekuranz sicherlich weiterhin mit den ethischen und ökonomischen Herausforderungen von KI auseinandersetzen müssen – nicht zuletzt wegen ihrer Rolle als „Helfer in der Not“ und der damit verbundenen Verantwortung für Versichertendaten. Kompetenz im Umgang mit – und nicht nur in der Implementierung von KI – dürfte sich dabei als unverzichtbar erweisen.

Jörg Kopecz hat Diplom-Physik und evangelische Theologie studiert und in Neuroinformatik über lernende autonome Systeme promoviert. Er ist Professor für Unternehmensführung und digitales Transformationsmanagement an der FOM Hochschule für Oekonomie und Management sowie Gesellschafter des iTM – Institut für Transformationsmanagement.

Quelle: AM PULS – Das ACTINEO Magazin (Ausgabe 12 | September 2022)

Autorenbild: FOM Hochschule für Oekonomie und Management

X

Wir verwenden Cookies

Wir nutzen Cookies, um Ihnen die bestmögliche Nutzung unserer Webseite zu ermöglichen, Inhalte für Sie zu personalisieren und unseren Service zu verbessern. Wir berücksichtigen hierbei Ihre Interessen und verarbeiten Daten für unser Marketing, für Web-Analytics und zur Personalisierung nur, wenn Sie uns durch Klicken auf „Allen zustimmen und weiter“ Ihr Einverständnis erteilen. Sie können Ihre Einwilligung jederzeit mit Wirkung für die Zukunft widerrufen. Unter dem Link Datenschutzerklärung finden Sie den Button „Cookie-Einwilligung widerrufen“. Weitere Informationen zu den Cookies und deren Anpassungsmöglichkeiten finden Sie unter dem Button „Einstellungen anzeigen“.