Themenschwerpunkt Künstliche Intelligenz und Insurtechs Britische Versicherer fangen an, mit Methoden der künstlichen Intelligenz zu experimentieren. Aber die neue Technologie hält auch Risiken bereit. Manche sind so schwerwiegend, dass sie jahrhundertealte Prinzipien erschüttern könnten, warnen Beobachter. Doch der Blick für die Gefahren bietet auch die Chance, Fehler zu vermeiden.
Amazon hat erst einmal aufgegeben. Der US-Techkonzern hatte jahrelang damit experimentiert, mit Hilfe von künstlicher Intelligenz (KI) die Auswahl und Einstellung von Bewerbern zu automatisieren. Dafür hat er Datenbanken gefüttert und Wissenschaftler darangesetzt, ein System zu entwickeln, das die Lebensläufe von Job-Anwärtern rasch bewerten und Empfehlungen aussprechen kann. Doch das System entwickelte bei technischen Positionen eine deutliche Vorliebe für männliche Bewerber. Die geringere Anzahl von Frauen in diesen Jobs führte bei den Programmen zu der Schlussfolgerung, sie seien weniger geeignet. Die Voreingenommenheit ließ sich nicht beheben und warf die Frage auf, welche anderen Befangenheiten sich längst eingeschlichen haben könnten. Daher wird erst einmal weiter herkömmlich Personal rekrutiert.
Die Nebenwirkungen von KI beschäftigen längst auch die britische Versicherungsbranche. „Wir sehen die Anfänge einer notwendigen Debatte über den Gebrauch von Daten, einschließlich der Frage, was legal und was moralisch vertretbar ist“, sagt Huw Evans, Geschäftsführer des Versichererverbandes Association of British Insurers.
KI als Reputationsrisiko
Dabei gehe es längst nicht nur um die Gewissensfrage, sondern auch um die Reputation. So sei es zwar nicht illegal, mit Hilfe statistischer Methoden Kunden zu identifizieren, die mit einiger Wahrscheinlichkeit auch dann nicht den Anbieter wechseln, wenn sie für eine Versicherung deutlich mehr bezahlen als Neukunden. Noch sei es auch ganz legal, die Preise entsprechend anzusetzen, sprich langjährigen Bestandskunden für das gleiche Produkt deutlich mehr in Rechnung zu stellen als Neukunden. „Aber es fällt schwer, damit auf der Titelseite der Daily Mail gut auszusehen“, warnt Evans.
Seit ein paar Jahren hat sich KI zum Trendthema gemausert. Von der Autoindustrie über den Handel bis zur Wasserwirtschaft setzen Branchen darauf, durch die Unterstützung von Algorithmen und selbstlernenden Systemen ihre Effizienz zu verbessern. Doch bereits in einem vergleichsweise frühen Stadium der Anwendung weisen Branchenvertreter, Aufseher und Berater auf Risiken der Technologie hin und versuchen, sie mittels Regulierung und Verhaltenskodices in den Griff zu bekommen.
Unversicherbare Risikogruppen
„Personalisiertes Underwriting könnte aus wirtschaftlicher Sicht potenziell sehr attraktiv für Versicherer sein, aber wenn es auf Kosten des traditionellen Risikopooling geht, würde das natürlich Probleme schaffen“, warnt Simon Konsta, Senior Partner bei der Anwaltskanzlei Clyde & Co in London.
Dadurch könnten Risikogruppen entstehen, die nicht mehr zu versichern sind, sagt der Anwalt, der seit vielen Jahren auch für die Assekuranz arbeitet. Langfristig könnte das überdies die gesellschaftliche Funktion von Versicherern verändern, was wiederum das Geschäftsmodell der Branche treffen könnte. Die ethischen Probleme von KI beginnen beim Einsatz und der Auswahl von Daten. Die automatisierten Systeme werden mit Informationen gefüttert, diese werten sie aus und lernen im Rahmen von Algorithmen weiter.
Skeptiker weisen auf potenziell weitreichende Folgen hin. „Es ist nicht schwer, sich eine Welt vorzustellen, in der der Preis meiner Versicherung darauf beruht, wo ich einkaufe, was ich verdiene, mit wem ich Kontakt habe und was ich mit meiner Freizeit anfange“, sagt James Daley, Chef der Verbraucherschutzorganisation Fairer Finance.
Er fürchtet die Aufweichung des grundlegenden Solidaritätsprinzips in der Assekuranz. Es sei nur logisch, dass Versicherer jenen Kunden, die vermutlich keine Schäden haben, immer günstigere Prämien anbieten, aber jene außerhalb der typischen Risiko-Profile nicht mehr berücksichtigen.
Versicherer erarbeiten Regeln
In den Vorstandsetagen der Versicherungskonzerne spielt auch die ethische Dimension von KI zunehmend eine Rolle, betonen Konstas Kollegen Henning Schaloske und Lukas Wagner, Versicherungsexperten aus dem Düsseldorfer Büro von Clyde & Co. Erste Verhaltensregeln liegen schon vor.
Unternehmen wagen sich mit Verweis auf die laufende Beschäftigung mit dem Thema noch nicht aus der Deckung. Konsta mahnt jedoch zur Eile. „Statt zu warten, dass Regierungen und Aufseher die Initiative ergreifen, wie es jetzt in der Tech-Branche passiert, wäre es klug, wenn Versicherer eine gemeinsame Sichtweise erarbeiten würden.“ So ließe sich ein Rahmen für den Einsatz von KI und Big Data entwickeln. Ethische Überlegungen sollten dabei sowohl in der Geschäftsentwicklung als auch bei Investitionen in Insurtechs eine zentrale Rolle spielen.
In Großbritannien beschäftigt sich die Finanzaufsicht Financial Conduct Authority (FCA) schon seit einer Weile mit dem Problem unausgewogener Preise und Produktangebote und wirft die Frage auf, ob nicht zumindest Teile der Bevölkerung zusätzlichen Schutz benötigen. Der liberale, marktwirtschaftliche Ansatz ging bisher davon aus, dass Verbraucher schon die richtige Entscheidung treffen, solange sie über vollständige Informationen zu einem Produkt oder einer Dienstleistung verfügen. „Doch diese Voraussetzung wird zunehmend in Frage gestellt“, räumt Charles Randell, Präsident der FCA, ein. Die Grundlage „ist sicherlich dann fragwürdig, wenn sie schutzbedürftige Kunden betrifft“, so Randell. Er verweist auf das Beispiel der britischen Autoversicherer, die Bestandskunden höhere Prämien aufbrummen als Neukunden.
Schwierige Entscheidungen
Längst nicht nur die Finanzaufsicht FCA hat die Problematik im Blick. Die britische Regierung hat im vergangenen Herbst ein „Centre for Data Ethics and Innovation“ aufgesetzt, das branchenübergreifend arbeitet. Anfang April hat die Europäische Kommission ein erstes Regelwerk für die ethische Weiterentwicklung von künstlicher Intelligenz veröffentlicht, das festlegt, dass Algorithmen niemanden auf Basis des Alters, der Rasse oder des Geschlechts diskriminieren dürfen.
Letztlich werden Mitarbeiter durch Algorithmen nicht ersetzt werden können, ist Aufseher Randell überzeugt. Es komme darauf an, dass Unternehmen verstehen, was die Gesellschaft für akzeptabel hält. „Wir können keine Algorithmen entwickeln, die entscheiden, was fair ist. Es kann akzeptabel sein, ausführliche Informationen über die Ess- und Trinkgewohnheiten für den Preis einer Krankenversicherung zu nutzen, aber ist es auch fair, sie für den Preis einer Hypothek zu verwenden?“, fragt er. „Das sind extrem schwierige Bewertungen, die vom Kontext abhängen.“
Claudia Wanner berichtet für den Versicherungsmonitor aus London
Weitere spannende Texte finden Sie im neuen gedruckten Dossiers des Versicherungsmonitors „Künstliche Intelligenz und Insurtechs”, das jetzt erschienen ist. Abonnenten erhalten das Dossier automatisch und ohne weitere Kosten per Post. Weitere Exemplare können Sie bei Amazon per Mail an Mara Welter bestellen.
Sie müssen angemeldet sein, um einen Kommentar zu veröffentlichen.