Der Nutzen von KI für Versicherungen

In der Versicherungsbranche ist BearingPoint sowohl als Beratungs- als auch als Integrationshaus bei allen großen Versicherungen aktiv: Die Consultants betreuen Projekte im AI-Bereich, beraten Kunden, wie sie ihr Anwendungsportfolio verbessern können und unterstützen bei der Einführung und Integration neuer Anwendungssysteme. Georg Knümann, Leiter der Competence Group „Insurance AI Integration“, und Stefan Kerren, Technology Analyst, beleuchten im Gespräch spannende Details über den Nutzen von KI für Versicherungen. 

Georg Knümann, ITler der ersten Stunde, ist Leiter der Competence Group „Insurance AI Integration“

Herr Knümann, auf welchem Stand ist die Versicherungswirtschaft in Sachen KI aktuell? Traditionell gilt sie als relativ konservativ.
Zum einen führen wir dieses Jahr eine Studie dazu durch, deren Ergebnisse im Frühjahr vorliegen werden. Aus meinen persönlichen Gesprächen mit den größten Vertretern der Branche kann ich zum anderen berichten, dass diese schon sehr weit im Einsatz von Machine-Learning und Deep-Machine-Learning sind, weil sie das Thema in eigenen Abteilungen seit mehreren Jahren forcieren. In dieser Unternehmensgröße gibt es vor allem auch die Datenbestände, die man als Basis benötigt, um solche Modelle automatisiert trainieren zu können. Eine aktuelle Herausforderung ist die Skalierbarkeit der Methoden und Modelle – hier kommen wir als Dienstleister ins Spiel.

Es gibt auch kleinere Versicherungen.
Richtig und diese Unternehmen haben meist noch eine große Herausforderung zu bewältigen: Ausreichende und qualitativ hochwertige Datenbestände aufzubauen. Dazu benötigen sie Mit­arbeiter, aber sie verfügen relativ oft noch über vergleichsweise kleine IT-Abteilungen. Vom Instrumentarium her liegt es nahe, Kollegen aus dem versicherungsmathematischen Bereich für die Nutzung von KI einzusetzen. Wer zum Beispiel Business-Intelligence-Tools nutzt, bringt oftmals auch Skills für den Bereich des Trainings von Machine-Learning-Modellen mit. Für einige dieser Modelle brauchen wir aber sehr viele Daten, um Vorhersagen im Regulationsbereich zu treffen. Das sind sowohl positive Daten, bei denen ein klares Prognoseergebnis im gewünschten Zielkorridor liegt, als auch Daten, die außerhalb liegen, also negative Ergebnisse. Dafür reichen die Datensätze bei kleineren Unternehmen selten aus.

Ist es denkbar, dass sich die kleineren Unternehmen zusammenschließen und einen gemeinsamen Datenpool gründen?
Das wäre eine natürliche Entwicklung und wir sind im Übrigen dabei, eine solche Initiative allmählich aufzusetzen. Nur wenn die kleinen Versicherer ausreichend Datenvolumen zur Verfügung haben, können sie wirklich Nutzen aus KI ziehen.

KI ist ein mittlerweile gängiger Begriff und Big Data ist auch nicht mehr neu. Muss man Unternehmen trotzdem noch den Nutzen von Künstlicher Intelligenz beweisen?
Oft ja, was aber kein Problem ist. Als Vorstand kann man nicht für jedes Thema Experte sein, insbesondere bei komplexen Themen wie Deep-Machine-Learning. Als externer Dienstleister haben wir eine sehr gute Position, um Fragen zu beantworten und zu beraten. In der Regel muss man zunächst Awareness für den Nutzen schaffen und das geht am besten über die betriebswirtschaftliche Seite. Man sollte vermitteln, dass insbesondere in dem Bereich, in dem bisher klassische Regelwerke genutzt wurden, hohes Automatisierungs- und damit Optimierungspotenzial besteht. Ein kalkulierbarer Business-Case quasi.

Lässt sich das bei jedem Projekt so durchführen?
Nicht immer – ich hatte einmal einen Datensatz von einer niederländischen Versicherungsgruppe, die verschiedene KFZ-Versicherungen anbot, unter anderem eine für Caravans. Die Auf­- gaben­stellung war zu prüfen, ob anhand der Daten, zirka sechstausend Datensätze, festgestellt werden kann, warum Kunden sich für den Abschluss dieser Versicherung entschieden haben. Ich habe die Untersuchung durchgeführt und quasi klassisch, bevor Machine-Learning-Modelle trainiert werden, Data Science betrieben. Das Ergebnis der Korrelationsanalyse war deutlich: Die Antwort auf unsere Aufgabenstellung steckte nicht in diesen Daten. Wir haben also nicht bei jedem Projekt Erfolg mit bereitgestellten Daten. Wenn dem nicht so ist, müssen wir prüfen, ob es zusätzliche Quellen gibt, um die Daten anzureichern.

Stefan Kerren, Technology Analyst, stieg 2019 bei BearingPoint ein.

Herr Kerren, Sie sind Technology Analyst innerhalb der Competence Group von Herrn Knümann. Woran arbeiten Sie momentan?
Kurz gesagt: Cloudbasierte Entwicklungsplattformen. Versicherungen haben teilweise sehr hohe Sicherheitsvorgaben, also kann man beispielsweise nicht einfach eine neue Software zum Entwickeln auf ihren Servern installieren. Deswegen haben wir cloudbasierte Entwicklungsplattformen konzipiert, getestet und final bereitgestellt, was für Performance-intensive KI-Modelle eine sehr gute Lösung ist – es ist zudem günstiger und flexibler als der Betrieb über einen Server.

Wie wurden Sie auf BearingPoint aufmerksam und wie lief Ihr Einstieg 2019 ab?
Tatsächlich ganz klassisch durch eine Jobanzeige im Bereich Data Science/AI – fachlich perfekt und der abwechslungsreiche Beraterberuf klang auch vielversprechend. Nach meiner Bewerbung folgten ein Online-Test und die Einladung zum Assessment-Center in Frankfurt. Dort konnte ich mir einen ersten persönlichen Eindruck der offenen und auf Teamzusammenhalt ausgelegten Kultur von BearingPoint verschaffen. Der letzte Schritt war ein Bewerbungsgespräch mit dem Partner meines Fachbereichs, das sich wie eine normale Unterhaltung und nicht wie eine Testsituation angefühlt hat.


Mehr spannende Berichte über Data Science in deinem Karrierenetzwerk!


Erinnern Sie sich noch an Ihren ersten Arbeitstag?
So lange ist er ja noch nicht her. (lächelt) Der erste Arbeitstag begann bei mir um 10 Uhr morgens in Be­­­rlin, wo alle Neueinsteiger dieses Monats zusammen begrüßt wurden. Gemeinsam wurden die Teilnehmer auf den Start bei BearingPoint vorbereitet und wir konnten uns gegenseitig kennenlernen. Das Highlight war dann der gemeinsame Kochkurs zum Einstiegstraining.

Herr Knümann, von 2019 zurück in die Achtziger: Bereits 1988 waren Sie in der Softwareentwicklung tätig. Was hat Sie über all die Jahre an diesem Bereich so fasziniert?
Meine früheste Berührung mit IT geht sogar schon auf das Jahr 1979 zurück, als ich erstmals in meiner Schulzeit mit IT-Systemen gearbeitet habe. Die Faszination hat seitdem nie nachgelassen, sondern sich über die Jahrzehnte weiterhin verstärkt. Es ist faszinierend, aus welchen bescheidenen Anfängen sich eine vollständige und mittlerweile sehr heterogene und komplexe Industrie entwickelt hat.

Insbesondere die Entwicklung von Software-Systemen hat mein besonderes Interesse gefunden und ich hatte aufgrund meiner Tätigkeit bei BearingPoint in unterschiedlichen Rollen als Softwarearchitekt und Projektleiter die Gelegenheit, an der Gestaltung und Umsetzung von Anwendungssystemen für unsere Kunden mitzuwirken. Die seit etwa zehn Jahren verfügbar werdenden Verarbeitungskapazitäten ermöglichen nun erstmals, dass die bereits vor 30 und mehr Jahren diskutierten Modelle für maschinelles Lernen technisch umgesetzt werden können. Diese Möglichkeiten möchten wir als BearingPoint anwenden und für unsere Kunden nutzbar machen.

Text und Interview von Bettina Riedel.

Share.