Ein stabiler Betrieb von Systemen und Applikationen ist im Banking essenziell. Unterbrüche, beispielsweise im E-Banking, kann sich ein Finanzinstitut kaum leisten, will es nicht an Vertrauen und letztlich Kunden an den Wettbewerb verlieren. Mit dem Aufkommen von Big Data ist es leichter geworden, Daten zu sammeln, die laufend in den Betriebssystemen generiert werden.
Mit technischen Tools für Big Data Analytics ist es nun möglich, diese Daten aus verschiedenen Systemen zu korrelieren. Bis anhin mussten die Logfiles in jedem System einzeln angeschaut werden. Auf Big-Data-Plattformen wie Splunk oder Hadoop Cluster werden die Daten an einem zentralen Ort abgelegt und können bei Abfragen «verbunden» werden, so dass beispielsweise bei der Suche nach Einträgen mit dem Zeitstempel 12.10-12.15 Uhr systemübergreifend alle Logdaten zu diesem Zeitpunkt angezeigt werden.
Durch den Einsatz von Machine Learning und Anomaly Detection können dann Probleme und bevorstehende Ausfälle vorab entdeckt und bestenfalls verhindert werden.

Das Potenzial von Anomaly Detection und AI

Logfiles zeichnen in der Regel genau auf, wann was passiert ist. Das Problem dabei: Eine Fehlermeldung wird oftmals erst zum Zeitpunkt des Absturzes geloggt. Die Meldung selbst hat in dem Fall für eine Vorhersage noch keinen Nutzen. Dennoch können die Logfiles wertvolle Informationen enthalten, die auf Geschehnisse im Vorfeld hinweisen, welche auf den ersten Blick nicht nach Fehlern aussehen.
Predictive Analytics beginnt damit, Probleme und Ausfälle in der Vergangenheit auf vorgängige Auffälligkeiten zu untersuchen. Diese erkannten Anomalien sind hilfreich für den Operator. Auf ihrer Basis kann ein Monitoring aufgebaut werden, das aus der Vergangenheit in die Zukunft extrapoliert. Per so genanntem «Supervised Learning» wird dann einen Alarm ausgelöst, wenn Daten auf eine solche Anomalie hindeuten. Auf das zu erwartende Problem kann somit rechtzeitig reagiert werden, indem beispielsweise das Memory erhöht, der Server neu gebootet oder der Job neu gestartet werden. Der gesamte Monitoring- sowie Alarmierungs- und Reaktionsprozess kann vollautomatisiert werden.
Noch interessanter wird es, wenn das Monitoringsystem eigenständig lernt, was bei neu auftretenden Anomalien zu tun ist. Machine Learning übernimmt und automatisiert die menschliche Analyse und «lernt» selbst, aus welchen Mustern welche Probleme resultieren. Der Algorithmus erweitert so sein «Repertoire» an problematischen Use Cases und den erfolgversprechenden Reaktionen darauf.
Das Vorhandensein von vielen Daten allein ist aber noch kein Garant für erfolgreiche Anomaly Detection. Genauso wichtig für zielgerichtetes Machine Learning ist die Klärung der folgenden Aspekte:

  • Welche KPIs sollen in den Daten abgebildet werden? Und welche Kategorien werden in welcher Metrik gemessen?
  • Welche Daten braucht man überhaupt dafür und welche Variablen müssen diese beinhalten?
  • Sind Saisonalitäten oder andere Abhängigkeiten zu beachten?
  • Wie soll mit fehlenden oder lückenhaften Daten umgegangen werden?
  • Welcher Prozess muss definiert und absolviert werden, wenn Anomalien identifiziert werden?

Anhand dieser Fragestellungen können die richtigen Algorithmen aufgesetzt werden. Denn nur mit der Wahl der richtigen Algorithmen entlang der Daten und Zielsetzungen ist Anomaly Detection erfolgreich und zweckdienlich. In die Klärung dieses Prozesses muss viel Know-how und Erfahrung einfliessen. Erfahrung, wie sie das Inventx Data-Science-Team bereits sammeln konnte. Fehlen dieses Wissen und die Anwendungspraxis, so riskiert man schlimmstenfalls Fehlalarme und ist mit der Verhinderung von Ausfällen wenig erfolgreich.

Fazit

In Zeiten zunehmender Self-Services ist es für den Finanzsektor unabdingbar, den Kunden stabile und zuverlässige Systeme bereitzustellen. Durch Anomaly Detection, bereichert um selbstlernende, KI-basierte Algorithmen, können Ausfälle verhindert und so Personal- und Ausfallkosten reduziert werden. Das steigert die Rentabilität und trägt auch zu Vertrauens- und Imagebildung bei.