Zurück
Kriminalitätsprävention / Interview
Künstliche Intelligenz in der Betrugserkennung
KI-Lösungen sind nie fertig, das ist ihr Vorteil, sagt Frank Schreiber-Handschug. Der Cyber-Sicherheitsexperte beim DSGV erläutert im Gespräch, warum es unbedingt notwendig ist, Betrugs- und Geldwäscheprävention mithilfe künstlicher Intelligenz weiterzuentwickeln.

KI-Systeme sind in unserem Alltag angekommen. Sie finden beispielweise Anwendung in der Bildanalyse, in Sprachassistenten, in Fabrik-Robotern und in Anti-Spam-Programmen. Sie reagieren situationsadäquat und entdecken Ordnung im Datenchaos. Das macht sie intelligent, sie antizipieren Wahrscheinlichkeiten.

Sind das nicht ideale Voraussetzungen, um künstliche Intelligenz auch in der Betrugserkennung, beispielweise beim kartengestützten Zahlungsverkehr, einzusetzen? Das schon, aber es gebe Hürden, sagt Frank Schreiber-Handschug, verantwortlich für Cyber-Sicherheit beim Deutschen Sparkassen- und Giroverband (DSGV).

Herr Schreiber-Handschug, was unterscheidet künstliche Intelligenz von Machine Learning?

Künstliche Intelligenz ist ein Begriff, der laut den Marktübersichten von Gartner oder Forrester verstärkt als funktionaler Erfolgsfaktor rund um Cyber Defense und Resilience beschrieben wird.

KI beschreibt jegliche Techniken, die es Computern ermöglichen, menschliches Verhalten nachzuahmen. Machine Learning (ML) hingegen ist ein Teilgebiet der KI und beschreibt Algorithmen, die dies umso besser können, je mehr Daten sie zur Verfügung stehen haben.

Eine Form des Machine Learnings ist dabei gut in der Entdeckung von Mustern in Datenmengen, die entweder sehr umfangreich sind oder sich nur über längere Zeiträume abzeichnen. Beide Fälle fallen gerade in der Verhaltensanalytik an.

Eine andere ML-Technik geht über bekannte Regelsysteme hinaus und erkennt Abweichungen, auch wenn Regeln noch nicht verletzt werden, sogenannte Anomalien.

Aber KI ist ein technischer Oberbegriff, der eine Vielzahl mathematischer insbesondere statistischer Methoden und Verfahren umfasst. Daher gibt es nicht DIE künstliche Intelligenz für Cyber-Defense, sondern vielmehr je nach Bedrohungsart bestimmte vorteilhafte Verfahren.

 

Frank Schreiber-Handschug, verantwortlich für Cyber-Sicherheit beim Deutschen Sparkassen- und Giroverband: „KI kann die Trefferquote bei der Betrugserkennung verbessern.“

 

Das bedeutet, dass KI-Lösungen nie fertig sind?

Ja, und genau das ist ihr Vorteil. Sie entwickeln sich ständig weiter und passen sich an. So gibt es regelbasierte Expertensysteme oder fortgeschrittene ML-Modelle auf Basis sogenannter neuronaler Netze.

Während regelbasierte Lösungen eher statisch durch menschliches Wissen konfiguriert werden, verspricht man sich von den neuronalen Verfahren stärker automatisierte Datenanalytik.

Was heißt das für die Betrugsprävention?

Ich würde sagen, KI bietet grundsätzlich die Chance, Prävention zu verbessern. KI ist aber nicht DIE Standard-Lösung für alles. Vielmehr könnte künstliche Intelligenz, eingebettet in klassische Prozesse, uns weiteren Nutzen und Vorteile erschließen.

Denn mit zunehmender Digitalisierung steigt die Anzahl der Angriffspunkte, die es zu beherrschen gilt. Gleichermaßen entstehen neuartige Angriffspunkte in der Wertschöpfungskette beim Einsatz neuer technischer Möglichkeiten, beispielsweise durch künftige Vernetzung von Finanzdienstleistung mit IoT-Datenquellen, wie in den Überlegungen der Deutschen Leasing zur Finanzdienstleistung 4.0 am Beispiel Pay-per-Use für die Industrie 4.0.

Man könnte aber auch sagen: Unsere jetzigen Präventionsmechanismen funktionieren gut. Wofür brauchen wir künstliche Intelligenz?

Ich nenne ein Beispiel. Finanzinstitute verwenden viel Zeit darauf, täglich Verdachtsfälle zu untersuchen, die sich am Ende als legale Transaktionen herausstellen. Mit den heutigen regelbasierten Modellen ist eine effiziente Feinabstimmung dieser sogenannten False-Positives perspektivisch kaum weiter möglich.

Daher werden die Regeln eher scharf eingestellt und deren Austeuerung wird manuell nachbewertet. Resultat ist, dass mehr Transaktionen angehalten werden als notwendig und zugleich manueller Aufwand anfällt.

Das heißt, man könnte mit KI die Trefferquote verbessern?

Ja, und das müssen wir, denn die Anforderungen an die Betrugserkennung steigen. Digitale Systeme durchdringen immer mehr den Alltag. Angreifer können immer leichter digitale Spuren sammeln und ein Puzzle zusammensetzen, mit dem sie beispielsweise Mitarbeiter über ihre wahre Identität täuschen können, wobei das eine sehr theoretische Betrachtung ist.

Künstliche Intelligenz könnte hier eine Lösung sein?

Im Prinzip ja. Denn während regelbasierte Modelle von einem Experten erstellt und ständig überprüft werden müssen, lernen Machine-Learning-Modelle anhand historischer Daten des Kunden dessen Verhalten kennen und bemerken so automatisch, wenn ein Verhalten für diesen auffällig ist.

Ziel des Einsatzes von KI in der Cyber-Defense oder in der Betrugsabwehr ist die automatische Identifizierung und Priorisierung von Angriffen und Bedrohungen in Umsetzungen einer risikobasierten Überwachungsstrategie.

 

Künstliche Intelligenz in der Betrugsabwehr: Machine-Learning-Modelle lernen anhand historischer Daten des Kunden dessen Verhalten kennen und bemerken so automatisch, wenn ein Verhalten für diesen auffällig ist.

 

KI ist also eine Technik und nicht die Lösung.

Ihre Wirkung soll die Automationsgrenzen heutiger Lösungen weiter in Richtung menschlicher Analysefähigkeiten verschieben, damit der künftige, erwartete menschliche Aufwand in der Cyber-Abwehr aufgrund zunehmend digitaler Prozesse beherrschbar bleibt.

Und wo ist der Haken?

Die Sache ist nicht so einfach. Ich nenne Ihnen ein Beispiel: Die besten Ergebnisse bei selbst lernenden Modellen erzielen aktuell sogenannte neuronale Netze. Leider ist hier im Nachhinein jedoch nicht nachvollziehbar, warum ein bestimmter Kunde oder eine Transaktion als auffällig markiert wurde.

Das heißt, ein Geldinstitut müsste dem Kunden sagen: Wir haben Ihre Zahlung abgelehnt, können aber nicht erklären, warum?

Genau, man sollte seinem Kunden zumindest erklären können, warum seine Transaktion aufgehalten oder er überprüft wurde. Aus rechtlicher Sicht – mit Blick auf die DSGVO – ist diese Fähigkeit übrigens nicht nur fakultativ, denn der Gesetzgeber hat dies eindeutig geregelt.

Künstliche Intelligenz beruht ja auf sehr großen Datenmengen. Welchen Einfluss hat das auf den Datenschutz?

Sobald sensible Personendaten herangezogen werden, müssen Maßnahmen des Datenschutzes greifen. Der Ermessensraum liegt dabei in dem Grad der Offensichtlichkeit der Bedrohung.

Gerade aber die Vorbereitung von KI durch Trainingsdaten für Verhaltensmuster erfordert besondere Abstimmungsprozesse hinsichtlich der Datenschutz-Compliance. Das gilt es zu berücksichtigen.

Es gibt also Hürden, der Einsatz von künstlicher Intelligenz würde sich aber durchaus lohnen?

Ja, ich sehe das so. Ein Lösungsansatz wäre beispielsweise eine Plattform für bedrohungsrelevante Daten-Aggregation, aus der sich die verschiedenen Disziplinen wie Cyber-Abwehr, SOC, Fraud und CTI der Cyber-Defense speisen.

Der Plattform-Workflow müsste dabei teilweise echtzeitfähig sein und diente zum anderen Teil forensischen und analytischen Verfahren, wie dem Training von Verhaltenswissen für KI-basierte Überwachung.

Aktuelle, grundlegende ML-Prinzipien werden mit den Fortschritten der KI-Leistung zunehmend für Cyber-Defense eingesetzt werden, vornehmlich in der Forensik zentraler Abwehrteams und in den Verhaltensanalyse-Techniken, also in den UEABA genannten User and Entity Behavior Analytics – hier gerade auch in Echtzeit zur Unterstützung automatisierter Intervention.

Bei alledem ist zu beachten, dass ein wesentliches Einfallstor, neben Schwachstellen in IT-Umgebungen, der Mensch als IT-Nutzer ist, gleichermaßen an seinen privaten IT-Geräten wie als Mitarbeiter im Unternehmen.

Der Faktor Mensch rückt durch die Digitalisierung immer mehr in den Vordergrund. Der klassische Netzwerk-(Perimeter-) Schutz reicht nicht mehr.

Die Stärke heutiger KI liegt in der schnellen Erkennung beliebiger Angriffsmuster, auch wenn die Muster nicht exakt bekannten Mustern entsprechen, sondern nur ähnlich anmuten. Gerade in diesem Kontext wird der Einsatz von KI für Cyber-Defense und bei der Betrugsabwehr die Abwehrleistung klar steigern.

 

Das Interview ist im Infoportal „kartensicherheit.de“ erschienen.

9. September 2020