Das hier vorgestellte Framework zur Betrugsdatenanalyse zeigt anschaulich das generelle Vorgehen unterschiedliche Betrugsmuster anhand eines großen Datensatz zu identifizieren. Das Framework kann somit als generelles Vorgehen bei der Datenanalyse unterstützen. In diesem Fall beschreibe das Modell unter Verwendung von IDEA als Analysesoftware.
1. Zielvorgabe
Ganz klar: Auch in der Datenanalyse ist alles ohne eine genaue Zielvorgabe: Nichts. Daher zu Beginn Klärung der Frage welche Art von Betrug möchte ich entdecken? Was für ein Betrug ist in dem geprüften Bereich möglich und realistisch?
2. Datenimport
Wenn ich ein Ziel habe, ist die Klärung der nächsten Frage auch leichter: In welchen Daten kann ich Hinweise auf diese möglichen Betrugsszenarien finden? Es gilt also die Systeme zu bestimmen und die Art und Weise die Daten zu erhalten, die ich analysieren möchte. Das ist je nach Aufgabe, die ich mir im vorigen Schritt gestellt habe, unterschiedlich schwer und tendiert gerade bei unstrukturierten Daten hin zu sehr komplex.
Grundsätzlich ist der Importassistent in IDEA eine große Hilfe in diesem Schritt. Er hilft bei dem Import unterschiedlicher Dateiformate in IDEA. Mit Hilfe des Drucklistenimporters kann man gar unstrukturierte Tabellen in reine Tabellenform umwandeln und ins IDEA importieren. Bei komplett unstrukturierten Daten wie beispielsweise Freitext hilft das Tool jedoch auch nicht.
Doch auch die Wahl der Quellsysteme und der eigentliche Datenabgriff aus dem System ist eine Schlüsselfunktion bei der Datenanalyse. Hierfür helfen gute Beziehungen zu den entsprechenden System- oder Datenbankadministratoren enorm.
In punkto SAP ist der SmartExporter, als Zusatz für IDEA erhältlich, eine echte Arbeitserleichterung.
3. Tabellenstruktur
Wenn ich festgestellt habe wo meine Datenherkommen (Datenquelle) und wie ich sie in mein Analysetool bekomme (Datenimport), bestimme ich die Struktur der Tabelle. Mit IDEA mache ich dies immer noch mit Hilfe des Importassistenten.
Sofern ich hier Drucklisten ausgewählt habe, ist die Erstellung der Tabellenstruktur eine umfangreichere Aufgabe. Daher erläutere ich dies in einem extra Blogbeitrag. Das erfordert auch etwas Übung. Ist aber dann ein Wundermittel für unstrukturierte Tabellen.
4. Daten validieren
Sind die Daten einmal importiert, geht es erstmal darum diesen Import zu validieren: Ist also alles korrekt in das Analysetool importiert und macht der Datensatz Sinn in Bezug auf unser Prüfungsziel?
In IDEA empfehle ich dazu als erstes die Anzahl der Datensätze, die in IDEA im linken Fenster angezeigt werden, mit der Anzahl in der Quelldatei abzugleichen.
Als weitere Vollständigkeitsprüfung kann man dann Abstimmsummen über Betragsspalten aus der Datei bilden. Nach Möglichkeit vergleicht man die Summe auch mit der ursprünglichen Datei. Außerdem gibt diese Summe auch einen ersten Hinweis auf einen korrekten und vollständigen Datentransfer.
Auch Hinweise auf Vollständigkeit, aber zusätzlich auch erste Auffälligkeiten liefern die Tabelleneigenschaften in dem Fenster rechts oben in IDEA. Hier geben das erste und letzte Datum von Einträgen beispielsweise Hinweise auf den ausgewählten Zeitraum.
5. Auswertung
Jetzt kommen wir zur eigentlichen Analyse der Daten. Dafür gibt es verschiedene Wege oder Verfahren, die uns helfen die Daten zu verstehen und vielmehr Betrugsmuster zu entlarven. Das geht mit oder ohne Analysetools wie IDEA oder ACL. Python ist da beispielsweise eine Programmiersprache mit der man Analysen selber coden kann. Doch gerade in diesem Schritt hilft einem IDEA enorm weiter, da man nicht programmieren können muss, um das dieses Ziel zu gelangen. Vielmehr sind die Analysen Bestandteil der Software und daher Programmierkenntnisse glücklicherweise nicht erforderlich.
Wie diese Analysen funktionieren und welche man für was verwenden kann, erläutere ich in den Posts auf diesem Blog. Grundsätzlich kann man jedoch zwischen den vier Methoden in der Betrugsdatenanalyse unterscheiden:
a. Rechenfelder erstellen:
Damit ist bei IDEA gemeint dem Datensatz eine neue Spalte hinzuzufügen, in der Berechnungen angestellt werden, ähnlich wie beispielsweise in Excel mit Hilfe von Formeln zu rechnen. Hierbei hilft IDEA mit speziellen Formeln für die Datenanalyse und speziell der Betrugsprüfung in vielerlei Form. Auch dieses Thema erläutere ich umfangreich in meinem Blog.
b. Stichproben
Auch hilft IDEA bei der Erstellung der guten alten Stichproben. Denn auch hierbei gibt es verschiedene Methoden. Und auch wenn der ein oder andere das Ziehen und Auswerten von Stichproben vielleicht nicht als Datenanalyse versteht, so ist es immer noch ein durchaus ernst zu nehmender und zielführender Prozess, um Betrug auf die Schliche zu kommen. Mehr zu den Stichprobenverfahren auf diesem Blog.
c. Statistik
Besonders hierbei, bei der Anwendung statistischer Analysen ist IDEA ein großer Helfer. Derlei gibt es eine Menge an Statistikanalysen in der Betrugsdatenanalyse. Auch hierzu gibt es eine Menge Artikel auf diesem Blog.
d. Process Mining
Die Methode des Process Mining ist eine recht junge Methode, die ich auch zur Betrugsbekämpfung verwende. Mit IDEA kann man dies auf die klassische Weise handeln, und dies beschreibe ich auch auf diesem Blog, oder mit der Process Mining App für IDEA, die Audicon zusammen mit dem Softwareanbieter Celonis auf den Markt gebracht hat. Letzteres ist automatisiert und zeigt den Prozess grafisch aufbereitet und ist daher natürlich einfacher zu handhaben und schöner, hat aber dann auch seinen Preis.
6. Visualisierung
Die vorangegangenen Ergebnisse aus der Auswertung stellt man im nächsten Schritt als dann immer grafisch dar, sei es in Form einer Grafik, Tabelle oder Matrix. Das hilft in erster Linie selber das Ergebnis zu interpretieren und der Überlegung welche weiteren Schritte man in der Datenanalyse geht. Doch genauso überzeugen aufbereitete Auswertungen bei der Kommunikation der Ergebnisse an andere.
7. Ergebnis
Das Ergebnis solch einer Datenanalyse mit der Betrug aufgedeckt werden soll, kann auch sein, dass man weiter analysieren muss, da das Ziel mit dieser Auswertung nicht erreicht wurde. Das bedeutet dann den hier beschriebenen Prozess erneut zu durchlaufen. Das kann beispielsweise bedeuten, dass wir mehr Daten aus anderen Informationsquellen benötigen und diese mit den vorhandenen Tabellen verknüpfen müssen, ein sogenannter Table-Join.
Genauso können wir aber auch bereits Red-Flags in der Analyse ausfindig gemacht haben. Dann gilt es diese an entsprechender Stelle zu kommunizieren und weitere Untersuchungsschritte einzuleiten.
Jeder einzelne Schritt der in diesem Framework beschriebenen Datenanalyse sollten besonders im Rahmen einer Betrugsermittlung dokumentiert sein, so dass eine dritte, unabhängige Person nachvollziehen kann, was und welche Daten wie untersucht wurden. Der Audittrail sollte unveränderbar dokumentiert sein. Diese Funktion ist bei IDEA bereits hinterlegt.
Jedenfalls zeigt dieses Framework die grundsätzliche Vorgehensweise bei der Anwendung von Datenanalyse bei der Betrugsermittlung auf. Das detaillierte Vorgehen innerhalb der einzelnen Schritte, wie beispielsweise dem Datenimport, der Tabellenstruktur, der Auswertungsmethoden und so weiter, beschreibe ich ausführlich auf diesem Blog.
Kommentar schreiben