Auditors, know your buzzwords! – Big Data

Stefan Jackmuth

Allgegenwärtig und in jedem Meeting zuhause: buzzwords. Viele Kolleginnen und Kollegen und noch viel mehr Berater verwenden sie und verbreiten so gerne das Gefühl, dass man zum alten Eisen gehört, wenn man sie nicht nutzt. Dank buzzword-Virus verbreiten sich immer mehr und mehr leere Worthülsen, meist ohne, dass Definition oder Konzept dahinter bekannt sind. Mit der monatlichen Serie „Auditors, know your buzzwords!“ möchte ich genau dem entgegenwirken, getreu dem Motto: Wissen was das Wort bedeutet, nicht nur wie es geschrieben wird.

In meinen Seminaren und Vorträgen zum Thema Datenanalyse, aber auch in Kundenprojekten, begegnet mir folgender Satz immer häufiger: „Wir müssen als Revision Big Data Analysen durchführen.“ Das klingt erstmal gut und irgendwie plausibel, auch wenn „Big Data“ bereits seit 2015 aus dem Gartner Hype Cycle verschwunden ist und die Revision scheinbar den Trend verpasst hat. Die Revision braucht auf jeden Fall „Big Data“-Analysen, oder etwa nicht?

Was ist eigentlich „Big Data“ genau? Wenn ich in Seminaren diese Frage stelle, kommt meist die Antwort: „Eine große Datenmenge“. Was eine „große Datenmenge“ ist, wird dann sehr unterschiedlich empfunden. Für den einen sind es mehr als 10.000 Datensätze, der nächste Teilnehmer beschreibt es mit „Alles was nicht mehr in Excel reinpasst." und andere sehen das Kriterium ab einer Milliarde Datensätze erfüllt.

Die Definition

Die letzte Antwort kommt dem Begriff „Big Data“ schon näher, es fehlen aber noch entscheidende Teile:

Neben der schieren Größe (volume) müssen noch zwei weitere Kriterien erfüllt sein: eine hohe Geschwindigkeit der Erstellung (velocity) und die Vielfalt oder Andersartigkeit (variety) der Daten. Im englischen Sprachraum werden die drei Kriterien auch „three V’s of Big Data“ genannt.

three V’s of Big Data

Als Beispiel für Geschwindigkeit der Erstellung (velocity) fällt mir immer ein Besuch in einem Autowerk ein: Das Roboterballett, welches bestens choreographiert ein Auto herstellt, erzeugt in einer hohen Geschwindigkeit Log-Daten. Doch nicht nur im produzierenden Bereich gibt es schnell viele Daten: Eventuell arbeitet der ein oder andere Leser ja bei Visa, dort werden laut Firmenangaben ca. 24.000 Transaktionen pro Sekunde erzeugt.

Nun ein Beispiel zur Vielfalt oder Andersartigkeit (variety). Diese begegnet uns alltäglich im Bereich Social Media: Texte, neben Bildern oder Videos. Diese Daten sind unstrukturiert und nicht mit klassischen Methoden wie simplen Filtern oder Sortieren auswertbar – wonach sollte man auch filtern? Ein Weg wäre aus den Videos die Tonaufnahmen zu extrahieren, diese zu transkribieren und wiederum mit Text Mining zu analysieren. Alles (k)ein Hexenwerk, nur was hat das mit Revision zu tun?

Conclusio

Wenn man an die klassischen Prüfungen denkt, wie zum Beispiel an eine Kreditorenprüfung, ehrlich gesagt relativ wenig? Wer möchte schon die dazugehörigen Buchungen in einer unstrukturierten Weise und zum Überfluss noch in hoher Geschwindigkeit abgelegt haben? Sicherlich hätte hier auch jeder Wirtschaftsprüfer etwas dagegen. Für derartige Prüfungen sind klassische Datenanalyse-Methoden, sei es via Excel, IDEA oder ACL gut zu nutzen. Eine andere Herangehensweise kann die visuelle Analyse sein, dazu gibt es demnächst einen Blogeintrag von mir.

Screenshot eines Datenanalyse-Tools
Visuelle Datenanalyse mit Microsoft® PowerBI

Das heißt nun also, dass man als Revision keinerlei „Big Data“-Know-how braucht? So einfach ist es dann doch nicht: Wenn in Ihrem Unternehmen, sei es im Marketing, der Produktion oder der IT auf „Big Data“-Lösungen gesetzt wird, muss natürlich das Wissen zum Prüfen vorhanden sein oder beschafft werden.

Auch für die klassische Prüfung kann es sehr nützlich sein. Nehmen wir erneut das Beispiel der Kreditorenprüfung. Eine Prüfungsfrage könnte sein, ob die eingegangenen Rechnungen mit den gebuchten Belegen übereinstimmen. Während letztere in strukturierter, auswertbarer Form vorliegen, sind die Kreditorenrechnungen zum Beispiel in einem Dokumentenmanagementsystem vorrätig. Eine mögliche Herangehensweise wäre das Aufbereiten via Text Mining mit anschließender Prüfung gegenüber den geprüften Belegen. Auch dazu mehr in Zukunft.

Was ist also das kompakte Fazit? „Big Data“-Analysen als Revision durchzuführen ist erstrebenswert, aber es ist aus meiner Sicht nicht das „Brot und Butter“-Geschäft.

Wenn es Ihnen in den Fingern juckt und Sie konträrer Meinung sind, immer her damit. Genauso freue ich mich über weitere „buzzwords“. Sie erreichen mich unter stefan.jackmuth@addresults.de, bei XING oder LinkedIn.

Newsletter mit interessanten Beiträgen

Was gibt es Neues? Profitieren Sie von aktuellen und kostenfreien Arbeitsvorlagen, Buchartikeln, Seminarempfehlungen, Best-Practice-Ansätzen uvm. – so können Sie Ihre Arbeitsabläufe optimieren und neues Wissen in der Praxis einsetzen.

Hier geht es zur Anmeldung.

Zur Übersicht