News-Details

Neuronales Netz: Prediction mit viel Power

Vor einem Jahr haben wir ein Vorhersage-Projekt für eine internationale Bank angefangen. Aufgrund der hochkomplexen Datenlage, der normalen Bedenken an die Datenqualität der von Menschen eingegebenen Daten, meiner Vorerfahrungen und der Vorliebe des Kunden, haben wir uns schon im Vorgespräch gemeinsam entschieden, ein neuronales Netzwerk für das Modell zu entwickeln. Der Sinn des Projektes ist eine Vorhersage der detaillierten wirtschaftlichen Kennzahlen aller Filialen in mehreren Ländern, um die Bildung der Budgets und Zielvorgaben maßgeblich zu unterstützen.

"Oh, eine Wirtschafts-Vorhersage? Das ist doch dubios!".

Ja. Bekannterweise lässt sich z.B. der Verlauf von einzelnen Aktien nicht maschinell vorhersagen, warum sollte dies dann für eine Bank funktionieren? Nun, alleine mit dem Aktienkurs mag sich die Zukunft nicht vorhersagen lassen, doch wenn die Datengrundlage die Buchhaltung aller Filialen des Unternehmens ist, lässt sich die kumulative Schätzungsungenauigkeit, frei nach Enrico Fermi, reduzieren indem sie auf viele Termini aufgeteilt wird. Das Credo des Zeitgeistes besagt ebenfalls: "Solange du genug Daten hast, kannst du alles machen!", und wir haben mehr als genug Daten. Also versuchen wir es.

Der Erfahrung entsprechend, hat bis dato die Analyse der Daten die meiste Zeit in Anspruch genommen. Bei den Daten handelt es sich um monatliche Daten eines halben Jahrzehnts mehrerer Dutzend Kennzahlen, von je tausenden Filialen in einem Dutzend Ländern, in je mehreren Dutzend Segmenten und je mehreren hundert Produkten, sowohl je in Eigen- und Fremdwährung. Wer mitrechnet merkt gleich, dass allein die Menge der Daten so groß ist, dass man auch bei dedizierten Datenbanken auf starken Rechnern, schon bei der Datenvorbereitung auf effiziente Abfragen achten muss.

Eine riesige Hürde war die enorme, auf eine Tafel bzw. einen Bildschirm nicht zu bringende, Anzahl an Spalten in einer flachen Darstellung der Daten, welche es unpraktikabel machte sich die Daten konkret als Beispiel anzusehen und die Erstellung der Modellarchitektur, sowie die Anreicherung der Daten um Aggregate, war stets mit einem Kopfweh hervorbringendem Maß an Abstraktion verbunden.

Um dennoch in die Komplexität der Datenstruktur eintauchen zu können, hat sich am Anfang des Projektes die Zusammenarbeit vor Ort und in Person bewährt, um sicher zu stellen, dass Alle vom Selben reden.

Die Zusammenarbeit bei dem Vorhersage-Projekt für die internationale Bank, erfolgt in erster Linie mit einer IT-Organisation der Bank. Somit war es für uns Alle Neuland die tatsächlichen Daten zu erkunden.

Was bedeuten alle einzelnen Kennzahlen? Welche Kennzahlen sind für welche Produkte und für welche Segmente relevant? Wie ist überhaupt die Datenqualität? Welche scheinbaren Datenlücken sind normal und welche sind mangelnde Datenqualität? Welche Unterschiede und Gemeinsamkeiten gibt es zwischen den Ländern? Wie lassen sich Produkte sinnvoll gruppieren? Wie groß ist die Spannweite der Größenordnung einzelner Kennzahlen zwischen mehreren Segmenten bzw. den kleinsten und größten Filialen? Wie korrelieren die Daten miteinander, abhängig von Produkt, Segment und Land?

Diese Fragen konnten wir Techniker zu einem großen Teil selbst beantworten und bei den restlichen hat uns die Fachabteilung gerne unterstützt.

Es hat viel Zeit gebraucht, um diese Fragen zu beantworten, jedoch allein die Beantwortung dieser Fragen stellt für den Kunden bereits einen großen Mehrwert dar.

Jede dieser Fragestellungen hat sich auf die geplante Modellarchitektur ausgewirkt, sowie auf die Anreicherung der Datensätze um Aggregate, deren Sinn es ist dem Modell überblicksmäßige Informationen zu liefern, um während der Vorhersage im Detail, den Fokus auf's Ganze beizubehalten.

Zusätzlich möchten wir die internen Daten um externe Daten anreichern, also haben wir uns überlegt welche Daten sinnvoll wären (z.B. generelle Wirtschafts-Indikatoren der Länder, Daten von Konkurrenten) und versucht so viel wie möglich an öffentlichen Datenquellen guter Qualität ausfindig zu machen. Für alles was nicht auffindbar war, haben wir einen professionellen Datenhändler beauftragt.

Während sich aufgrund all Dessen die Datengrundlage stets änderte, erhielt ich regelmäßig die Frage "Ivan, packt die Maschine so viele Input-Neuronen?".

Eine schwierige und kaum zu beantwortende Frage. Obwohl "die Maschine" eigentlich als Super-Computer zu bezeichnen ist, mit ihren mehreren Workstation-GPUs welche für neuronale Netze konzipiert sind, mit mehr RAM als der Laptop auf dem ich dies gerade schreibe Festplattenspeicher hat und mit absurd viel CPU-Leistung; waren es trotzdem beängstigend viele Input-Neuronen.

Unser Mitarbeiter Ivan Lazarov

Zurück