Daten

Absatzprognosen durch Machine Learning optimieren

LinkedIn

Dein Lager quillt manchmal über? Oder Du bist nicht lieferfähig, weil Du zu wenig produziert hast? Dann solltest Du Deine Absatzprognosen mal näher betrachten. Denn ungenaue Absatzprognosen sorgen nicht nur für zu volle oder leere Lager, sie verhindern ein nachfrageorientiertes Management der gesamten Wertschöpfungskette und führen zu verpassten Ressourcen- und Kosteneinsparungspotenzialen. Insbesondere das produzierende Gewerbe ist auf genaue Prognosen angewiesen, denn sie ermöglichen eine reibungslose Produktion und verhindern die Verschwendung kostbarer Lagerkapazitäten.

Die Erstellung dieser Prognosen ist für viele Unternehmen allerdings eine wahre Herausforderung und oftmals ein Prozess, der viel Erfahrung und Zeit erfordert. Bisherige Planungsinstrumente, allen voran die häufig genutzte Excel-Tabelle, das allseits bekannte Bauchgefühl oder auch herkömmliche Planungssoftware, stoßen bei der zunehmenden Menge an potenziellen Einflussfaktoren schnell an ihre Grenzen. Technologien des Machine Learning versprechen hier Abhilfe zu schaffen. Durch den Einsatz von Machine Learning Algorithmen können genauere Absatzprognosen erstellt und so letztlich die Planungssicherheit erhöht werden.

Du möchtest Deine Absatzprognosen verbessern und von Machine Learning Verfahren profitieren? Dieser Leitfaden zeigt Dir, wie Du Deine Absatzprognosen mithilfe von Machine Learning optimieren kannst und welche Fragen Du Dir stellen solltest, damit Dein Projekt erfolgreich ist.

1.

Zukunftsfähigkeit der aktuellen Prognosen hinterfragen

1.
Da letztlich jede strategische und operative Entscheidung auf einer Prognose der zukünftigen Absätze basiert, ist es wichtig, sie richtig zu treffen. Daher solltest Du Dich fragen:
    • Wie erstelle ich aktuell die Prognosen und wie viel Aufwand entsteht dadurch?
    • Wie gut sind meine aktuellen Prognosen und vor allem sind diese gut genug?
    • Wie viel besser muss meine neue Prognoselösung sein, damit sich der Einsatz für mich lohnt?

Macht sich dabei eines der drei folgenden Anzeichen bemerkbar, spricht vieles dafür, dass Du von einer Machine Learning Forecasting Lösung profitieren kannst:

    • Statt datengetriebenen Prognosen setzt Du noch auf Erfahrungen und Bauchgefühl? Das Problem: Dieser Art der Planung setzt Erfahrung voraus. Schwierigkeiten entstehen dann, wenn der erfahrene Mitarbeiter verreist, erkrankt oder das Unternehmen verlässt.
    • Dein Team erstellt noch manuelle Prognosen? Die Prognosen mit Excel & Co. zu erstellen ist aufwendig und beansprucht unnötigerweise viel wertvolle Zeit.
    • Deine aktuelle Software ist teuer und bietet nicht die gewünschte Flexibilität?

Diese Fragen dienen Dir als Basis, um klare und messbare Projektziele zu definieren. Dies ist zentral für die spätere Bestimmung des Erfolgs Deines Machine Learning Projekts.

2.

Die notwendige Datenbasis schaffen

2.
Bei der Erstellung von Prognosen geht es darum, auf Basis von historischen Beobachtungen und Daten zukünftige Ereignisse vorherzusagen. Prognosen benötigen also Daten. Die meisten Unternehmen sitzen bereits auf Datenschätzen, die alle wichtigen Informationen enthalten, um genaue Absatzprognosen zu erstellen. Wichtig hierbei ist: Für die Prognose von Absatzmengen spielen nicht nur die reinen Verkaufszahlen eine Rolle, sondern vor allem zusätzliche interne und externe Faktoren. Die Basis für eine zuverlässige Absatzprognose ist daher eine umfangreiche Datenkompilation an sowohl internen und externen Einflussfaktoren.

2a

Relevante interne Datenquellen bestimmen

 
Mit internen Daten sind alle unternehmensinternen Daten gemeint, die als mögliche Einflussfaktoren in Frage kommen können. Diese liegen meist in unterschiedlichen Systemen vor, oftmals verstreut über verschiedene Fachabteilungen. Dazu gehören u.a. die folgenden:
    • Transaktionsdaten, wie z. B. tägliche Verkaufszahlen
    • Produktstammdaten
    • Informationen zu Sortimentsänderungen, wie z. B. hinzugekommene Produkte, Substitute oder Vorgänger/Nachfolger
    • Informationen zu Aktionen, wie z. B. Marketingaktionen, Aktionszeiträume und besondere Verkaufsperioden
    • Informationen über Preisänderungen
    • Informationen über Lagerbestände

Dabei sind Deine Transaktions- und Produktstammdaten absolute „Must-haves“ für die Absatzprognosen.

Im Rahmen dieses Schrittes sollten daher folgende Fragen beantwortet werden:

    • Welche Datenquellen sind relevant und welche Daten können noch als erklärende Faktoren hinzugezogen werden?
    • Wie und wo liegen die Daten vor und für welchen Zeitraum?

2b

Relevante externe Daten identifizieren und sammeln

 
Auf Grundlage einer umfangreichen internen Datenbasis lassen sich bereits deutliche Verbesserungen erzielen und zumeist genauere Absatzprognosen erstellen. Um noch besser planen zu können, kann es Dir helfen, die internen Daten mit externen Daten anzureichern. Dabei können externe Datenquellen vielfältig sein und ihre Aussagekraft ist stark vom Unternehmen abhängig. Oftmals haben Unternehmen bereits ein Gefühl dafür, welche externen Faktoren einen Einfluss auf den Absatz haben können. Dieses Gefühl gilt es mit Daten zu überprüfen und zu beziffern. Zu den gängigsten externen Datenquellen gehören u. a. kalendarische Ereignisse, wie zum Beispiel Schulferien und Feiertage, sowie das Wetter. Dazu gehört aber auch die Anfragehäufigkeit ausgewählter Stichworte bei Google (Google Trends). Maßgebliche Fragen sind hier:
    • Welche externen Daten könnten einen Einfluss auf Deine Absatzprognose haben?
    • Wie kommst Du an die Daten ran und für welchen Zeitraum liegen diese vor?

3.

Den Analysedatensatz vorbereiten

3.
Dein Datenbestand liefert die Voraussetzung für genaue Absatzprognosen. Bevor es losgehen kann, gilt es den verfügbaren Datenbestand zu überprüfen. Doch wie viele Daten brauchst Du für eine Absatzprognose? Und wie gut müssen Deine Daten sein? Für Letzteres gilt: Je vollständiger, konsistenter und fehlerfreier Deine Daten sind, desto besser. Was die Menge der benötigen Transaktionsdaten angeht, gelten zwei bis drei Jahre Datenhistorie als Minimum für ein gutes Modell. Maßgeblich ist hier vor allem die gewünschte Aggregationsebene Deiner Prognose. Hinzu kommt, dass Deine historischen Transaktionsdaten auf mindestens der vorherzusagenden Granularität vorliegen sollten. Das heißt: Wenn du eine Absatzprognose auf Tagesbasis erstellen möchtest, sollten Deine historischen Absatzdaten auch auf Tagesbasis vorliegen.

Bevor Du die Daten zum Trainieren der Machine Learning Algorithmen nutzen kannst, müssen diese aufbereitet werden. Im Wesentlichen umfasst dieser Schritt drei Teile:

    1. Die Zusammenführung der internen und externen Daten aus den oftmals unterschiedlichen Quellen und Aggregationsebenen in einen Analysedatensatz.
    2. Das Filtern und Bereinigen der Daten, indem Fehler in den Daten korrigiert werden.
    3. Das Ableiten weiterer Variablen aus den bereinigten Daten.

4.

Sind die Daten fertig aufbereitet, kann mit der Erstellung der Prognosemodelle unter Verwendung verschiedener Verfahren des Machine Learning (maschinelles Lernen, ML) begonnen werden.

Machine Learning ist ein Oberbegriff dafür, dass künstlich Wissen aus Erfahrung generiert wird. Es umfasst das Trainieren von Algorithmen, die automatisch Muster und Zusammenhänge in historischen Daten erkennen. Diese identifizierten Muster lassen sich dann auf neue Daten anwenden, um so Vorhersagen für z. B. zukünftige Absätze zu treffen.

Die Vorhersage zukünftiger Absätze hängt also maßgeblich davon ab, genügend Muster und relevante Einflussfaktoren den Algorithmen bereitzustellen. Die gute Nachricht: Eine umfangreiche Datenbasis erhöht die Chance, dass alle Muster, sofern es denn welche gibt, abgedeckt werden.

4a

Absatzprognosemodelle trainieren

 
Auf welche Algorithmen solltest Du zur Modellbildung zurückgreifen? Hier stehen einige Optionen zur Auswahl. Dem ein oder anderen dürfte so manches statistische Verfahren, wie etwa die lineare Regression oder aber auch AR(I)MA-Modelle oder exponentielle Glättung, noch aus der Schul- oder Studienzeit bekannt sein. Während diese klassischen Verfahren, durchaus gute Ergebnis erzielen können, sind diese in ihrem Input jedoch zumeist auf reine Zeitreihendaten beschränkt und können zusätzliche Daten nur begrenzt miteinbeziehen. Das Problem? Komplexe Zusammenhänge können so nicht abgebildet werden und werden so den heutigen Anforderungen nicht gerecht. Um diese komplexeren Zusammenhänge abbilden zu können, kommen beim modernen Business Forecasting vermehrt verschiedenste Arten an Entscheidungsbäumen zum Einsatz. Letztlich kann, einer Studie von McKinsey zufolge, durch KI-basierte Vorhersagen der Prognosefehler um 30 bis 50% reduziert werden.

4b

Absatzprognosemodelle bewerten

 
Konnte die Prognose um die gewünschte Genauigkeit verbessert werden? Hat sich das Projekt gelohnt oder bleibst Du doch lieber bei den bewährten Prognosemethoden? Um diese Fragen zu beantworten, gilt es die Prognosemodelle zu evaluieren. Dies erfolgt meist anhand der Modellgüte durch Metriken wie z. B. Root Mean Square Error (RMSE), Mean Absolute Percentage Error (MAPE) oder einer selbst definierten Kostenfunktion. Vor allem aber solltest Du berechnen wie viel Kosten Du durch eine verbesserte Prognosegenauigkeit einsparen kannst. Denn nur durch die Quantifizierung der wirtschaftlichen Auswirkungen wird der ROI ermittelbar. Idealerweise wird der Erfolg Deines Projekts zur Optimierung der Absatzprognose durch die zu Beginn definierten Erfolgsindikatoren bestätigt.

5.

Absatzprognosen im Geschäftsalltag nutzen

5.
Machine Learning trägt zur Verbesserung Deiner Absatzprognosen bei und der operative Mehrwert ist bestätigt – und was nun? Jetzt geht es an die Operationalisierung bzw. die Bereitstellung des Modells, auch Deployment genannt.

Dieser Schritt umfasst zum einen die Entscheidung zum Hosting. Es geht aber auch darum, die benötigten Schnittstellen zu schaffen, und zwar sowohl auf Dateninput als auch Prognoseoutput Seite. Inputseitig wird eine Daten-Pipeline zur automatisierten Übertragung und Aktualisierung der Datenquellen benötigt. Auf Outputseite stehen grundsätzlich zwei Möglichkeiten zur Verfügung:

    • Überführung der Daten und Prognoseergebnisse in ein Dashboard zur Visualisierung und für das Reporting.
    • Integration der Prognoseergebnisse in das Zielsystem, z. B. in CRM, ERP oder WM-System.

Nach der Implementierung geht Deine Lösung sodann in die tägliche Nutzung über. Fortan gilt es, die optimierten Absatzprognosen von der nachfrageorientierten Personal- und Materialbedarfsplanung über die Produktions- bis hin zur Lager- und Transportkapazitätsplanung zu nutzen, um Kosteneinsparungen zu realisieren.

6.

Den richtigen Partner wählen

6.
Da Unternehmen oftmals das interne Know-how und Personal fehlt, um diese fortschrittlichen Methoden im Alleingang umzusetzen, gilt es den richtigen externen Partner zu finden. Hierbei stehst Du letztlich vor der Wahl, eine Standardsoftware einzukaufen oder eine Lösung für Deine Bedürfnisse maßschneidern zu lassen Egal ob du dich für eine Standardsoftware oder individuelle Softwarelösung entscheidest, der Wahl des richtigen Partners kommt eine große und wichtige Aufgabe zu. Doch was macht einen guten Partner aus? Ein Dienstleister oder Anbieter sollte auf jeden Fall:
    • Exzellente Machine Learning Kompetenz und Erfahrung mitbringen
    • Bestenfalls über umfassende Branchen- und Fachexpertise verfügen
    • Und sich Zeit für den gegenseitigen Austausch nehmen, um Dich und Dein Unternehmen kennenzulernen, Deine Herausforderungen zu verstehen und Deine Wünsche bestmöglich umzusetzen.

Daher solltest Du nach Referenzprojekten fragen, um zu erfahren, mit wem der Dienstleister in der Vergangenheit zusammengearbeitet hat, welche konkreten Herausforderungen dabei gelöst und welche Resultate erzielt wurden.

Du willst mehr zum Thema erfahren? Dann schau mal auf der Website des Westphalia DataLab vorbei. Dort findest du weitere Informationen zu diesem und weiteren spannenden Themen.

Weiterführende Quellen:

 

Bildnachweise:

Autor Franziska Mayer

Franziska Mayer ist seit Februar 2020 als Marketing Managerin im Westphalia DataLab tätig. Das Westphalia DataLab (WDL) ist ein auf Data Science spezialisiertes Softwareentwicklungs- und Beratungsunternehmen mit tief greifender Expertise in den Bereichen Künstliche Intelligenz und Machine Learning – wie der 2020 von WELT vergebene „Deutscher KI-Anwenderpreis“ und der vom Center Smart Services der RWTH Aachen offiziell 2019 verliehene Titel „Champion für maschinelles Lernen“ bestätigen. Neben eigenen Software as a Service (SaaS) Produktlösungen, wie z. B. eine voll-automatisierte Forecasting Lösung für den zukünftigen Produktabsatz zur Reduktion von Bestands- und Personalkosten, bietet das WDL Data Science und KI Consulting für Unternehmen aller Branchen an.


Schreibe einen Kommentar