Der Handlungsbedarf war bekannt, die Herangehensweise und die konkrete Technologie mussten aber noch ausgelotet werden. Da die bestehende Data-Management-Architektur grundlegend neu zu gestalten war, wollte man dies nicht ohne eine Bedarfsanalyse tun.
Deshalb startete Sievert das Projekt mit einem zweitägigen Workshop, in dem wir gemeinsam mit dem Kunden die bestehenden Herausforderungen und Anforderungen analysierten. Im Vordergrund stand zunächst nicht die Auswahl von Tools, sondern die Ermittlung des tatsächlichen Bedarfs für die datenstrategische Ausrichtung und das Verständnis grundlegender Architekturkonzepte wie Data Lake, Data Warehouse, Data Lakehouse und Data Hub, immer im Kontext der spezifischen Unternehmensprozesse.
Nach der Identifikation der Anwendungsfälle aus Controlling und Vertrieb, die das größte Nutzenpotenzial für eine Umsetzung in einem Proof-Of-Concept hatten, wurden die geeigneten Architekturansätze diskutiert. Schnell war klar, dass die Dringlichkeit einer analytischen Datenplattform in Form eines Cloud Data Warehouses mit entsprechender Skalierbarkeit im Vordergrund stand. Für die Anbindung der datenliefernden Quellsysteme setzte man zum einen auf eine flexible Datenmodellierung mit Data Vault, zum anderen auf eine Service-Infrastruktur mit Data Pipelines.
Unter Berücksichtigung der Anforderungen wie Erweiterbarkeit, Betriebskosten, Funktionalität und Innovationspotenzial kristallisierte sich eine Lösungskombination bestehend aus der Talend Data Integration Platform, Snowflake und Power BI als Visualisierungstool heraus. Mit diesem Setup starteten wir in die Pilotumsetzung und realisierten binnen 5 Wochen einen Data Mart inklusive der dazugehörigen Datenbewirtschaftung und Modellierung. Dies bestätigte sowohl die technische Umsetzbarkeit als auch den direkt nutzbaren geschäftlichen Mehrwert der Lösung.
Die dabei aufgebaute technische Grundlage war bereits so komplett, dass sie nahezu ohne Erweiterung für die vollständige Umsetzung der Use Cases für Controlling und Vertrieb genutzt werden konnte. Die Erstellung der Data Pipelines führte neben der automatisierten und zeitnahen Lieferung von operativen Daten zur ersehnten Qualitätssicherung und Standardisierung der Kennzahlenberechnung.
Im Fokus stand auch die Schaffung von interaktiven Dashboards für detaillierte Deckungsbeitragsanalysen und Provisionsberechnungen. Die individuelle Erstellung von Reports auf Basis selbst ermittelter Kennzahlen gehörte damit der Vergangenheit an – ein weiterer Schritt zu mehr Transparenz und Vertrauen in die Datenbasis.
Zur Bewältigung der Datenvielfalt wurde ein zentralisiertes, wartbares „Golden Dataset“ aufgebaut, das Plan- und Ist-Daten in verschiedenen Granularitäten abbildete. Anspruch war es, widerspruchsfreie und vergleichbare Kennzahlen für mehrere Power BI-Berichte bereitzustellen. Die Herausforderung bestand darin, zahlreiche Faktentabellen mit variierender zeitlicher und inhaltlicher Tiefe konsistent zu modellieren. Die Lösung sollte sowohl für aggregierte Kennzahlen als auch für feingranulare Einzelbelege skalierbar sein.
Hierzu wurde ein Sternschema-Datenmodell entwickelt, das durch die Trennung von Fakten- und Dimensionstabellen eine stabile und erweiterbare Architektur ermöglicht. Zur Beherrschung der Granularitätsunterschiede kamen speziell angepasste DAX-Maßausdrücke zum Einsatz. Diese erlauben flexible Berechnungen über verschiedene Zeitebenen und Analysekontexte hinweg – bei gleichbleibender Berichtslogik. Die Umsetzung erfolgte in enger Zusammenarbeit mit den Fachbereichen und führte zu einem robusten, wiederverwendbaren Modell für alle vertriebsrelevanten Auswertungen.
Basierend auf diesem Modell wurde auch die Einführung einer rollenbasierten Zugriffsteuerung (Row-Level Security, RLS) vorbereitet. So können Inhalte zielgruppenspezifisch gesteuert und datenschutzkonform auf einzelne Regionen oder Vertriebsmitarbeitende eingeschränkt werden. Der Zugriff wird dabei über Single-Sign-On (SSO) in Zusammenwirkung mit Active Directory (AD), Microsoft Azure und Snowflake reglementiert.
Mittlerweile erreicht das neu aufgebaute Kennzahlensystem einen Anwenderkreis von über 100 Mitarbeiter, Tendenz steigend. Neue operative Daten werden integriert, der Ausbau der Funktionalität für weitere Geschäftsbereiche wie Produktmanagement, Fertigung und Logistik schreitet voran. Die Potenziale der Datenbasis für Data Science und Machine Learning werden für neue Use Cases untersucht.