Beschreibung
Über unsDu brennst für saubere, skalierbare Datenmodelle und möchtest Data Vault nicht nur "mitdenken”, sondern als Rückgrat eines modernen Lakehouse etablieren? Dann gestalte mit uns die nächste Ausbaustufe unserer Datenplattform - mit klarem Schwerpunkt auf Datenmodellierung, Data Vault und nachhaltiger Informationsarchitektur.
Konzeption und Weiterentwicklung unseres Enterprise-Datenmodells im Azure-Lakehouse - mit Schwerpunkt auf Data Vault (Raw/Business Vault) sowie abgeleiteten Data Mar...
weiter lesen
Über unsDu brennst für saubere, skalierbare Datenmodelle und möchtest Data Vault nicht nur "mitdenken”, sondern als Rückgrat eines modernen Lakehouse etablieren? Dann gestalte mit uns die nächste Ausbaustufe unserer Datenplattform - mit klarem Schwerpunkt auf Datenmodellierung, Data Vault und nachhaltiger Informationsarchitektur.
Konzeption und Weiterentwicklung unseres Enterprise-Datenmodells im Azure-Lakehouse - mit Schwerpunkt auf Data Vault (Raw/Business Vault) sowie abgeleiteten Data Marts (z. B. Kimball)
Modellierung von Hubs, Links, Satellites (inkl. Historisierung, Keys, Loaded/Record Source, PIT/Bridge-Konzepte) und Ableitung fachlicher Sichten für Analytics & Reporting
Definition von Modellierungsstandards, Namenskonventionen und Best Practices für Wiederverwendbarkeit, Skalierbarkeit und Governance
Enge Zusammenarbeit mit Fachbereichen, Data Engineers, BI/Analytics und Data Governance, um Anforderungen in robuste, nachvollziehbare Datenstrukturen zu übersetzen
Qualitätssicherung der Datenmodelle (Konsistenz, Historisierung, Nachvollziehbarkeit, Testbarkeit) über den gesamten Datenlebenszyklus
Unterstützung bei der Integration neuer Quellsysteme: Analyse, Mapping, Modell-Impact, Regelwerke und Dokumentation
Mitarbeit an Architektur- und Technologieentscheidungen rund um Data Vault im Lakehouse (z. B. Automatisierung, Metadaten, Orchestrierung)
Abgeschlossenes Studium der (Wirtschafts-)Informatik, Mathematik, Naturwissenschaften oder eine vergleichbare Qualifikation
Mehrjährige Erfahrung in Datenmodellierung - idealerweise mit einem klaren Schwerpunkt auf Data Vault (2.0); Kimball-Kenntnisse sind ein Plus
Sehr gutes Verständnis von Historisierung, Integrationsmodellierung, Business Keys, Surrogate Keys sowie konzeptioneller/fachlicher Modellierung
Erfahrung im Cloud-/Lakehouse-Umfeld, idealerweise Microsoft AzureKenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
Routine im Zusammenspiel mit ETL/ELT-Prozessen, Datenqualität und idealerweise Datenkatalog/Metadaten/Dokumentation
Strukturierte, eigenverantwortliche Arbeitsweise, analytisches Denkvermögen und Freude an Abstimmung mit Stakeholdern
Sehr gute Deutsch- und gute Englischkenntnisse
Was Dich bei uns erwartet:
Ein Umfeld, in dem Du Dinge wirklich bewegen kannst: moderne Datenplattform, relevante Use Cases, viel Gestaltungsspielraum
Kollegiales Teamwork, kurze Wege und pragmatische Zusammenarbeit
Fachliche Weiterentwicklung durch spannende Projekte, Austausch und Qualifizierung
Benefits:
30 Tage Urlaub
Flexible Arbeitszeiten
Tageweise mobiles Arbeiten
Ermäßigtes DeutschlandTicket Job
Betriebliche Altersvorsorge
Kitaplätze
Bistro
Personalrabatt
Unterstützungskasse
Seminare & Fortbildungen
Betriebliches Gesundheitsmanagement
Firmenevents