Beschreibung
Aufgaben:
* Dateningestion und -verarbeitung großer Datensätze aus heterogenen Quellen, z. B. Dynamics, Dateien, SQL
* Konzeption, Betrieb und Optimierung von Datenpipelines in Microsoft Fabric
* Performance-Optimierung von Spark-Workloads in Bronze-, Silver- und Gold-Layern
* Migration und Integration bestehender Power-BI-Reports in die Fabric-Lakehouse-Architektur
* Analyse und Weiterentwicklung bestehender Notebooks wie Azure Databricks und PySpark
* Modellierung und Pflege des Lakehouse-Dat...
weiter lesen
Aufgaben:
* Dateningestion und -verarbeitung großer Datensätze aus heterogenen Quellen, z. B. Dynamics, Dateien, SQL
* Konzeption, Betrieb und Optimierung von Datenpipelines in Microsoft Fabric
* Performance-Optimierung von Spark-Workloads in Bronze-, Silver- und Gold-Layern
* Migration und Integration bestehender Power-BI-Reports in die Fabric-Lakehouse-Architektur
* Analyse und Weiterentwicklung bestehender Notebooks wie Azure Databricks und PySpark
* Modellierung und Pflege des Lakehouse-Datenmodells
* Monitoring, Alerting und Weiterentwicklung der Datenarchitektur
Profil:
* Studium im Bereich Informatik, Statistik, Software Engineering, Wirtschaftsingenieurwesen oder eine vergleichbare Qualifikation
* Erfahrung im Umgang mitMicrosoft Fabric, SQL, PySpark, Power BI, Azure Data Factory und Azure Data Lake (ADLS Gen2)
* Erfahrung im Umgang mit Python und Azure Databricks von Vorteil
* zuverlässige, strukturierte und lösungsorientierte Arbeitsweise, sowie proaktiver Wissensaustausch und Eigeninitiative
* sehr gute Deutsch- und Englischkenntnisse