Beschreibung
## Dein Profil
- Sehr gute Deutsch- und Englischkenntnisse
- Mindestens ein abgeschlossenen Bachelorstudium im Bereich Informatik oder vergleichbar
- Sehr gute Programmierkenntnissen in Python oder R
- Sicherer Umgang mit DevOps Technologien (Docker, Git, Bash, CI/CD etc.)
- Praktische Erfahrungen in der Umsetzung von Data Pipelines
- Erste Erfahrungen im Bereich Big Data Analytics (Spark etc.) und in Cloud Technologien (AWS, MS Azure, GCP)
- Hohe Datenaffinität
## Deine Aufgaben
- Anwendung statistischer Methoden wie deskriptive Analysen, Regressionsverfahren, Zeitreihenanalysen
- Verfahren im Bereich Data Mining & Machine Learning
- Erfahrung in der Umsetzung von Data Pipelines– Data Preprocessing über Analytics bis zur Data Story (z.B. Technologien wie R, Python, SQL, noSQL, Qlik, PowerBI, Tableau)
- Analyse großer Datenmengen mit Apache Stacks wie Spark und Cloud Technologien (AWS, MS Azure, GCP)
- Anwendung des Methodenwissens auf betriebswirtschaftliche Fragestellungen
- Managementorientierte Zusammenfassung und Präsentation wesentlicher Erkenntnisse
- Adressatengerechte Kommunikation komplexer, analytischer oder technischer Zusammenhänge
- Übernahme erster Teilprojektverantwortung
- Mitarbeit an Querschnittsaufgaben
## Wir wollen mehr. Auch wenn es um deine Vorteile geht.
- Mobiles Arbeiten & Homeoffice
- Weiterbildungen & Coaching
- Best-in-class-Equipment
- Firmenwagen und/oder Business Bike
- Parkplatz
- Gute Verkehrsanbindung
- Events für Mitarbeiter
- Sportangebote
- Off-site
- Mitarbeiterrabatte
- Getränke- und Snackangebot
- Regelmäßige Office Lunches
Die ausgeschriebene Stelle wird nicht im Rahmen einer Personalvermittlung besetzt.