Das sind deine Aufgaben
Design, Entwicklung, Implementierung und Betrieb von ETL-Prozessen zur Datenaufbereitung
Datenmodellierung nach dem Star-Schema unter Berücksichtigung von Einkaufsprozessen und deren Auswirkungen auf das ALDI-Datenmodell
Verarbeitung strukturierter Daten über Batch-Prozesse oder andere Automatisierungen
Entwicklung skalierbarer und performanter Datenpipelines für große Datenmengen
Aufbau von Monitoring-Mechanismen und automatisierter Fehlerbehandlung für ETL-Strecken
Sicherstellung von Datenqualität, Konsistenz und Einhaltung von Governance-Vorgaben
Enge Zusammenarbeit mit BI Engineers zur gemeinsamen Konzeption und Verfeinerung von User Stories zur Optimierung unserer Datenmodelle
Abstimmung mit Business Analysts und Fachexperten zur fachlich korrekten Umsetzung von Anforderungen
Sicherstellung des laufenden Betriebs durch Bearbeitung von User-Tickets und Unterstützung täglicher Prozesse
Durchführung von Ad-hoc-Analysen zu strategischen Fragestellungen
Das bringst du mit
Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen
Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL-Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git
Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B. Databricks, Azure Data Lake, Azure DevOps)
Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln
Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken
Du verfügst über gute Englisch- und Deutschkenntnisse
Das bieten wir dir
MNCJobs.de will not be responsible for any payment made to a third-party. All Terms of Use are applicable.