Weiterentwicklung unserer Data Warehouse/Lakehouse Umgebung - Konzeption und Implementierung von ETL-Prozessen - Sicherstellung der täglichen Datenladeprozesse - Aufbau von Datamarts - Pflege und Wartung der BI-Systeme - Aufbereitung von Informationen für Reporting und Analysen
1
Du setzt Data Pipelines, Data Ingest und Data Processing nach Best Practices um und optimierst sie kontinuierlich. Du entwickelst Analytics Plattformen und effiziente CI/CD Pipelines. Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie …
2
Du berätst unsere Kunden Technologie-unabhängig zu Themen wie Data Integration, Data Warehouse, Data Lake, MDM und Data Platform. Du gestaltest aktiv kunden- und projektspezifische Lösungsansätze im (Cloud) Data Engineering / (Cloud) Data Architektur mit (Azure Cloud, Databricks, Fabric)
3
Erfahrung mit Microsoft Azure Cloud sowie Technologien im Datenmanagement (Databricks, SQL, Scripting mit Powershell, o.ä) wünschenswert, aber auch mit verwandten Tools anderer Marken (Kognos, Qlikview, Business Objects etc
4
Define, implement and enhance a target operating model for the data lake & data platform. Develop a corporate data strategy and governance principles. Develop and maintain CI/CD pipelines. Orchestration workflows using Databricks Asset Bundles
5
Du befindest dich mitten im Studium (Data Engineering, IT, oder ähnliches), oder hast dieses gerade abgeschlossen; Du bringst Kenntnisse im Data Engineering und Datenarchitektur mit, bestenfalls erste Berührungspunkte mit Databricks
6
Möglichkeiten … Du entwickelst und verantwortest bei unseren deutschlandweiten Kunden Data Plattform Architekturen mit klarem Fokus auf die Microsoft Cloud - hierbei spezialisierst du dich auf Microsoft Fabric & Azure Databricks
7
Technische Ausbildung (HTL, Informatikstudium, o.ä.) oder Berufserfahrung im Data Engineering Bereich - Gute Expertise im Bereich Cloud-Administration (Microsoft Fabric, Microsoft Azure und/oder Databricks) - Fortgeschrittene Kenntnisse in Python, SQL, Spark und PowerQuery
8
Standorte: Graz, Wien - Deine Rolle - Das wartet auf dich … Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie Datenbanken (Azure SQL, PostgresSQL, MongoDB o.ä.) um
9
Design and implement a scalable data lakehouse that integrates structured and unstructured data - Develop and maintain pipelines and workflows to ingest, process and store data from different sources … Stay up to date with emerging trends and tools, and recommend the best technologies for specific data use cases
10