Das bringst du mit - Abgeschlossenes Studium der (Wirtschafts-)Informatik oder vergleichbare Qualifikation - Praktische Erfahrung mit Cloud Data Plattformen, idealerweise Azure und modernere Datenplattformen, Databricks von Vorteil
1
Erfahrung mit Microsoft Azure Cloud sowie Technologien im Datenmanagement (Databricks, SQL, Scripting mit Powershell, o.ä) wünschenswert, aber auch mit verwandten Tools anderer Marken (Kognos, Qlikview, Business Objects etc
2
Informationstechnologie / Software | Job-ID 80074 - Das sind deine Aufgaben - Aufbau, Weiterentwicklung und Betrieb unserer Data Lakehouse Umgebung auf Basis von Azure und Databricks - Entwicklung und Optimierung von ETL/ELT-Prozessen mit Hilfe von SQL, Python (Spark) und Azure Data Factory
3
Aufbau, Weiterentwicklung und Betrieb unserer Data Lakehouse Umgebung auf Basis von Azure und Databricks - Entwicklung und Optimierung von ETL/ELT-Prozessen mit Hilfe von SQL, Python (Spark) und Azure Data Factory - Aufbau und Pflege von Datenmodellen sowie Datamarts für Self-Service Analytics in PowerBI
4
MICROSOFT FABRIC · POWER BI · DATA ENGINEERING - UNSER ANGEBOT - Wir bauen unsere komplette Systemlandschaft – ERP, PIM, LVS, weitere Fachanwendungen – derzeit neu auf. Parallel entsteht eine Business-Intelligence-Umgebung … Moderne Technologien: Fabric, Lakehouse, ML-Workflows
5
Steuerung und Priorisierung des Backlogs für Analyse-, Wartungs- und Weiterentwicklungstasks. Sicherstellung eines stabilen Betriebs, der technischen Qualität und Einhaltung von Architektur- und Sicherheitsstandards - Effiziente Verarbeitung, Transformation und Integration großer Datenmengen in einer modernen Cloud …
6
Standorte: Graz, Wien - Deine Rolle - Das wartet auf dich … Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie Datenbanken (Azure SQL, PostgresSQL, MongoDB o.ä.) um
7
Design and implement a scalable data lakehouse that integrates structured and unstructured data - Develop and maintain pipelines and workflows to ingest, process and store data from different sources … Stay up to date with emerging trends and tools, and recommend the best technologies for specific data use cases
8
Entwicklung und Optimierung von ETL/ELT-Prozessen mit Hilfe von SQL, Python (Spark) und Azure Data Factory - Aufbau und Pflege von Datenmodellen sowie Datamarts für Self-Service Analytics in PowerBI - Enge Zusammenarbeit mit Data Professionals und Fachbereichen zur Sicherstellung von Datenqualität und -konsistenz
9
Build and optimize ETL/ELT pipelines on Databricks using PySpark and Delta Lake, ensuring both performance and scalability. Develop, train, and deploy machine learning and deep learning models (TensorFlow, PyTorch) into production environments
10