Das bringst du mit - Abgeschlossenes Studium der (Wirtschafts-)Informatik oder vergleichbare Qualifikation - Praktische Erfahrung mit Cloud Data Plattformen, idealerweise Azure und modernere Datenplattformen, Databricks von Vorteil
1
Degree in Computer Science, Software Engineering, Data Engineering/Data Science, or equivalent experience - 5+ years in data engineering with leadership experience - Hands-on with Databricks (Python, Spark SQL, Lakehouse), Declarative Pipelines, Jobs/Workflows
2
Degree in Computer Science, Software Engineering, Data Engineering/Data Science, or equivalent experience - Hands-on with Databricks (Python, Spark SQL, Lakehouse), Declarative Pipelines, and Jobs/Workflows - Experience with Azure Data Factory, data modeling, performance tuning, and production data systems
3
Reverse Engineering komplexer, historisch gewachsener Excel-Modelle (inkl. Formeln und ggf. Makros) - Dokumentation und Übersetzung der fachlichen Logik für IT und Datenplattformen - Sicherstellung von fachlicher und technischer Konsistenz (Detailarbeit mit hoher Genauigkeit)
4
Degree in Computer Science, Software Engineering, Data Science, or equivalent experience … Experience with Streamlit (or similar) and packaging apps for Databricks or DockerComfortable with Databricks, databases, APIs; interested in contributing to ML/(gen)AI solutions
5
Informationstechnologie / Software | Job-ID 80074 - Das sind deine Aufgaben - Aufbau, Weiterentwicklung und Betrieb unserer Data Lakehouse Umgebung auf Basis von Azure und Databricks - Entwicklung und Optimierung von ETL/ELT-Prozessen mit Hilfe von SQL, Python (Spark) und Azure Data Factory
6
Aufbau, Weiterentwicklung und Betrieb unserer Data Lakehouse Umgebung auf Basis von Azure und Databricks - Entwicklung und Optimierung von ETL/ELT-Prozessen mit Hilfe von SQL, Python (Spark) und Azure Data Factory - Aufbau und Pflege von Datenmodellen sowie Datamarts für Self-Service Analytics in PowerBI
7
Steuerung und Priorisierung des Backlogs für Analyse-, Wartungs- und Weiterentwicklungstasks. Sicherstellung eines stabilen Betriebs, der technischen Qualität und Einhaltung von Architektur- und Sicherheitsstandards - Effiziente Verarbeitung, Transformation und Integration großer Datenmengen in einer modernen Cloud …
8
Standorte: Graz, Wien - Deine Rolle - Das wartet auf dich … Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie Datenbanken (Azure SQL, PostgresSQL, MongoDB o.ä.) um
9
Entwicklung und Optimierung von ETL/ELT-Prozessen mit Hilfe von SQL, Python (Spark) und Azure Data Factory - Aufbau und Pflege von Datenmodellen sowie Datamarts für Self-Service Analytics in PowerBI - Enge Zusammenarbeit mit Data Professionals und Fachbereichen zur Sicherstellung von Datenqualität und -konsistenz
10