Aufbau und Weiterentwicklung einer modernen Data-Warehouse-Lösung - Arbeiten in einem selbstorganisierten, agilen Softwareentwicklungsteam - Persönliche und berufliche Weiterentwicklung sowie offene Kommunikationskultur - Verantwortung für Datenmodellierung, Architektur und Performanceoptimierung
1
Entwicklung und Implementierung von Datenprodukten auf der Databricks-Plattform - Design und Umsetzung von ETL/ELT-Pipelines für große Datenmengen - Erstellung interaktiver Dashboards (z.B. mit Streamlit) auf Posit Connect - Integration und Operationalisierung von Machine-Learning-Modellen (optional, je nach Projekt und …
2
Einsatz innovativer Technologien und Methoden zur Lösung komplexer datenbezogener Herausforderungen … Entwicklung und Umsetzung Cloud-basierter Datenlösungen und -plattformen, insbesondere mit Azure Data Factory und/oder Databricks
3
Du setzt Data Pipelines, Data Ingest und Data Processing nach Best Practices um und optimierst sie kontinuierlich. Du entwickelst Analytics Plattformen und effiziente CI/CD Pipelines. Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie …
4
Du berätst unsere Kunden Technologie-unabhängig zu Themen wie Data Integration, Data Warehouse, Data Lake, MDM und Data Platform. Du gestaltest aktiv kunden- und projektspezifische Lösungsansätze im (Cloud) Data Engineering / (Cloud) Data Architektur mit (Azure Cloud, Databricks, Fabric)
5
Daten sind unsere DnA! Deine auch? Du möchtest die Zukunft des Cloud Data Engineering sowie die strategische Ausrichtung und Lösungsansätze von morgen gestalten? Dabei reizt es dich in anspruchsvollen Analytics-Projekten Datenprozesse und moderne Architektur zu erarbeiten und solide Methoden mit echtem Mehrwert einzusetzen
6
Leveraging ecosystems such as Databricks (SQL, Delta Lake, Workflows, Unity Catalog) or Google BigQuery to deliver reliable and performant data workflows … Contributing to data modeling and architecture decisions to ensure consistency, accessibility, and long-term maintainability of the data landscape
7
Design and implement robust, scalable, and low latency streaming and batch data pipelines using Databricks on Azure … Collaborate with data scientists, analysts, third party tools, front- and backend engineers, and product managers to deliver reliable, high-quality data products
8
Technische Ausbildung (HTL, Informatikstudium, o.ä.) oder Berufserfahrung im Data Engineering Bereich - Gute Expertise im Bereich Cloud-Administration (Microsoft Fabric, Microsoft Azure und/oder Databricks) - Fortgeschrittene Kenntnisse in Python, SQL, Spark und PowerQuery
9
Standorte: Graz, Wien - Deine Rolle - Das wartet auf dich … Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie Datenbanken (Azure SQL, PostgresSQL, MongoDB o.ä.) um
10