Entwicklung und Implementierung von Datenprodukten auf der Databricks-Plattform - Design und Umsetzung von ETL/ELT-Pipelines für große Datenmengen - Erstellung interaktiver Dashboards (z.B. mit Streamlit) auf Posit Connect - Integration und Operationalisierung von Machine-Learning-Modellen (optional, je nach Projekt und …
1
Weiterentwicklung unserer Data Warehouse/Lakehouse Umgebung - Konzeption und Implementierung von ETL-Prozessen - Sicherstellung der täglichen Datenladeprozesse - Aufbau von Datamarts - Pflege und Wartung der BI-Systeme - Aufbereitung von Informationen für Reporting und Analysen
2
Du setzt Data Pipelines, Data Ingest und Data Processing nach Best Practices um und optimierst sie kontinuierlich. Du entwickelst Analytics Plattformen und effiziente CI/CD Pipelines. Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie …
3
Du berätst unsere Kunden Technologie-unabhängig zu Themen wie Data Integration, Data Warehouse, Data Lake, MDM und Data Platform. Du gestaltest aktiv kunden- und projektspezifische Lösungsansätze im (Cloud) Data Engineering / (Cloud) Data Architektur mit (Azure Cloud, Databricks, Fabric)
4
Daten sind unsere DnA! Deine auch? Du möchtest die Zukunft des Cloud Data Engineering sowie die strategische Ausrichtung und Lösungsansätze von morgen gestalten? Dabei reizt es dich in anspruchsvollen Analytics-Projekten Datenprozesse und moderne Architektur zu erarbeiten und solide Methoden mit echtem Mehrwert einzusetzen
5
Leveraging ecosystems such as Databricks (SQL, Delta Lake, Workflows, Unity Catalog) or Google BigQuery to deliver reliable and performant data workflows … Contributing to data modeling and architecture decisions to ensure consistency, accessibility, and long-term maintainability of the data landscape
6
Design and implement robust, scalable, and low latency streaming and batch data pipelines using Databricks on Azure … Collaborate with data scientists, analysts, third party tools, front- and backend engineers, and product managers to deliver reliable, high-quality data products
7
Technische Ausbildung (HTL, Informatikstudium, o.ä.) oder Berufserfahrung im Data Engineering Bereich - Gute Expertise im Bereich Cloud-Administration (Microsoft Fabric, Microsoft Azure und/oder Databricks) - Fortgeschrittene Kenntnisse in Python, SQL, Spark und PowerQuery
8
Standorte: Graz, Wien - Deine Rolle - Das wartet auf dich … Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie Datenbanken (Azure SQL, PostgresSQL, MongoDB o.ä.) um
9
As a DevOps Engineer, you will be involved in data and analytics projects with a strong focus on Databricks and large-scale data processing. Your key responsibilities will include … Manipulating, analyzing, and transforming complex datasets using Python (Pandas, NumPy, PySpark)
10