Definition, Implementierung und Weiterentwicklung von Daten-Governance-Richtlinien sowie Mitarbeit in Gremien der Domäne Daten - Zusammenarbeit mit Data Stewards zur Sicherstellung von Datenqualität, -konsistenz und -verfügbarkeit
1
Aufbau und Weiterentwicklung einer modernen Data-Warehouse-Lösung - Arbeiten in einem selbstorganisierten, agilen Softwareentwicklungsteam - Persönliche und berufliche Weiterentwicklung sowie offene Kommunikationskultur - Verantwortung für Datenmodellierung, Architektur und Performanceoptimierung
2
Deine Erfahrung und Qualifikation - Abgeschlossene Ausbildung mit Schwerpunkt IT sowie gute Kenntnisse in MS SQL, ETL-Prozessen und Datenbanktechnologien - Einschlägige Berufserfahrung und versierter Umgang mit PowerBI als Visualisierungstool
3
Entwicklung und Implementierung von Datenprodukten auf der Databricks-Plattform - Design und Umsetzung von ETL/ELT-Pipelines für große Datenmengen - Erstellung interaktiver Dashboards (z.B. mit Streamlit) auf Posit Connect - Integration und Operationalisierung von Machine-Learning-Modellen (optional, je nach Projekt und …
4
Vollzeit - Salzburg | Wien - Digital Transformation & Services - Zuständige Führungskraft: ... , Zuständige/r Recruiter/in: ... , Gesellschaft: Porsche Holding Gesellschaft m.b.H … Kontinuierliche Optimierung von ETL-Prozessen zur Verbesserung der Datenqualität
5
Building efficient and scalable ETL/ELT processes to ingest, transform, and load data from various sources (databases, APIs, streaming platforms) into cloud-based data lakes and warehouses … Contributing to data modeling and architecture decisions to ensure consistency, accessibility, and long-term maintainability of …
6
Gute Kenntnisse in SQL, sowie Erfahrung mit ETL-Prozessen und Datenmanagement - Versiert im Umgang mit DevOps-Praktiken und in Entwicklungs-, Test- und Deployment-Workflows. Technisches Verständnis, analytische Stärke und Teamgeist mit Kommunikationsstärke
8
Build and operate ETL/orchestration workflows (Airflow, Argo, Prefect) … Set up CI/CD pipelines, monitoring (Prometheus/Grafana) and performance-tuning on HPC/cloud infrastructure (OpenStack + Kubernetes). Work closely with HPC, ML and legal/governance teams as well as external partners
9
Datenmodellierung & Architektur – Entwicklung und Optimierung effizienter Datenbankstrukturen - Datenintegration & Verarbeitung – Sicherstellen eines reibungslosen Datenflusses aus verschiedenen Quellen - Big Data & moderne Technologien – Einführung neuer Technologien zur Weiterentwicklung der Datenverarbeitung
10