IoT-Telemetriedaten - Einsatzort: Großraum Graz - Art der Anstellung: Vollzeit - Fachbereich: Software & IT - Gehalt (Brutto/Monat): von 4.000 bis 5.000 Euro - Zeit für eine neue Herausforderung! Analyse von Telemetrie- und Sensordaten zur Erkennung von Mustern, Anomalien und Optimierungspotenzialen
1
Entwicklung und Umsetzung stabiler, skalierbarer Datenprozesse zur Erfassung und Aufbereitung von Telemetriedaten aus ESL- und EdgeSense-Systemen - Aufbau und Weiterentwicklung von Datenmodellen und Analyse-Workflows für Reporting und Datenauswertung
2
Entwicklung und Pflege hochwertiger Datenmodelle - Erstellung von Dashboards und Reports als operative und strategische Entscheidungsunterstützung - Sicherstellung der reibungslosen Integration verschiedener Datenquellen - Erkennen von Verbesserungspotenzialen in Geschäftsprozessen
3
Konzeption und Umsetzung von skalierbaren Datenlösungen unter Nutzung moderner Cloud-Technologien. Entwicklung und Optimierung von automatisierten ELT-Prozessen. Zusammenarbeit mit Data Scientists zur Bereitstellung von Machine Learning Modellen, Datenprodukten und interaktiven Dashboards
4
Collaborate with cross-functional teams to translate business requirements into scalable and easy to maintain data structures … Familiarity with modern data platforms and tools (e.g., Snowflake, dbt, GCP, Airflow) is a plus, but not a requirement
5
Areas that play to your strengths - All the responsibilities we'll trust you with: VISUALIZE DATA - In this internship you'll participate in and support projects to establishing new analytical solutions and dashboards for the Global Operations Team
6
Implementierung und Integration von AI-Prozessen und Datenlösungen bei unseren Kunden - Aufbau und Betreuung von Datenpipelines und Schnittstellen, von der Quelle bis zur Anwendung - Entwicklung und Automatisierung von ETL-/ELT-Prozessen (z
7
Automate Infrastructure: Use Terraform to provision, configure, and maintain Snowflake environments and supporting cloud infrastructure. Craft Efficient Data Pipelines: Design, implement, and optimize ELT/ETL pipelines using SQL and Python
8
Summary - Ähnliche Jobs - Aktualisiert am 05/12/2025 - Arbeite an einer hochmodernen, skalierbaren Data-Vault-2.0-Architektur. Gestalte Entscheidungsgrundlagen für Analytics & BI. Firmenprofil - Du arbeitest für ein etabliertes, datengetriebenes Unternehmen in Österreich, das sich auf die Entwicklung moderner Cloud- und Data-Warehouse …
9
Design and Implement Data Platforms: Architect and maintain robust, scalable data platforms using modern technologies. Develop and Optimize Pipelines: Build automated ETL/ELT pipelines for structured and unstructured data. Cloud Integration: Implement and manage solutions across AWS, Azure, and GCP environments
10