Im Telemetrie-Bereich - Einsatzort: Graz Umgebung - Art der Anstellung: Vollzeit - Fachbereich: Software & IT - Gehalt (Brutto/Monat): von 3.900 bis 4.600 Euro … Pflege und Optimierung von Datenverarbeitungskomponenten, mit Schwerpunkt auf Snowflake Data Cloud
1
IoT-Telemetriedaten - Einsatzort: Großraum Graz - Art der Anstellung: Vollzeit - Fachbereich: Software & IT - Gehalt (Brutto/Monat): von 4.000 bis 5.000 Euro - Zeit für eine neue Herausforderung! Analyse von Telemetrie- und Sensordaten zur Erkennung von Mustern, Anomalien und Optimierungspotenzialen
2
Entwicklung und Pflege hochwertiger Datenmodelle - Erstellung von Dashboards und Reports als operative und strategische Entscheidungsunterstützung - Sicherstellung der reibungslosen Integration verschiedener Datenquellen - Erkennen von Verbesserungspotenzialen in Geschäftsprozessen
3
Konzeption und Umsetzung von skalierbaren Datenlösungen unter Nutzung moderner Cloud-Technologien. Entwicklung und Optimierung von automatisierten ELT-Prozessen. Zusammenarbeit mit Data Scientists zur Bereitstellung von Machine Learning Modellen, Datenprodukten und interaktiven Dashboards
4
Areas that play to your strengths - All the responsibilities we'll trust you with: VISUALIZE DATA - In this internship you'll participate in and support projects to establishing new analytical solutions and dashboards for the Global Operations Team
5
Hands-on mindset with the ability to design, build, and troubleshoot data solutions end-to-end - Experience working with large datasets and complex data ecosystems - Familiarity with modern data platforms and tools (e.g., Snowflake, dbt, GCP, Airflow) is a plus, but not a requirement
6
Implementierung und Integration von AI-Prozessen und Datenlösungen bei unseren Kunden - Aufbau und Betreuung von Datenpipelines und Schnittstellen, von der Quelle bis zur Anwendung - Entwicklung und Automatisierung von ETL-/ELT-Prozessen (z
7
Automate Infrastructure: Use Terraform to provision, configure, and maintain Snowflake environments and supporting cloud infrastructure. Craft Efficient Data Pipelines: Design, implement, and optimize ELT/ETL pipelines using SQL and Python
8
Im Telemetrie-Bereich … Sie arbeiten eng mit Analysten zusammen, sorgen für Datenqualität und Zuverlässigkeit, treiben den Einsatz moderner Technologien wie Snowflake voran und geben Best Practices im Bereich Data Engineering weiter
9
Design and Implement Data Platforms: Architect and maintain robust, scalable data platforms using modern technologies. Develop and Optimize Pipelines: Build automated ETL/ELT pipelines for structured and unstructured data. Cloud Integration: Implement and manage solutions across AWS, Azure, and GCP environments
10