Abgeschlossenes Studium (Mathematik, Statistik, Wirtschaftswissenschaften, IT oder Ähnliches) … Know-how im Bereich Data Science Life Cycle (SQL, R und/oder Python): Datenstrukturen, Datenanalyse und -aufbereitung, Modelltraining, Evaluation und Deployment
1
Aufgaben - Administrate, monitor and optimize our Big Data environment based on Apache Hadoop from Cloudera (AWS-Cloud) - Manage and maintain services like Kafka, Flink, NiFi, DynamoDB and Iceberg Tables … Advise our Data Engineers and Data Scientists on the selection of Hadoop services for business use cases
2
Conduct excellent, cutting-edge research including the supervision of students - Publish academic contributions to top-tier conferences and journals in the field of data mining, machine learning and AI - Attend national and international conferences
3
Mitarbeit bei Data Analytics Projekten - Erstellung von Spezifikationen und Anforderungen für Datenanalyse - Entwicklung, Umsetzung und Optimierung von Datamining-Konzepten bzw. Datenauswertung - Durchgängige Umsetzung von Machine Learning Projekten
4
MIC is leading worldwide in the automation of global customs and trade compliance processes. With our software solutions, we ensure safe and efficient customs clearance within the legal frameworks for more than 800 customers - like VW, Zalando and IKEA - on 6 continents … Then join us, shape the future in our …
5
Data Engineer / Data Science Engineer … für Wien, Eisenstadt, St. Pölten, Linz, Wels, Salzburg, Graz - Aufgaben: Analyze and prepare data from the pre-systems - Model and map scalable ELT/ETL flows (batch and streaming) … Enrich data and load into big data environment (Apache Hadoop on Cloudera)
6
Du designest & implementierst AI-Agenten und AI-Workflows in einer modernen Umgebung - Du entwickelst maßgeschneiderte Machine-Learning-Umgebungen und begleitest diese vom Prototyping im Notebook bis zur Produktlösung in der Produktion
7
Konfiguration und Einrichtung von Schnittstellen - Entwicklung und Integration von Anwendungen auf der SAP BTP-Plattform - Zusammenarbeit mit Fachbereichen zur Identifizierung von Anforderungen und Entwicklung maßgeschneideter Lösungen
8
Datenanalyse und Interpretation zur Ableitung fundierter Empfehlungen - Erstellung und Weiterentwicklung von Risikoberichten - Entwicklung interaktiver Dashboards zur Visualisierung von Risikokennzahlen - Beratung und Kommunikation mit internen und externen Stakeholdern
9
für Wien, Linz, Wels, Salzburg, Graz, St. Pölten - Aufgaben: Administrate, monitor and optimize our Big Data environment based on Apache Hadoop from Cloudera (AWS-Cloud) … Advise our Data Engineers and Data Scientists on the selection of Hadoop services for business use cases
10