Analysieren und Verifizieren: Prozesse und Systeme von Banken sowie IT-Dienstleistern direkt vor Ort untersuchen, Aussagen verifizieren und sicherstellen, dass alle Risiken lückenlos erfasst und adressiert werden. Risiken sichtbar machen: Gefundene Schwachstellen strukturiert dokumentieren sowie klar …
1
Analysieren und Verifizieren: Prozesse und Systeme von Banken sowie IT-Dienstleistern direkt vor Ort untersuchen, Aussagen verifizieren und sicherstellen, dass alle Risiken lückenlos erfasst und adressiert werden. Risiken sichtbar machen: Gefundene Schwachstellen strukturiert dokumentieren sowie klar …
2
Aufgaben - Administrate, monitor and optimize our Big Data environment based on Apache Hadoop from Cloudera (AWS-Cloud) - Manage and maintain services like Kafka, Flink, NiFi, DynamoDB and Iceberg Tables - IaaC deployment via Terraform
3
You may also develop some real-time data pipelines using Cloudera tools such as NiFi, Kafka, Spark, Kudu, and Impala. Collaborate with data scientists, analysts, third party tools, front- and backend engineers, and product managers to deliver reliable, high-quality data products
4
für Wien, Linz, Wels, Salzburg, Graz, St. Pölten - Aufgaben: Administrate, monitor and optimize our Big Data environment based on Apache Hadoop from Cloudera (AWS-Cloud) - Manage and maintain services like Kafka, Flink, NiFi, DynamoDB and Iceberg Tables
5
THIS IS US - The Data Science department uses statistical modeling, machine learning and optimization techniques to continuously improve business processes at NEW YORKER … Work closely with the data engineering and data platform teams to maintain, operate and improve the infrastructure and pipelines that run critical data …
6
Required Qualifications: 1+ years of experience with Databricks, including development of production-grade pipelines (streaming or batch) - Strong experience with the Azure cloud ecosystem, including Azure Data Lake and Azure DevOps … Experience in developing data pipelines using the Cloudera stack is a huge plus
7
THIS IS US - The Data Science department uses state-of-the-art machine learning and optimization techniques to continuously improve business processes at NEW YORKER … Operate and optimize Hadoop (Cloudera) clusters with support of the DevOps and Infrastructure teams
8
Job Details - Must Haves: A passion for optimizing the Software Development Lifecycle to speed - delivery of solutions - Min. 3 years of relevant professional experience with DevOps related - topics - Public Cloud experience, preferably GCP - Experience with Cloudera platfrom
9
Analysieren und Verifizieren: Prozesse und Systeme von Banken sowie IT-Dienstleistern direkt vor Ort untersuchen, Aussagen verifizieren und sicherstellen, dass alle Risiken lückenlos erfasst und adressiert werden. Risiken sichtbar machen: Gefundene Schwachstellen strukturiert dokumentieren sowie klar …
10