Du möchtest erfolgreich den Datenfluss im Unternehmen sicherstellen?
Du kannst dich für Daten-Modellierungen und Machine Learning begeistern?
Zudem fühlst du dich in einem agilen, dynamischen Team wohl?
Dann bist du hier genau richtig!
Der Arbeitgeber:
Unser Kunde ist ein weltweit tätiges Dienstleistungsunternehmen und betreibt unter anderem Servicecenter, IT-Systeme und steuert Logistikprozesse sowie Finanzdienstleistungen für externe Auftraggeber.
Das wird geboten:
- Umfassende Mobile Work-Möglichkeiten
- Viele Freiräume um eigene Ideen zu verwirklichen und eigenverantwortliches Arbeiten
- Modernste technische Ausstattungen
- Motiviertes Teams in einem wachsenden Technologieunternehmen
- Flexibler Arbeitsalltag durch Vertrauensarbeitszeit
- Diverse Weiterbildungs- und Enwicklungmöglichkeiten
Das könnten deine Aufgaben sein:
- Als Teil eines agilen, fachübergreifenden AI-DevOps Teams entwickelst du individuelle Strategien, Konzepte und Lösungen zur Handhabung von spannenden BigData Aufgabenstellungen
- Du bist verantwortlich für das Design und die Realisierung skalierbarer, schemafreier oder schematischer Datenstrukturen im NoSQL- und Cloud Umfeld sowie die Durchführung der Data Transformation
- Du stelltst automatisierte und hochperformante ETL Data Pipelines auf, inklusive der Datenkonsolidierung und -bereinigung.
- Du stellst eine zuverlässige Datenbereitstellung und Monitoring des Betriebs sicher
- Du betreust Deployment Pipelines für die Operationalisierung von Machine Learning Modellen (Prototype-To-Production, Continuous Integration, ...)
- Du übernimmst den Betrieb von Data Microservices inklusive der Aufstellung von APIs und Schnittstellen zur Anbindung an weitere Informationssysteme
- Du bist verantwortlich für die Weiterentwicklung und Optimierung von DataLakes und Net-Of-Truths hinsichtlich Architektur, Data Integrity, Datenorganisation und Performance
Das bringst du mit:
- Du verfügst über ein abgeschlossenes Studium im Bereich der Informatik oder Physik oder eine vergleichbare Berufsausbildung
- Du bringst eine ausgeprägte technische Affinität sowie praktische Erfahrungen in einer oder mehreren Programmier- und Skriptsprachen (z.B. Scala, Python, C#, SQL, ...) mit
- Du konntest bereits erste Erfahrung im Aufbau von DataPipelines, DataLake Architekturen und Speichertechnologien im Produktivbetrieb auf den Cloud-Stacks der gängigen Hyperscaler, z.B. Azure, AWS und GCloud sammeln
- Du besitzt idealerweise bereits Anwendungserfahrung mit aktuellen (NO)SQL Technologien im Big Data Umfeld, z.B. Spark, Hadoop, HBase, HDFS, Hive
- Erfahrungen im Bereich DataSecurity, DataLab Betrieb sowie DataFlows sind von Vorteil
- Sehr gute Kenntnisse im Umgang mit ETL
Du bist neugierig geworden? Dann bewirb dich ganz bequem und einfach mit deinem Lebenslauf bei uns!