Data Engineer (m/w/d)

Standorte:

Hamburg, Köln, Gütersloh, Kamp-Lintfort

Branche:

Informatik, IT-Consulting

Gehalt:

50.000 - 70.000 EUR

Art der Anstellung:

Vollzeit

Start:

laufend/sofort

Jetzt bewerben

Du kennst jemanden zu dem dieser Job passen könnte? Weitersagen lohnt sich! Freunde werben Freunde

Du möchtest erfolgreich den Datenfluss im Unternehmen sicherstellen?

Du kannst dich für Daten-Modellierungen und Machine Learning begeistern?

Zudem fühlst du dich in einem agilen, dynamischen Team wohl?

Dann bist du hier genau richtig!

Der Arbeitgeber:

Unser Kunde ist ein weltweit tätiges Dienstleistungsunternehmen und betreibt unter anderem Servicecenter, IT-Systeme und steuert Logistikprozesse sowie Finanzdienstleistungen für externe Auftraggeber.

Das wird geboten:

  • Umfassende Mobile Work-Möglichkeiten
  • Viele Freiräume um eigene Ideen zu verwirklichen und eigenverantwortliches Arbeiten
  • Modernste technische Ausstattungen 
  • Motiviertes Teams in einem wachsenden Technologieunternehmen 
  • Flexibler Arbeitsalltag durch Vertrauensarbeitszeit  
  • Diverse Weiterbildungs- und Enwicklungmöglichkeiten 

Das könnten deine Aufgaben sein:

  • Als Teil eines agilen, fachübergreifenden AI-DevOps Teams entwickelst du individuelle Strategien, Konzepte und Lösungen zur Handhabung von spannenden BigData Aufgabenstellungen
  • Du bist verantwortlich für das Design und die Realisierung skalierbarer, schemafreier oder schematischer Datenstrukturen im NoSQL- und Cloud Umfeld sowie die Durchführung der Data Transformation
  • Du stelltst automatisierte und hochperformante ETL Data Pipelines auf, inklusive der Datenkonsolidierung und -bereinigung.
  • Du stellst eine zuverlässige Datenbereitstellung und Monitoring des Betriebs sicher
  • Du betreust Deployment Pipelines für die Operationalisierung von Machine Learning Modellen (Prototype-To-Production, Continuous Integration, ...)
  • Du übernimmst den Betrieb von Data Microservices inklusive der Aufstellung von APIs und Schnittstellen zur Anbindung an weitere Informationssysteme
  • Du bist verantwortlich für die Weiterentwicklung und Optimierung von DataLakes und Net-Of-Truths hinsichtlich Architektur, Data Integrity, Datenorganisation und Performance

Das bringst du mit:

  • Du verfügst über ein abgeschlossenes Studium im Bereich der Informatik oder Physik oder eine vergleichbare Berufsausbildung
  • Du bringst eine ausgeprägte technische Affinität sowie praktische Erfahrungen in einer oder mehreren Programmier- und Skriptsprachen (z.B. Scala, Python, C#, SQL, ...) mit
  • Du konntest bereits erste Erfahrung im Aufbau von DataPipelines, DataLake Architekturen und Speichertechnologien im Produktivbetrieb auf den Cloud-Stacks der gängigen Hyperscaler, z.B. Azure, AWS und GCloud sammeln
  • Du besitzt idealerweise bereits Anwendungserfahrung mit aktuellen (NO)SQL Technologien im Big Data Umfeld, z.B. Spark, Hadoop, HBase, HDFS, Hive
  • Erfahrungen im Bereich DataSecurity, DataLab Betrieb sowie DataFlows sind von Vorteil
  • Sehr gute Kenntnisse im Umgang mit ETL

Du bist neugierig geworden? Dann bewirb dich ganz bequem und einfach mit deinem Lebenslauf bei uns!