CDS Vacancies



Details:

Apply

Data Integration Specialist

ATH Reference:

1234

Country:

Germany

Job Area:

Munchen

Closure Date:

27 February 2024

Date Posted:

27 November 2023

Hiring Manager:

Carolin Hansch

Description:

***** Please be aware this role may close prior to end date *****

HPE CDS (Customer Delivery Services) ist eine 100%ige Tochtergesellschaft in der Hewlett Packard Enterprise Gruppe. Wir erbringen technische IT Dienstleistungen für Kunden in den unterschiedlichsten Wirtschaftszweigen. Mit mehr als 1.700 Mitarbeiterinnen und Mitarbeitern sind wir in 11 Europäischen Ländern vertreten.


Als Data Integration Specialist spielst du eine zentrale Rolle in unserem Team, indem du umfassende Erfahrung in verschiedenen Technologien einbringst. Deine Hauptaufgaben umfassen die Vorbereitung und Durchführung von Klärungsmeetings und Workshops mit Stakeholdern, um Geschäftsanwendungsfälle zu identifizieren und zu verstehen sowie Anforderungen abzuleiten.


Standort: bevorzugt Stuttgart & München, Deutschland


Deine Aufgaben:

  • Vorbereitung und Durchführung von Klärungsmeetings und Workshops mit Stakeholdern zur Identifikation und Verständnis von Geschäftsanwendungsfällen und Ableitung von Anforderungen.
  • Sammlung und Definition von funktionalen und nicht-funktionalen Anforderungen, Beschreibung der Anwendungs-Business-Architektur.
  • Erstellung von Anforderungsdokumenten, Dokumentation von Lösungsansätzen und Übergabe an Entwicklungsteams.
  • Beschreibung eines Anwendungsprozesses in BPMN 2.0 Notation und Dokumentation in einem S-AD.
  • Beschreibung eines Anwendungs-Business-Kontexts, von Schnittstellen und Bereitstellungsdiagrammen in UML 2.5 und Dokumentation in einem S-AD.
  • Dokumentation von Anwendungsarchitekturinformationen in einem S-AD.
  • Ausarbeitung von Architektenentscheidungen und Dokumentation in einem S-AD.
  • Grundlegendes Verständnis moderner, containerisierter Anwendungen in Java >= 17 und Nutzung des Frameworks Quarkus.
  • Interesse an Anwendungen, die Kafka Streams Libraries verwenden, um in Apache Kafka Clustern zu schreiben und daraus zu lesen, sowie an Confluent Schema Registries.
  • Konfiguration von Kafka Connect-Plugins zur Erstellung von häufig verwendeten Connectors.
  • Grundlegendes Verständnis von Kubernetes-Manifesten unter Verwendung von Helm-Charts.
  • Erstellung von CI/CD-Pipelines mit Atlassian's Bamboo und ArgoCD.
  • Nutzung und grundlegende Konfiguration einer OpenShift-Containerplattform.
  • Arbeit in einem agilen Team nach SAFe (Scaled Agile Framework).


Das bringst du mit:

  • Erfahrung mit den folgenden Technologien: Java, Kafka, Kubernetes & Helm-Charts, Elastic, JSON / YAML, OpenShift, ArgoCD & Bamboo, Schema Registries, BPMN & UML
  • Fähigkeit zur eigenständigen Arbeit im Team.
  • Ausgeprägte Kommunikations- und Kundenbetreuungsfähigkeiten.
  • Fähigkeit zur Validierung/Evaluierung, ob technische Anforderungen erfüllt sind.
  • Proaktive und selbstorganisierte Arbeitsweise.
  • Die Fähigkeit zur Validierung/Evaluierung, ob technische Anforderungen erfüllt sind, bringst du mit.
  • Du arbeitest proaktiv und selbstorganisiert.


Hinweis: Auch wenn Du nicht alle Anforderungen erfüllst, lohnt sich bei Interesse Deine Bewerbung. Gegebenenfalls können fehlende Qualifikationen vorab geschult oder im Einsatz erarbeitet werden.


Schau dir unsere Datenschutzrichtlinie an:

https://www.hpe.com/de/de/legal/privacy.html


ID: 598


Apply