Leadentwickler Hadoop ( (m/w/d) (3639)

Startdatum:

asap

Enddatum:

31.12.2019 Option auf Verlänge

Beschäftigungsart:

Freiberuflich

Region:

Frankfurt a. Main


Beschreibung:

Für unseren Kunden in Frankfurt a. Main sind wir aktuell auf der Suche nach einem Leadentwickler Hadoop (m/w/d).

 

Falls Sie die folgende Projekbeschreibung interessiert und Sie die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort (Stunden- oder Tagessatz) sowie Ihres Profils (vorzugsweise in Word).

 

Projektstandort: Frankfurt a. Main (80% on-site/20% remote möglich

Dauer: asap bis 31.12.2019 (Option auf Verlägerung)

Abgabefrist beim Kunden: 12:00 Uhr 25.10.2019

 

Projekt:

  • Projekt „Daten- und Analyseplattform“

  • Unterstützung des Projektes bei der Migration von einer klassischen DWH Anwendung hin zu einem Data-Lake Ansatz. In Zusammenarbeit mit einem agil arbeitenden Team Definition und Aufbau von Datenseeinfrastrukturen, Definition und Implementierung von fachlicher Logik in der AWS-Cloud

 

Aufgaben:

  • Entwicklung im Bereich Hadoop (Amazon EMR)

  • Entwicklung im Spark-Framework, insbesondere mit Scala, Phyton und SQL

  • Einrichtung und Konfiguration von Big-Data-Infrastrukturen in der AWS-Cloud auf Basis von Hadoop (Amazon EMR), Spark, Apache Nifi, Apache Airflow

  • Einrichtung, Konfiguration und Entwicklung im Bereich relationaler Datenbanken inkl. ANSI-SQL

  • Know-how-Transfer zu den internen Entwicklern insbesondere im Bereich Hadoop (Amazon EMR) und Spark

  • Anleitung und Coaching der internen Entwickler bei der Nutzung von Hadoop (Amazon EMR) und Spark

  • Erstellung von Konzepten unter Berücksichtigung von Best-Practices und bestehender Industriestandards

  • Datenintegration mit Hadoop (Amazon EMR), Spark, Apache Nifi, Apache Airflow

  • Konzeption und Umsetzung von Datenmodellen

  • In der Zusammenarbeit auf Teamebene erfolgt die Umsetzung auf Basis von agilen Vorgehensweisen wie z. B. Scrum, die Einhaltung der Scrum-Prozesse im Scrum-Team ist zu berücksichtigen und ein regelmäßiger Austausch mit dem Scrum-Master/ Scrum-Team ist erforderlich

  • Die externe Fachkraft übernimmt im Rahmen ihrer Beauftragung Aufgaben im Team gemäß der agilen Methoden durch Pull von Tasks, die aus User Stories resultieren, gemäß ihrer Kompetenzen und in Abstimmung mit dem gesamten Scrum-Team

  • Die externe Fachkraft nimmt an allen fachbezogenen Arbeitssitzungen des Scrum-Teams inkl. der Retrospektiven teil

 

Anforderungen:

  • Software Entwicklung (Hadoop (Amazon EMR), Spark (Scala, Phyton, SQL)

  • Problemlösungs-/ Arbeitsorganisations-Know-how

  • Kommunikations- und Moderations-Know-how (agiles Mindset)

  • Hervorragende und mehrfach nachweislich praxiserprobte aktuelle Kenntnisse in Big-Data-Projekten

  • Relationale Datenbanken (inkl. ANSI-SQL)

  • Apache Nifi, Apache Airflow wünschenswert

  • AWS Cloud wünschenswert

 

 

Für Fragen, Anregungen oder Wünsche stehen wir Ihnen gern zur Verfügung.



Projektvolumen:
50 Tage