Hadoop/Spark Experte (m/w/d) (3346)

Startdatum:

01.07.2019

Enddatum:

31.12.2019

Beschäftigungsart:

Freiberuflich

Region:

Frankfurt am Main


Beschreibung:

Für unseren Kunden in Frankfurt am Main sind wir aktuell auf der Suche nach einem Hadoop/Spark Experten (m/w/d).

 

Falls Sie die folgende Projektbeschreibung interessiert und Sie die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort (Stunden- oder Tagessatz) sowie Ihres Profils (vorzugsweise in Word).

 

Projektstandort: Frankfurt am Main (100% on-site)

Dauer: 01.07.2019 - 31.12.2019

Abgabefrist beim Kunden: asap

 

Kurzbeschreibung Projekt:

 

Für das Projekt-Use-Cases benötigt der Kunde ein Spezial-Know-how insbesondere für Hadoop (Hortonworks) und Spark. Schwerpunkt ist neben der Entwicklung in den genannten Themen der Know-how-Transfer zu den internen Mitarbeitern.

Aufbau von Datenseeinfrastrukturen und Implementierung von fachlicher Logik in der AWS-Cloud. Die Use Cases werden getrennt aufgebaut, orientieren sich aber eine einer gemeinsamen Architektur mit dem Ziel, eine künftigen Datenaustausch zu unterstützen. Die Referenzarchitektur wird anhand der Use Cases entwickelt und soll später als Standard für alle weiteren Datenseeinfrastrukturen gelten.

 

Aufgaben:

- Entwicklung im Bereich Hadoop (Hortonworks)

- Entwicklung im SPARK-Framework, insbesondere mit Scala und SQL

- Einrichtung und Konfiguration von Big-Data-Infrastrukturen in der AWS-Cloud auf Basis von Hadoop (Hortonworks), SPARK, Apache Nifi

- Einrichtung, Konfiguration und Entwicklung im Bereich relationaler Datenbanken inkl. ANSI-SQL

- Know-how-Transfer zu den internen Entwicklern insbesondere im Bereich Hadoop (Horton-works) und SPARK

- Anleitung und Coaching der internen Entwickler bei der Nutzung von Hadoop (Hortonworks) und SPARK

- Erstellung von Konzepten unter Berücksichtigung von Best-Practices und bestehender Industriestandards

- Datenintegration mit Hadoop (Hortonworks), SPARK, Apache Nifi

- Konzeption um Umsetzung von Datenmodellen

- In der Zusammenarbeit auf Teamebene erfolgt die Umsetzung auf Basis von agilen Vorgehensweisen wie z. B. Scrum, die Einhaltung der Scrum-Prozesse im Scrum-Team ist zu berücksichtigen und ein regelmäßiger Austausch mit dem Scrum-Master/ Scrum-Team ist erforderlich

- Die Fachkraft übernimmt im Rahmen ihrer Beauftragung Aufgaben im Team gemäß der agilen Methoden durch Pull von Tasks, die aus User Stories resultieren, gemäß ihrer Kompetenzen und in Abstimmung mit dem gesamten Scrum-Team

- Die externe Fachkraft nimmt an allen fachbezogenen Arbeitssitzungen des Scrum-Teams inkl. der Retrospektiven teil

 

Anforderungen:

Skill must have:

- Software Entwicklung: Hadoop (Hortonworks), SPARK (Scala, SQL), Apache Nifi, relationale Datenbanken (inkl. ANSI-SQL)

- Problemlösungs-/ Arbeitsorganisations-Know-how

- Kommunikations- und Moderations-Know-how

- Know-how zu Teamverhalten: agiles Mindset

- Software Architektur: Big Data, Hadoop (Hortonworks), SPARK (Scala, SQL), Apache Nifi, relationale Datenbanken (inkl. ANSI-SQL)

 

Erfahrung/Zertifizierung must have:

- Hervorragende und mehrfach nachweislich praxiserprobte aktuelle Kenntnisse in Big-Data-Projekten

- Hadoop (Hortonworks)

- SPARK (Scala, SQL)

 

Erfahrung/Zertifizierung should have:

- relationale Datenbanken (inkl. ANSI-SQL)

- Apache Nifi

- AWS Cloud

 

 

Für Fragen, Anregungen oder Wünsche stehen wir Ihnen gern zur Verfügung.