Data Intelligence / BI Entwickler (m/w/d) (3693)

Startdatum:

asap

Enddatum:

30.06.2020

Beschäftigungsart:

Freiberuflich

Region:

Frankfurt am Main


Beschreibung:

Für unseren Kunden in Frankfurt am Main sind wir aktuell auf der Suche nach einem Data Intelligence / BI Entwickler (m/w/d).

 

Falls Sie die folgende Projektbeschreibung interessiert und Sie die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort (Stunden- oder Tagessatz) sowie Ihres Profils (vorzugsweise in Word).

 

Projektstandort: Frankfurt am Main (80% on-site)

Dauer: asap bis 30.06.2020

Volumen: 130 PT

Abgabefrist beim Kunden: 22.11.2019

 

Kurzbeschreibung Projekt:

 

Die Firma betreibt ein konzernweites Kennzahlencockpit mit aktuell ca. 5.000 registrierten Nutzern. Das Cockpit ist als Qlik Sense Mashup ausgeführt und wird in der Firmen Enterprise Cloud (Amazon Web Service) entwickelt und betrieben. Es existiert eine Entwicklungs-, Test-, Abnahme- und Produktivumgebung. Die Automatisierung des Deployments und der ETL-Strecken erfolgt aktuell u.a. über Talend und Jenkins. Mittelfristig erfolgt eine DataVault-Modellierung über WhereScape. Die Inhalte im Frontend werden gemäß eines Rollen- und Rechtekonzepts nutzerabhängig ausgeliefert.  Es soll ein KPI Dashboards für relevante Kennzahlen aufgebaut werden.  Es erfolgt eine Einarbeitung von einem Mitarbeiter im DWH-Team.

 

Anforderungen:

Must have:

- Sehr gute, mehrjährige (> 2 Jahre) Praxis-Erfahrung in klassischen Datawarehouse- und modernen Data Lake Architekturen und deren Informationsverwaltungstools

- Sehr gutes Wissen zu DWH-Datenmodellen (Star-, Snowflake-Schema)

- Sehr gute Praxis Erfahrung mit gängigen Architektur- und Entwicklungsstandards

- Kenntnisse von Betriebsprozessen im Kontext Data Lake zur Sicherstellung der Qualität und Einsatztauglichkeit der Architektur im dauerhaften Betrieb

- ETL-KnowHow, insbesondere Kenntnisse mit Talend Open Studio als ETL-Werkzeug

- Datenbanktechnologien (insb. PostgreSQL) und solide SQL-Kenntnisse

- Kenntnis im Umgang mit Jenkins (Pipelines, Groovy-Scripts)

- Erfahrungen im Umgang mit Subversion und JIRA

- Scrum als Vorgehensmodell

 

Should have:

- DataVault-Modellierung und ggf. WhereScape-Erfahrungen

- Java-Kenntnisse, insb. Java Spring Boot zur API-Entwicklung

- Qlik

 

 

Für Fragen, Anregungen oder Wünsche stehen wir Ihnen gern zur Verfügung.



Projektvolumen:
130 Tage