Data Science Generalisten (Python, R, MatLab) (m/w/d) (3682)

Startdatum:

asap

Enddatum:

Dezember 2019 (++)

Beschäftigungsart:

Freiberuflich

Region:

Frankfurt am Main


Beschreibung:

Für unseren Kunden in Frankfurt am Main sind wir aktuell auf der Suche nach einem Data Science Generalisten (Python, R, MatLab) (m/w/d).

 

Falls Sie die folgende Projektbeschreibung interessiert und Sie die Anforderungen ausreichend abdecken, bitten wir Sie um kurzfristige Rückmeldung unter Angabe Ihrer Kontaktdaten, Ihrer Konditionen für den genannten Einsatzort (Stunden- oder Tagessatz) sowie Ihres Profils (vorzugsweise in Word).

 

Projektstandort: Frankfurt am Main (80-100% onsite)

Dauer: asap - Dezember (mit Option auf Verlängerung

Abgabefrist beim Kunden: 15.11.2019

 

Projektinfos/-ziele:

  • Schaffung von Kundenmehrwert durch digitale Angebote als Basis für Umsatzsteigerungen

  • (Teil-) Automatisierung der Prozessse entlang der gesamten Wertschöpfungskette

  • Aufbau Wissen und intelligente Nutzung existierender und neuer Daten

  • Analyse von großen Datenmengen um darauf mittels künstlicher Intelligenz, Simulation u. mathematischer Optimierung Muster zu erkennen.

 

Aufgaben:

  • Unterstützung bei Datenanalysen und Datenauswertungen

  • Durchführen von unterschiedlichen Datenauswertungen mit dem Ziel die von Drittfirmen bereitgestellten IoT-Daten hinsichtlich der vereinbarten Qualitätskriterien zu überprüfen (Identifikation von Abweichungen zum Service Level Agreement)

  • Plausibilitätsprüfungen im Hinblick auf die inhaltliche Richtigkeit der Daten

  • Unterstützung bei der Identifikation, Validierung und Beratung bei der Übertragung von Use Cases auf das Edge Device

  • Unterstützung und fachliche und technische Beratung im Bereich Programmierung von Analysen an der Schnittstelle zu Condition Based Maintenance und dem Asset Intelligence Center (AIC)

 

Anforderungen:

  • Ausgeprägte Kenntisse im Bereich Technik und IT

  • Fundierte Kenntnisse im Bereich von Datenanalysen (Technologien: Python, R, MatLab, Apache Spark, SQL)

  • Erfahrungen von Methoden der Anomaliedetektion, Verteilungstests und Clustering (z.B. Neuronale Netze)

  • Fundierte Erfahrungen in der Datenintegration (Apache Spark)

 

Für Fragen, Anregungen oder Wünsche stehen wir Ihnen gern zur Verfügung.