Postleitzahl: |
München |
Start: |
01.04.2019 |
Laufzeit: |
Ende des Jahres bei quartalsweiser Beauftragung |
Beschreibung: |
Für unseren Kunden suchen wir Unterstützung im Bereich Datenanbindung, Modellierung und Visualisierung!
Aufgaben:
- Entwicklung von Big Data ETL pipelines auf Basis gängiger open source Frameworks (Hadoop, Hive, Python, Spark)
- Entwicklung neuer Funktionalitäten (Analytics Module, User Feedback und Model Training Prozesse) für unsere Analytics Platform in Python
- Entwicklung von SQL und PL/SQL Ladeläufen auf Basis spezifischer Anforderungen und Speicherung der Ergebnisse in SQL Datenbanken (Oracle)
- Entwicklung von Modellen zur Erkennung von Anomalien in Zeitreihen und granularen Daten
- Entwicklung von Entscheidungs-Modellen (z.B. für die Alarm Generierung)
- Entwicklung von kausalen Modellen für die automatisierte Ursachenanalyse
- Entwicklung von Prozess Komponenten zur Textanalyse für die Generierung von Anomalie Erklärungen
- Erstellung von zugehörigen Dashboards (Tableau)
- Erstellung von Monitoringfunktionen, sowie Dokumentationen
|
Skills: |
- Mehrjährige Programmiererfahrung Pyhton, PySpark
- Hadoop Expertise
- Data Science Background
- Datenvisualisierung (Tableau) |
Anzahl: |
2 |