Postleitzahl: |
München |
Start: |
Mai |
Laufzeit: |
Langläufer / Quartalsweise Beauftragungen |
Beschreibung: |
Für unseren Kunden suchen wir Unterstützung.
Aufgabe:
Die Tätigkeit wird folgende Aufgaben umfassen:
- Automatisierung der Datenaktualisierung inkl. Anbindung der Schnittstelle innerhalb der Big Data Infrastruktur sowie Oracle Data Warehouse Umgebung
- Transformation / Bereinigung der Daten (automatisiert)
- Bereitstellung der Daten in einem geeigneten Format (Elasticsearch / Hadoop-Cluster)
- Integration der Datenhistorisierung
- Automatisierung der monatlichen Datenbeladung via Schnittstelle
- Integration eines Datenmapping (zu KGS oder vergleichbar)
- Integration von Ergebnissen aus Subprojekten (z.B. Gross-Add-Daten, Competitor Coverage Mapping)
- Entwicklung und Implementierung eines erweiterten Churn-Modells (verbesserter KI-Algorithmus, schnellere Aktualisierung)
- Erfahrung im Bereich Customer Service (aus Datensicht)
Erforderliche Qualifikationen:
- Fundierte Kenntnisse und praktische Erfahrungen in Big Data Infrastrukturen (Hadoop, Hive, Datameer) sowie Oracle SQL und PL/SQL.
- Ebenso fundierte Kenntnisse in der Erstellung von analytischen Modellen (Statistik-Kenntnisse unabdingbar)
- Sehr gute Kenntnisse in Big Data Software und Programmiersprachen (R, Hive, Python)
- Ebenso sehr gute Kenntnisse in "klassischer" Analysesoftware (insb. SAS).
- Fundierte Kenntnisse in der Programmierung von Web-Apps (z.B. html5, d3.js, dimple)
- Sehr gute Englischkenntnisse, da die Bereitstellung der Ergebnisse sowie die Dokumentation der Modelle in englischer Sprache verfasst werden
|
Skills: |
s.o. |
Anzahl: |
1 |