Postleitzahl: |
München |
Start: |
1.12.2017 |
Laufzeit: |
1.12.2018 |
Beschreibung: |
Für unseren Kunden suchen wir Unterstützung!
Die Tätigkeit wird folgende Aufgaben umfassen: Entwicklung und Automatisierung von ETL Pipelines innerhalb unserer Big Data Infrastruktur sowie Oracle Data Warehouse Umgebung; (automatisierte) Daten-Transformation, -Bereinigung und -Bereitstellung (z.B. Table in SQL Datenbank, Elasticsearch, Hadoop); (Weiter-)Entwicklung von Visualisierungen (z.B. Tableau) und Web-Applikationen; Durchführung und analytische Leitung von größeren und kleineren Data Science Projekten (z.B. Churn-Prediction oder Process-Mining) und Ad-Hoc-Analysen; Evaluierung von Machine Learning Tools und Algorithmen
Skills:
Data Science Skills: Sehr gute Kenntnisse in statistischer Modellierung und Machine Learning Algorithmen sowie moderner Data Science Toolboxes wie z.B. Python (pandas, numpy, scikit-learn, pymc) oder R (tidyverse/data.table, caret/mlr); Erfahrung mit GIS (Geographical Information Systems) von Vorteil; Big Data Skills: Fundierte Kenntnisse und praktische Erfahrungen in Big Data Infrastrukturen (z.B. Spark, SQL/Hive); Erfahrung mit Software-Development Tools (z.B. Git) von Vorteil; Kenntnisse in Visualisierungstools (z.B. Tableau, Shiny) und der Programmierung von Web-Applikationen (z.B. html5, d3.js, dimple); Sehr gute Englischkenntnisse, da die Bereitstellung der Ergebnisse sowie die Dokumentation der Modelle in englischer Sprache verfasst werden.
|
Skills: |
s.o. |
Anzahl: |
1 |