Postleitzahl: |
Remote |
Start: |
asap |
Laufzeit: |
31.12.2022++ |
Beschreibung: |
Für unser Team bei unserem Kunden suchen wir Unterstützung!
Aufgaben:
-Entwicklung von Big Data ETL pipelines auf Basis gängiger open source Frameworks (Hadoop, Hive, Python, Spark)
- Entwicklung neuer Funktionalitäten (Analytics Module, User Feedback und Model Training Prozesse) für unsere Analytics Plattform in Python
- Entwicklung von SQL und PL/SQL Ladeläufen auf Basis spezifischer technischer - Anforderungen und Speicherung der Ergebnisse in SQL Datenbanken (Oracle)
- Entwicklung von Modellen zur Erkennung von Anomalien in Zeitreihen und granularen Daten
- Entwicklung von Entscheidungsmodellen
- Entwicklung von kausalen Modellen für die automatisierte Ursachenanalyse
- Entwicklung von Prozess Komponenten zur Textanalyse für die Generierung von Anomalie Erklärungen
- Erstellung von zugehörigen Dashboards (Tableau)
- Erstellung von Monitoringfunktionen sowie Dokumentationen |
Skills: |
SQL + PL/SQL -> sehr gute Kenntnisse
PySpark -> sehr gute Kenntnisse
Python -> gute Kenntnisse
Python ML-Libs: Sklearn, Pandas, Numpy -> Sehr gute Kenntnisse
CI/CD, AzureDevops, Docker -> gute Kenntnisse
Erfahrung in der Erstellung von Klassifikationsmodellen und Regressionsmodellen
Erfahrung mit Test- Und Kontrollgruppenkonzepten (Champion-Challenger usw.)
|
Anzahl: |
1 |