Deine Aufgaben
- Du kennst dich mit Data Science und BigData-Konzepten und -Technologien aus und kannst diese adäquat für die Fragestellungen unserer Kunden einsetzen
- Mit deiner Expertise berätst du unsere Kunden beim Einsatz von datengetriebenen Anwendungen in der Cloud bei Azure und AWS
- Mit deiner Analyse- und Programmierfähigkeiten legst du den Grundstein für wirtschaftliche Entscheidungsfindungen z.B. In prädiktive und präskriptive Modelle
- Du übernimmst die Verantwortung für Lösungen von der Konzepterstellung bis zur Visualisierung der Ergebnisse
- Du entwickelst Frameworks und programmierst mit SQL und Python insb. pyspark library
- Du bist verantwortlich für die Entwicklung von Data Pipelines
Mit einer Auswahl aus diesen Fähigkeiten überzeugst du uns:
- Azure, AWS oder GCP
- HADOOP oder andere Big Data Technologien
- SQL, noSQL und Streamingtechnologien
- Python (u.a. Pyspark, SciKit Learn, boto3, pandas), R, Java oder Scala
- Tableau, Qlick, Power BI oder QuickSight
- (Cloud) Datenarchitektur
- Linux
- Statistik, Machine Learning
- Analytisches Denken
- Und die Klassiker: GIT, JIRA, Confluence, MS Office