Principal: 185 - 210 PLN netto/h
O projekcie
- Kluczowa rola w definiowaniu modeli danych i budowaniu potoków danych dla Data Lake.
- Ścisła współpraca z zespołem Data Science w celu opracowywania potoków danych do monitorowania wydajności modeli AI.
- Projektowanie, automatyzowanie oraz wdrażanie złożonych, kompleksowych potoków danych przy użyciu języka programowania Python oraz narzędzi DBT i Prefect.
- Definiowanie wzorców dostępu dla wszystkich warstw danych, zarówno operacyjnych, jak i analitycznych.
- Zapewnienie jakości danych we wszystkich potokach danych.
- Pełna odpowiedzialność za projekty, od weryfikacji koncepcji po wdrożenie produkcyjne.
- Udział w różnorodnych projektach, koncentrując się na automatyzacji procesów danych za pomocą różnych technologii i narzędzi.
- Możliwość pracy w 100% zdalnej lub hybrydowej z biura j‑labs (Kraków, Zabłocie).
Postawa
- StartUp’owy mindset!
- Poczucie odpowiedzialności za dostarczany produkt, rozwiązanie.
- Proaktywna osoba, która identyfikuje, planuje i realizuje codzienne zadania.
Wymagania
- Minimum 5 lat doświadczenia w roli Data Engineer.
- Solidne doświadczenie w programowaniu z użyciem języka Python.
- Praktyczne doświadczenie z SQL DB.
- Znajomość Presto i DynamoDB.
- Doświadczenie z narzędziami AirFlow lub Perfect.
- Doświadczenie w rozwiązaniach chmurowych AWS (m.in. Athena).
- Biegła znajomość Docker oraz Kubernetes.
- Doświadczenie w przetwarzaniu danych ETL w środowiskach produkcyjnych.
- Umiejętność pracy nad złożonymi typami danych.
- Bardzo dobra znajomość języka angielskiego – w mowie i piśmie – min. na poziomie B2.
Mile widziane
- Znajomość technik analizy oraz wizualizacji danych.
- Doświadczenie w pracy nad dużymi projektami na środowisku produkcyjnym.