Fullstack Developer (Java, Angular) Oferta pracy

Dołącz do j‑labs i rozwijaj aplikację bankową do hostowania modeli ML.
ikona: Dział

Branża

FinTech
ikona: Lokalizacja

Lokalizacja

Kraków
ikona: Wynagrodzenie

Wynagrodzenie

B2B: 100 – 145 PLN netto/h

Technologie

Java TypeScript Angular Azure Kafka Spring Mikroserwisy

O projekcie

  • Stack technologiczny: Java 17+, Spring, Angular 15+, TypeScript, mikroserwisy, Kafka, Azure.
  • Celem projektu jest praca nad nową aplikacją wewnętrzną banku, która służy do hostowania modeli ML w celu wykorzystywania jej przez inne działy i aplikacje.
  • Lokalizacja: Kraków, możliwość pracy zdalnej.

 

Twoje zadania

  • Tworzenie i rozwijanie mikroserwisów w Javie, które wspierają architekturę aplikacji, zapewniając jej skalowalność i wydajność.
  • Praca nad frontendem aplikacji w Angularze i TypeScript, integracja interfejsu z backendem oraz tworzenie komponentów UI.
  • Bliska współpraca z zespołem ML.

 

Wymagania

  • Minimum 4 lat doświadczenia w tworzeniu oprogramowania z wykorzystaniem Javy (w tym znajomość programowania wielowątkowego, współbieżności i zarządzania pamięcią).
  • Znajomość i doświadczenie w pracy z Angularem i TypeScript.
  • Doświadczenie ze Spring.
  • Doświadczenie z mikroserwisami.
  • Znajomość języka angielskiego na poziomie min. B2.

 

Mile widziane

  • Doświadczenie z Kafką.
  • Znajomość platform chmurowych, takich jak Azure.

Benefity

Budżet rozwojowy
Solidne narzędzia
Opieka medyczna
Zmiana projektu
Gildie Technologiczne
Eventy i integracje
Medicover Sport
Działalność charytatywna

Jak przebiega rekrutacja

1. Wysyłasz CV
2. Rozmowa rekrutacyjna
3. Weryfikacja techniczna
4. Rozmowa z partnerem
5. Otrzymujesz ofertę pracy
6. Witamy się w naszym zespole!
FinTech

Fullstack Developer (Java, Angular)

B2B: 100 – 145 PLN netto/h

Kraków

Aplikuj Poleć znajomego
I otrzymaj od nas 7000zł

Masz pytania?

Nasze Rekruterki i nasi Rekruterzy znają IT
Sprawdź FAQ

Ewelina Popielec

IT Recruitment Expert
+48 690 075 202 ewelina.popielec@j-labs.pl

Znasz kogoś, kto idealnie pasuje na to stanowisko?

Prześlij nam CV znajomej osoby, zainteresowanej pracą w j‑labs. Po rozpoczęciu przez nią współpracy otrzymasz 7 000 zł.

Poleć znajomego

Zobacz nowe oferty pracy IT

Zobacz wszystkie oferty

Lista ofert pracy

Senior BI Developer/Analytics Engineer

Dołącz do zespołu odpowiedzialnego za budowę infrastruktury danych oraz procesów ETL.
B2B: 180 – 215 PLN netto/h
Lokalizacja: Kraków
FinTech
BigQuery Looker Studio Google Looker ETL tools DBT GCP SQL

O projekcie

  • Projekt obejmuje budowę infrastruktury danych, procesów ETL oraz współpracę z globalnymi zespołami w Europie, Indiach i Ameryce Łacińskiej, ze szczególnym naciskiem na rozbudowę kompetencji inżynierskich w Polsce.
  • Zespół koncentruje się na tworzeniu dashboardów w narzędziach takich jak Google Looker i Looker Studio, przekształcających surowe dane w czytelne, wizualnie atrakcyjne raporty dla klientów wewnętrznych oraz na budowaniu potoków ETL i transformacji danych.
  • Praca hybrydowa – z biura w Krakowie 2x w tygodniu.

 

Twoje zadania

  • Tworzenie dashboardów w narzędziach BI – Google Looker i Looker Studio.
  • Współpraca z interesariuszami w celu zrozumienia ich wymagań i dostarczenia spersonalizowanych dashboardów spełniających ich potrzeby.
  • Wsparcie procesu ETL w DBT i Google BigQuery: pozyskiwanie, oczyszczanie i prezentacja danych – projektowanie, rozwój, testowanie, kodowanie i wdrażanie do produkcji.
  • Nacisk na jakość i ograniczenia czasowe.
  • Praca z globalnymi, różnorodnymi zespołami.
  • Praca w zwinnej kulturze zorientowanej na produkt.

 

Wymagania

  • Co najmniej 7-letnie doświadczenie zawodowe w tym w rozwoju BI, tworzeniu dashboardów oraz w pracy z SQL.
  • Doświadczenie w pracy z Google Looker i Looker Studio.
  • Doświadczenie w inżynierii danych, rozwoju ETL w SQL.
  • Doświadczenie w GCP, Big Query oraz DBT.
  • Doświadczenie w implementacji zautomatyzowanych rozwiązań zapewniających jakość danych.
  • Doświadczenie w podejmowaniu decyzji projektowych dotyczących schematów i hurtowni danych.
  • Doświadczenie w orkiestracji i harmonogramowaniu.
  • Doświadczenie w pracy w środowisku DevOps (czyli myślenie, budowanie i uruchamianie).
  • Doświadczenie w Continuous Integration, Continuous Delivery.
  • Biegła znajomość języka polskiego oraz angielskiego.

 

Mile widziane

  • Doświadczenie w modelowaniu danych.
  • Doświadczenie w budowaniu i/lub zarządzaniu chmurowymi platformami danych.
  • Doświadczenie w używaniu Git, skryptowania powłokowego, Pythona.
  • Doświadczenie w architekturze danych.

 

Senior MLOps Engineer

Chcesz wdrażać modele ML, masz doświadczenie w sektorze bankowym i fascynują Cię technologie chmurowe? Dołącz do j‑labs!
B2B: 180 – 210 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
Airflow AI GCP CI/CD Terraform Docker Python Jenkins

O projekcie

  • Projekt wykorzystuje narzędzia Machine Learning (ML) w celu poprawy wykrywania oraz zmniejszenia liczby przestępstw finansowych.
  • Rozbudowa i rozwój nowej architektury i procesów MLOps.
  • Współpraca z zespołem Data Scientists w celu przekształcania złożonych modeli ML w rozwiązania produkcyjne. Zespół skupia się na wdrażaniu, utrzymaniu i optymalizacji modeli.
  • Projekt daje możliwość budowania wydajnych i skalowalnych pipeline’ów Machine Learning na platformie Google Cloud, zapewniając jednocześnie integrację ze środowiskami lokalnymi.
  • Technologie w projekcie: Python, PySpark, Docker, Jupyter, Airflow, Java, GCP, BigQuery, Cloud Storage, Cloud Composer, Vertex AI, Dataproc, Compute Engine, CI/CD, Terraform, Terragrunt, Jenkins, Groovy, Crane, Kaniko.
  • Lokalizacja: Kraków, hybryda – 1x w tygodniu praca z biura.

 

Twoje zadania

  • Ścisła współpraca z zespołem Data Scientists w celu przygotowania i wstępnego przetwarzania danych do treningu i oceny modeli.
  • Wdrażanie i zarządzanie modelami ML na platformie Vertex AI w GCP, zapewniając ich wydajność i skalowalność.
  • Opracowywanie technik wizualizacji i wyjaśniania zachowań modeli, aby zapewnić przejrzystość i odpowiedzialność modelu zgodnie z wytycznymi PRA S51/23.
  • Współpraca z zespołami infrastruktury i DevOps w celu ustalenia wydajnych strategii wdrażania i skalowania.
  • Budowanie i utrzymywanie pipeline’ów do treningu, strojenia i wdrażania modeli z wykorzystaniem komponentów Vertex AI i narzędzi GCP, takich jak Cloud Composer, przy użyciu Pythona, Javy i Big Query.
  • Implementowanie zautomatyzowanego monitoringu, aby śledzić wydajność modeli i identyfikować potencjalne problemy.
  • Opracowywanie i utrzymywanie kontroli jakości danych oraz walidacji, w tym rekonsyliacji, zgodnie z zasadami kontroli jakości danych i przechowywania danych.
  • Wdrażanie solidnych środków ochrony danych, aby chronić wrażliwe informacje i modele.
  • Ustanowienie i utrzymywanie najlepszych praktyk w zakresie MLOps, w tym kontrola wersji, pipeline’y CI/CD oraz rejestr modeli i punkty końcowe Vertex AI.
  • Implementowanie narzędzi MLOps w celu uproszczenia procesu rozwoju modeli, treningu, strojenia, wdrażania, monitorowania i wyjaśniania.
  • Identyfikowanie i rozwiązywanie problemów związanych z wydajnością modeli ML i pipeline’ów.
  • Rozwiązywanie problemów związanych z ML, aby zapewnić optymalną wydajność modeli i optymalizację kosztów.

 

Wymagania

  • Minimum 8 lat doświadczenia w programowaniu w języku Python – wiedza na poziomie eksperta.
  • Doświadczenie w pracy z GCP, w tym BigQuery, Cloud Composer i Vertex AI.
  • Biegłość w inżynierii danych i rozwoju pipeline’ów.
  • Doświadczenie w zakresie zasad i narzędzi MLOps.
  • Doskonałe umiejętności komunikacyjne, silne umiejętności analityczne i rozwiązywania problemów.
  • Znajomość języka angielskiego i polskiego – poziom min. B2/C1.

 

Mile widziane

  • Doświadczenie w projektowaniu, tworzeniu oraz utrzymywaniu rozproszonych systemów w języku Java.

 

Senior Java Developer z językiem niemieckim

Dołącz do zespołu rozwijającego nowoczesne serwisy backendowe dla lidera branży telekomunikacyjnej, pracując z dynamicznymi technologiami, samoorganizującym się zespołem i niemieckojęzycznym biznesem.
B2B: 160 – 180 PLN netto/h
Lokalizacja: Zdalnie
Telco
Rest API Java Kubernetes Jenkins Mikroserwisy Spring Boot

O projekcie

  • Dołączysz do zespołu inżynierów wspierających rozwój serwisów backendowych w dziale Shop Development.
  • Klientem jest niemiecki lider w sprzedaży produktów mobilnych, szerokopasmowych, akcesoriów oraz usług cloudowych.
  • Twoja praca będzie związana z rozwojem serwisów odpowiadających za dostarczanie danych technicznych do sklepu w kontekście ofert oraz bundli (pakietów) produktów.
  • Projekt wymaga elastyczności ze względu na:
    • dynamicznie zmieniające się priorytety wynikające z sytuacji rynkowej,
    • złożoność przetwarzania danych w dużej skali.
  • Głównym celem jest wsparcie w utrzymaniu i rozwoju wysokowydajnych, skalowalnych rozwiązań backendowych kluczowych dla funkcjonowania sklepu.

 

Twoje zadania

  • Rozwój i implementacja serwisów backendowych w środowisku mikroserwisów.
  • Współpraca z biznesem (głównie niemieckojęzycznym) w celu implementacji wymagań.
  • Samodzielne zarządzanie zadaniami oraz dostarczanie rozwiązań na środowisko produkcyjne.

 

Wymagania

  • Minimum 5 lat doświadczenia w programowaniu w Javie.
  • Znajomość technologii:
    • Java 17+, Spring Boot, JPA/Hibernate, REST API,
    • Kubernetes, Jenkins, GIT.
  • Znajomość języka niemieckiego na poziomie komunikatywnym (B1+).
  • Umiejętność pisania testów jednostkowych i integracyjnych (JUnit, Mockito, WireMock).
  • Doświadczenie w pracy w środowisku mikroserwisów.
  • Znajomość języka angielskiego na poziomie B2.

Data Engineer

Bądź konsultantem, prowadź reverse-engineering platform AI i usprawniaj jakość procesów DataOps.
B2B: 150 – 180 PLN netto/h
Lokalizacja: Zdalnie
HI-Tech
AI PySpark ETL tools CI/CD Docker Azure Python Kubernetes Linux Spark

O projekcie

  • Nie lubisz nudy? Dołącz do szybko rozwijającego się start-up’u i wspieraj wiele projektów, zróżnicowanych pod kątem domeny.
  • Czekają na Ciebie wyzwania związane z reverse-engineering.

 

Twoje zadania

  • Wsparcie działu Data w różnorodnych zapytaniach.
  • Monitorowanie kondycji systemu.
  • Rozwiązywanie problemów technicznych / zarządzanie incydentami.
  • Pomoc i wsparcie klientów oraz proponowanie i wdrażanie usprawnień.
  • Koordynacja utrzymania infrastruktury i platformy (aktualizacje).
  • Integracja innych narzędzi na platformie, takich jak narzędzia BI i ETL.
  • Monitorowanie przepływów danych na platformie w celu identyfikacji problemów z wydajnością.

 

Wymagania

  • Doświadczenie w pracy z wieloma projektami/klientami.
  • Doświadczenie w utrzymywaniu pipeline’ów.
  • Wiedza z zakresu administracji systemem Linux oraz podstawowa wiedza o sieciach.
  • Wiedza na temat przynajmniej jednego z następujących zagadnień: rozproszone przetwarzanie danych (Spark), orkiestracja przepływów ETL/ELT, zarządzanie przepływami danych.
  • Komunikatywność i pragmatyczne podejście do rozwiązywania problemów.

 

Mile widziane

  • Wiedza na temat jednej z głównych chmur (AWS/GCP/Azure).
  • Doświadczenie hands-on z projektami AI.
  • Znajomość koncepcji konteneryzacji (Docker, Kubernetes).
  • Znajomość Palantir Foundry.