Senior Java Developer Oferta pracy

Piszesz w Java w oparciu o mikroserwisy, używasz Spring/SpringBoot i do tego znasz technologie chmurowe? Nie możemy się doczekać, aż wyślesz do nas swoje CV!
ikona: Dział

Branża

ikona: Lokalizacja

Lokalizacja

Kraków
ikona: Wynagrodzenie

Wynagrodzenie

B2B: 140 – 180 PLN netto/h

Technologie

Java GCP CI/CD Hibernate Azure AWS Mikroserwisy Spring Boot

O projekcie

  • Dołączysz do firmy stworzonej przez inżynierów dla inżynierów, która istnieje na rynku od 14 lat. Obecnie zatrudniamy ponad 500 osób.
  • Będziesz mógł wybrać projekt u jednego spośród naszych Klientów – realizujemy projekty m.in. z branży turystycznej, lotniczej, fintech, energetycznej, e-commerce, logistycznej, gamingowej, food-tech, czy telco.
  • Stawiamy na knowledge sharing i rozwój. Organizujemy Talk4Devs, meetupy, dajemy Ci przestrzeń do budowania swojej marki osobistej jako prelegent, czy prowadzenia własnych projektów, których rezultaty możesz przedstawiać na naszym blogu.
  • Możesz zmienić projekt – jeśli będziesz chciał spróbować pracy z innymi technologiami albo realizować projekt z innej branży.
  • Dołącz do Gildii Technologicznej – to nasze community zrzeszające specjalistów w obszarach: Java, Quality Assurance, Kotlin, .NET, Frontend, Management, DevOps.
  • Eksperci przyciągają ekspertów – średnie doświadczenie naszych inżynierów wynosi 9 lat, a 30% zostaje zatrudnionych z polecenia.
  • Mamy zakodowane, że jest czas pracy i czas nie pracy, więc bardzo dbamy o to, aby work life balance został zachowany.

 

Wymagania

  • Masz minimum 5-6 lat doświadczenia w programowaniu w Java.
  • Bardzo dobrze znasz Spring.
  • Pracowałeś/aś z mikroserwisami.
  • Masz doświadczenie z technologiami chmurowymi np. AWS, GCP lub Azure.
  • Rozumiesz bazy danych.
  • Stawiasz  na jakość – znasz najlepsze praktyki programowania i wzorce projektowe.
  • Jesteś otwarta/y na rozwój i poszerzanie horyzontów (w tym możesz wybrać rozwój w kierunku frontend, devops lub innych języków np. Kotlin lub Python).
  • Lubisz dzielić się wiedzą i doświadczeniem z innymi członkami zespołu.
  • Swobodnie komunikujesz się w językach angielskim i polskim min. B2.
  • Jesteś otwarty/otwarta na pracę w modelu hybrydowym (2-3 dni/tydzień w biurze w Krakowie).

Benefity

Budżet rozwojowy
Solidne narzędzia
Opieka medyczna
Zmiana projektu
Gildie Technologiczne
Eventy i integracje
Medicover Sport
Działalność charytatywna

Jak przebiega rekrutacja

1. Wysyłasz CV
2. Rozmowa rekrutacyjna
3. Weryfikacja techniczna
4. Rozmowa z partnerem
5. Otrzymujesz ofertę pracy
6. Witamy się w naszym zespole!

Senior Java Developer

B2B: 140 – 180 PLN netto/h

Kraków

Aplikuj Poleć znajomego
I otrzymaj od nas 7000zł

Masz pytania?

Nasze Rekruterki i nasi Rekruterzy znają IT
Sprawdź FAQ

Patrycja Gawor

IT Recruitment Expert
+48 794 252 565 patrycja.gawor@j-labs.pl

Znasz kogoś, kto idealnie pasuje na to stanowisko?

Prześlij nam CV znajomej osoby, zainteresowanej pracą w j‑labs. Po rozpoczęciu przez nią współpracy otrzymasz 7 000 zł.

Poleć znajomego

Zobacz nowe oferty pracy IT

Zobacz wszystkie oferty

Lista ofert pracy

Senior BI Developer/Analytics Engineer

Dołącz do zespołu odpowiedzialnego za budowę infrastruktury danych oraz procesów ETL.
B2B: 180 – 215 PLN netto/h
Lokalizacja: Kraków
FinTech
DBT ETL tools Google Looker Looker Studio BigQuery GCP SQL

O projekcie

  • Projekt obejmuje budowę infrastruktury danych, procesów ETL oraz współpracę z globalnymi zespołami w Europie, Indiach i Ameryce Łacińskiej, ze szczególnym naciskiem na rozbudowę kompetencji inżynierskich w Polsce.
  • Zespół koncentruje się na tworzeniu dashboardów w narzędziach takich jak Google Looker i Looker Studio, przekształcających surowe dane w czytelne, wizualnie atrakcyjne raporty dla klientów wewnętrznych oraz na budowaniu potoków ETL i transformacji danych.
  • Praca hybrydowa – z biura w Krakowie 2x w tygodniu.

 

Twoje zadania

  • Tworzenie dashboardów w narzędziach BI – Google Looker i Looker Studio.
  • Współpraca z interesariuszami w celu zrozumienia ich wymagań i dostarczenia spersonalizowanych dashboardów spełniających ich potrzeby.
  • Wsparcie procesu ETL w DBT i Google BigQuery: pozyskiwanie, oczyszczanie i prezentacja danych – projektowanie, rozwój, testowanie, kodowanie i wdrażanie do produkcji.
  • Nacisk na jakość i ograniczenia czasowe.
  • Praca z globalnymi, różnorodnymi zespołami.
  • Praca w zwinnej kulturze zorientowanej na produkt.

 

Wymagania

  • Co najmniej 7-letnie doświadczenie zawodowe w tym w rozwoju BI, tworzeniu dashboardów oraz w pracy z SQL.
  • Doświadczenie w pracy z Google Looker i Looker Studio.
  • Doświadczenie w inżynierii danych, rozwoju ETL w SQL.
  • Doświadczenie w GCP, Big Query oraz DBT.
  • Doświadczenie w implementacji zautomatyzowanych rozwiązań zapewniających jakość danych.
  • Doświadczenie w podejmowaniu decyzji projektowych dotyczących schematów i hurtowni danych.
  • Doświadczenie w orkiestracji i harmonogramowaniu.
  • Doświadczenie w pracy w środowisku DevOps (czyli myślenie, budowanie i uruchamianie).
  • Doświadczenie w Continuous Integration, Continuous Delivery.
  • Biegła znajomość języka polskiego oraz angielskiego.

 

Mile widziane

  • Doświadczenie w modelowaniu danych.
  • Doświadczenie w budowaniu i/lub zarządzaniu chmurowymi platformami danych.
  • Doświadczenie w używaniu Git, skryptowania powłokowego, Pythona.
  • Doświadczenie w architekturze danych.

 

Senior MLOps Engineer

Chcesz wdrażać modele ML, masz doświadczenie w sektorze bankowym i fascynują Cię technologie chmurowe? Dołącz do j‑labs!
B2B: 180 – 210 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
AI Airflow GCP CI/CD Terraform Docker Python Jenkins

O projekcie

  • Projekt wykorzystuje narzędzia Machine Learning (ML) w celu poprawy wykrywania oraz zmniejszenia liczby przestępstw finansowych.
  • Rozbudowa i rozwój nowej architektury i procesów MLOps.
  • Współpraca z zespołem Data Scientists w celu przekształcania złożonych modeli ML w rozwiązania produkcyjne. Zespół skupia się na wdrażaniu, utrzymaniu i optymalizacji modeli.
  • Projekt daje możliwość budowania wydajnych i skalowalnych pipeline’ów Machine Learning na platformie Google Cloud, zapewniając jednocześnie integrację ze środowiskami lokalnymi.
  • Technologie w projekcie: Python, PySpark, Docker, Jupyter, Airflow, Java, GCP, BigQuery, Cloud Storage, Cloud Composer, Vertex AI, Dataproc, Compute Engine, CI/CD, Terraform, Terragrunt, Jenkins, Groovy, Crane, Kaniko.
  • Lokalizacja: Kraków, hybryda – 1x w tygodniu praca z biura.

 

Twoje zadania

  • Ścisła współpraca z zespołem Data Scientists w celu przygotowania i wstępnego przetwarzania danych do treningu i oceny modeli.
  • Wdrażanie i zarządzanie modelami ML na platformie Vertex AI w GCP, zapewniając ich wydajność i skalowalność.
  • Opracowywanie technik wizualizacji i wyjaśniania zachowań modeli, aby zapewnić przejrzystość i odpowiedzialność modelu zgodnie z wytycznymi PRA S51/23.
  • Współpraca z zespołami infrastruktury i DevOps w celu ustalenia wydajnych strategii wdrażania i skalowania.
  • Budowanie i utrzymywanie pipeline’ów do treningu, strojenia i wdrażania modeli z wykorzystaniem komponentów Vertex AI i narzędzi GCP, takich jak Cloud Composer, przy użyciu Pythona, Javy i Big Query.
  • Implementowanie zautomatyzowanego monitoringu, aby śledzić wydajność modeli i identyfikować potencjalne problemy.
  • Opracowywanie i utrzymywanie kontroli jakości danych oraz walidacji, w tym rekonsyliacji, zgodnie z zasadami kontroli jakości danych i przechowywania danych.
  • Wdrażanie solidnych środków ochrony danych, aby chronić wrażliwe informacje i modele.
  • Ustanowienie i utrzymywanie najlepszych praktyk w zakresie MLOps, w tym kontrola wersji, pipeline’y CI/CD oraz rejestr modeli i punkty końcowe Vertex AI.
  • Implementowanie narzędzi MLOps w celu uproszczenia procesu rozwoju modeli, treningu, strojenia, wdrażania, monitorowania i wyjaśniania.
  • Identyfikowanie i rozwiązywanie problemów związanych z wydajnością modeli ML i pipeline’ów.
  • Rozwiązywanie problemów związanych z ML, aby zapewnić optymalną wydajność modeli i optymalizację kosztów.

 

Wymagania

  • Minimum 8 lat doświadczenia w programowaniu w języku Python – wiedza na poziomie eksperta.
  • Doświadczenie w pracy z GCP, w tym BigQuery, Cloud Composer i Vertex AI.
  • Biegłość w inżynierii danych i rozwoju pipeline’ów.
  • Doświadczenie w zakresie zasad i narzędzi MLOps.
  • Doskonałe umiejętności komunikacyjne, silne umiejętności analityczne i rozwiązywania problemów.
  • Znajomość języka angielskiego i polskiego – poziom min. B2/C1.

 

Mile widziane

  • Doświadczenie w projektowaniu, tworzeniu oraz utrzymywaniu rozproszonych systemów w języku Java.

 

Senior Java Developer z językiem niemieckim

Dołącz do zespołu rozwijającego nowoczesne serwisy backendowe dla lidera branży telekomunikacyjnej, pracując z dynamicznymi technologiami, samoorganizującym się zespołem i niemieckojęzycznym biznesem.
B2B: 160 – 180 PLN netto/h
Lokalizacja: Zdalnie
Telco
Rest API Java Kubernetes Jenkins Mikroserwisy Spring Boot

O projekcie

  • Dołączysz do zespołu inżynierów wspierających rozwój serwisów backendowych w dziale Shop Development.
  • Klientem jest niemiecki lider w sprzedaży produktów mobilnych, szerokopasmowych, akcesoriów oraz usług cloudowych.
  • Twoja praca będzie związana z rozwojem serwisów odpowiadających za dostarczanie danych technicznych do sklepu w kontekście ofert oraz bundli (pakietów) produktów.
  • Projekt wymaga elastyczności ze względu na:
    • dynamicznie zmieniające się priorytety wynikające z sytuacji rynkowej,
    • złożoność przetwarzania danych w dużej skali.
  • Głównym celem jest wsparcie w utrzymaniu i rozwoju wysokowydajnych, skalowalnych rozwiązań backendowych kluczowych dla funkcjonowania sklepu.

 

Twoje zadania

  • Rozwój i implementacja serwisów backendowych w środowisku mikroserwisów.
  • Współpraca z biznesem (głównie niemieckojęzycznym) w celu implementacji wymagań.
  • Samodzielne zarządzanie zadaniami oraz dostarczanie rozwiązań na środowisko produkcyjne.

 

Wymagania

  • Minimum 5 lat doświadczenia w programowaniu w Javie.
  • Znajomość technologii:
    • Java 17+, Spring Boot, JPA/Hibernate, REST API,
    • Kubernetes, Jenkins, GIT.
  • Znajomość języka niemieckiego na poziomie komunikatywnym (B1+).
  • Umiejętność pisania testów jednostkowych i integracyjnych (JUnit, Mockito, WireMock).
  • Doświadczenie w pracy w środowisku mikroserwisów.
  • Znajomość języka angielskiego na poziomie B2.

Data Engineer

Bądź konsultantem, prowadź reverse-engineering platform AI i usprawniaj jakość procesów DataOps.
B2B: 150 – 180 PLN netto/h
Lokalizacja: Zdalnie
HI-Tech
AI ETL tools PySpark CI/CD Docker Azure Python Kubernetes Linux Spark

O projekcie

  • Nie lubisz nudy? Dołącz do szybko rozwijającego się start-up’u i wspieraj wiele projektów, zróżnicowanych pod kątem domeny.
  • Czekają na Ciebie wyzwania związane z reverse-engineering.

 

Twoje zadania

  • Wsparcie działu Data w różnorodnych zapytaniach.
  • Monitorowanie kondycji systemu.
  • Rozwiązywanie problemów technicznych / zarządzanie incydentami.
  • Pomoc i wsparcie klientów oraz proponowanie i wdrażanie usprawnień.
  • Koordynacja utrzymania infrastruktury i platformy (aktualizacje).
  • Integracja innych narzędzi na platformie, takich jak narzędzia BI i ETL.
  • Monitorowanie przepływów danych na platformie w celu identyfikacji problemów z wydajnością.

 

Wymagania

  • Doświadczenie w pracy z wieloma projektami/klientami.
  • Doświadczenie w utrzymywaniu pipeline’ów.
  • Wiedza z zakresu administracji systemem Linux oraz podstawowa wiedza o sieciach.
  • Wiedza na temat przynajmniej jednego z następujących zagadnień: rozproszone przetwarzanie danych (Spark), orkiestracja przepływów ETL/ELT, zarządzanie przepływami danych.
  • Komunikatywność i pragmatyczne podejście do rozwiązywania problemów.

 

Mile widziane

  • Wiedza na temat jednej z głównych chmur (AWS/GCP/Azure).
  • Doświadczenie hands-on z projektami AI.
  • Znajomość koncepcji konteneryzacji (Docker, Kubernetes).
  • Znajomość Palantir Foundry.