Fullstack Developer (.NET & React) Oferta pracy

Dołącz do j‑labs i rozwijaj aplikację budowaną w oparciu o architekturę mikroserwisową działającą w środowisku cloudowym.
ikona: Dział

Branża

HI-Tech
ikona: Lokalizacja

Lokalizacja

Kraków
ikona: Wynagrodzenie

Wynagrodzenie

B2B: 150 – 190 PLN netto/h

Ups, ta oferta jest już nieaktualna...

Zobacz inne oferty

Technologie

TypeScript Entity Framework React GCP .NET JavaScript SQL Mikroserwisy

O projekcie

  • Celem projektu jest rozwój wewnętrznej aplikacji, która ułatwia pracownikom kontakt ze sobą. Użytkownicy mogą tworzyć zespoły pracujące nad projektem, dodawać swoje umiejętności, certyfikaty itp., aby inni pracownicy mogli się zwrócić do nich bezpośrednio o pomoc (taki wewnętrzny LinkedIn).
  • Aplikacja została stworzona jako proof of concept jednego z inżynierów. Rozwiązanie to okazało się sukcesem, dlatego zdecydowano o jego dalszym rozwoju.
  • Do projektu szukamy Fullstack Developera lub .NET developera otwartego na naukę Reacta – podział prac w projekcie: około 80-90% backend, 20-10% frontend.
  • Lokalizacja: Kraków, wymóg pracy z biura min. 1 w tygodniu.
  • Technologie: .NET, C#, Entity Framework, SQL, mikroserwisy, JavaScript, TypeScript, React, HTML, CSS, Google Cloud Platform.

 

Wymagania

  • Minimum 6 lat doświadczenia.
  • Doświadczenie i bardzo dobra znajomość: C#, .NET.
  • Doświadczenie i bardzo dobra znajomość JavaScript i TypeScript.
  • Doświadczenie z Reactem lub Angularem.
  • Bardzo dobra znajomość wzorców projektowych.
  • Znajomość języka angielskiego na poziomie min. B2.

 

Mile widziane

  • Doświadczenie z Pythonem.

Benefity

Budżet rozwojowy
Solidne narzędzia
Opieka medyczna
Zmiana projektu
Gildie Technologiczne
Eventy i integracje
Medicover Sport
Działalność charytatywna

Jak przebiega rekrutacja

1. Wysyłasz CV
2. Rozmowa rekrutacyjna
3. Weryfikacja techniczna
4. Rozmowa z partnerem
5. Otrzymujesz ofertę pracy
6. Witamy się w naszym zespole!
HI-Tech

Fullstack Developer (.NET & React)

B2B: 150 – 190 PLN netto/h

Kraków

Ups, ta oferta jest już nieaktualna...

Zobacz inne oferty

Masz pytania?

Nasze Rekruterki i nasi Rekruterzy znają IT
Sprawdź FAQ

Adrianna Grzechowiak

Junior IT Recruitment Specialist
+48 790 209 797 adrianna.grzechowiak@j-labs.pl

Zobacz nowe oferty pracy IT

Zobacz wszystkie oferty

Lista ofert pracy

Senior BI Developer/Analytics Engineer

Dołącz do zespołu odpowiedzialnego za budowę infrastruktury danych oraz procesów ETL.
B2B: 180 – 215 PLN netto/h
Lokalizacja: Kraków
FinTech
BigQuery Looker Studio Google Looker ETL tools DBT GCP SQL

O projekcie

  • Projekt obejmuje budowę infrastruktury danych, procesów ETL oraz współpracę z globalnymi zespołami w Europie, Indiach i Ameryce Łacińskiej, ze szczególnym naciskiem na rozbudowę kompetencji inżynierskich w Polsce.
  • Zespół koncentruje się na tworzeniu dashboardów w narzędziach takich jak Google Looker i Looker Studio, przekształcających surowe dane w czytelne, wizualnie atrakcyjne raporty dla klientów wewnętrznych oraz na budowaniu potoków ETL i transformacji danych.
  • Praca hybrydowa – z biura w Krakowie 2x w tygodniu.

 

Twoje zadania

  • Tworzenie dashboardów w narzędziach BI – Google Looker i Looker Studio.
  • Współpraca z interesariuszami w celu zrozumienia ich wymagań i dostarczenia spersonalizowanych dashboardów spełniających ich potrzeby.
  • Wsparcie procesu ETL w DBT i Google BigQuery: pozyskiwanie, oczyszczanie i prezentacja danych – projektowanie, rozwój, testowanie, kodowanie i wdrażanie do produkcji.
  • Nacisk na jakość i ograniczenia czasowe.
  • Praca z globalnymi, różnorodnymi zespołami.
  • Praca w zwinnej kulturze zorientowanej na produkt.

 

Wymagania

  • Co najmniej 7-letnie doświadczenie zawodowe w tym w rozwoju BI, tworzeniu dashboardów oraz w pracy z SQL.
  • Doświadczenie w pracy z Google Looker i Looker Studio.
  • Doświadczenie w inżynierii danych, rozwoju ETL w SQL.
  • Doświadczenie w GCP, Big Query oraz DBT.
  • Doświadczenie w implementacji zautomatyzowanych rozwiązań zapewniających jakość danych.
  • Doświadczenie w podejmowaniu decyzji projektowych dotyczących schematów i hurtowni danych.
  • Doświadczenie w orkiestracji i harmonogramowaniu.
  • Doświadczenie w pracy w środowisku DevOps (czyli myślenie, budowanie i uruchamianie).
  • Doświadczenie w Continuous Integration, Continuous Delivery.
  • Biegła znajomość języka polskiego oraz angielskiego.

 

Mile widziane

  • Doświadczenie w modelowaniu danych.
  • Doświadczenie w budowaniu i/lub zarządzaniu chmurowymi platformami danych.
  • Doświadczenie w używaniu Git, skryptowania powłokowego, Pythona.
  • Doświadczenie w architekturze danych.

 

Senior MLOps Engineer

Chcesz wdrażać modele ML, masz doświadczenie w sektorze bankowym i fascynują Cię technologie chmurowe? Dołącz do j‑labs!
B2B: 180 – 210 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
Airflow AI GCP CI/CD Terraform Docker Python Jenkins

O projekcie

  • Projekt wykorzystuje narzędzia Machine Learning (ML) w celu poprawy wykrywania oraz zmniejszenia liczby przestępstw finansowych.
  • Rozbudowa i rozwój nowej architektury i procesów MLOps.
  • Współpraca z zespołem Data Scientists w celu przekształcania złożonych modeli ML w rozwiązania produkcyjne. Zespół skupia się na wdrażaniu, utrzymaniu i optymalizacji modeli.
  • Projekt daje możliwość budowania wydajnych i skalowalnych pipeline’ów Machine Learning na platformie Google Cloud, zapewniając jednocześnie integrację ze środowiskami lokalnymi.
  • Technologie w projekcie: Python, PySpark, Docker, Jupyter, Airflow, Java, GCP, BigQuery, Cloud Storage, Cloud Composer, Vertex AI, Dataproc, Compute Engine, CI/CD, Terraform, Terragrunt, Jenkins, Groovy, Crane, Kaniko.
  • Lokalizacja: Kraków, hybryda – 1x w tygodniu praca z biura.

 

Twoje zadania

  • Ścisła współpraca z zespołem Data Scientists w celu przygotowania i wstępnego przetwarzania danych do treningu i oceny modeli.
  • Wdrażanie i zarządzanie modelami ML na platformie Vertex AI w GCP, zapewniając ich wydajność i skalowalność.
  • Opracowywanie technik wizualizacji i wyjaśniania zachowań modeli, aby zapewnić przejrzystość i odpowiedzialność modelu zgodnie z wytycznymi PRA S51/23.
  • Współpraca z zespołami infrastruktury i DevOps w celu ustalenia wydajnych strategii wdrażania i skalowania.
  • Budowanie i utrzymywanie pipeline’ów do treningu, strojenia i wdrażania modeli z wykorzystaniem komponentów Vertex AI i narzędzi GCP, takich jak Cloud Composer, przy użyciu Pythona, Javy i Big Query.
  • Implementowanie zautomatyzowanego monitoringu, aby śledzić wydajność modeli i identyfikować potencjalne problemy.
  • Opracowywanie i utrzymywanie kontroli jakości danych oraz walidacji, w tym rekonsyliacji, zgodnie z zasadami kontroli jakości danych i przechowywania danych.
  • Wdrażanie solidnych środków ochrony danych, aby chronić wrażliwe informacje i modele.
  • Ustanowienie i utrzymywanie najlepszych praktyk w zakresie MLOps, w tym kontrola wersji, pipeline’y CI/CD oraz rejestr modeli i punkty końcowe Vertex AI.
  • Implementowanie narzędzi MLOps w celu uproszczenia procesu rozwoju modeli, treningu, strojenia, wdrażania, monitorowania i wyjaśniania.
  • Identyfikowanie i rozwiązywanie problemów związanych z wydajnością modeli ML i pipeline’ów.
  • Rozwiązywanie problemów związanych z ML, aby zapewnić optymalną wydajność modeli i optymalizację kosztów.

 

Wymagania

  • Minimum 8 lat doświadczenia w programowaniu w języku Python – wiedza na poziomie eksperta.
  • Doświadczenie w pracy z GCP, w tym BigQuery, Cloud Composer i Vertex AI.
  • Biegłość w inżynierii danych i rozwoju pipeline’ów.
  • Doświadczenie w zakresie zasad i narzędzi MLOps.
  • Doskonałe umiejętności komunikacyjne, silne umiejętności analityczne i rozwiązywania problemów.
  • Znajomość języka angielskiego i polskiego – poziom min. B2/C1.

 

Mile widziane

  • Doświadczenie w projektowaniu, tworzeniu oraz utrzymywaniu rozproszonych systemów w języku Java.

 

Senior Java Developer z językiem niemieckim

Dołącz do zespołu rozwijającego nowoczesne serwisy backendowe dla lidera branży telekomunikacyjnej, pracując z dynamicznymi technologiami, samoorganizującym się zespołem i niemieckojęzycznym biznesem.
B2B: 160 – 180 PLN netto/h
Lokalizacja: Zdalnie
Telco
Rest API Java Kubernetes Jenkins Mikroserwisy Spring Boot

O projekcie

  • Dołączysz do zespołu inżynierów wspierających rozwój serwisów backendowych w dziale Shop Development.
  • Klientem jest niemiecki lider w sprzedaży produktów mobilnych, szerokopasmowych, akcesoriów oraz usług cloudowych.
  • Twoja praca będzie związana z rozwojem serwisów odpowiadających za dostarczanie danych technicznych do sklepu w kontekście ofert oraz bundli (pakietów) produktów.
  • Projekt wymaga elastyczności ze względu na:
    • dynamicznie zmieniające się priorytety wynikające z sytuacji rynkowej,
    • złożoność przetwarzania danych w dużej skali.
  • Głównym celem jest wsparcie w utrzymaniu i rozwoju wysokowydajnych, skalowalnych rozwiązań backendowych kluczowych dla funkcjonowania sklepu.

 

Twoje zadania

  • Rozwój i implementacja serwisów backendowych w środowisku mikroserwisów.
  • Współpraca z biznesem (głównie niemieckojęzycznym) w celu implementacji wymagań.
  • Samodzielne zarządzanie zadaniami oraz dostarczanie rozwiązań na środowisko produkcyjne.

 

Wymagania

  • Minimum 5 lat doświadczenia w programowaniu w Javie.
  • Znajomość technologii:
    • Java 17+, Spring Boot, JPA/Hibernate, REST API,
    • Kubernetes, Jenkins, GIT.
  • Znajomość języka niemieckiego na poziomie komunikatywnym (B1+).
  • Umiejętność pisania testów jednostkowych i integracyjnych (JUnit, Mockito, WireMock).
  • Doświadczenie w pracy w środowisku mikroserwisów.
  • Znajomość języka angielskiego na poziomie B2.

Data Engineer

Bądź konsultantem, prowadź reverse-engineering platform AI i usprawniaj jakość procesów DataOps.
B2B: 150 – 180 PLN netto/h
Lokalizacja: Zdalnie
HI-Tech
AI PySpark ETL tools CI/CD Docker Azure Python Kubernetes Linux Spark

O projekcie

  • Nie lubisz nudy? Dołącz do szybko rozwijającego się start-up’u i wspieraj wiele projektów, zróżnicowanych pod kątem domeny.
  • Czekają na Ciebie wyzwania związane z reverse-engineering.

 

Twoje zadania

  • Wsparcie działu Data w różnorodnych zapytaniach.
  • Monitorowanie kondycji systemu.
  • Rozwiązywanie problemów technicznych / zarządzanie incydentami.
  • Pomoc i wsparcie klientów oraz proponowanie i wdrażanie usprawnień.
  • Koordynacja utrzymania infrastruktury i platformy (aktualizacje).
  • Integracja innych narzędzi na platformie, takich jak narzędzia BI i ETL.
  • Monitorowanie przepływów danych na platformie w celu identyfikacji problemów z wydajnością.

 

Wymagania

  • Doświadczenie w pracy z wieloma projektami/klientami.
  • Doświadczenie w utrzymywaniu pipeline’ów.
  • Wiedza z zakresu administracji systemem Linux oraz podstawowa wiedza o sieciach.
  • Wiedza na temat przynajmniej jednego z następujących zagadnień: rozproszone przetwarzanie danych (Spark), orkiestracja przepływów ETL/ELT, zarządzanie przepływami danych.
  • Komunikatywność i pragmatyczne podejście do rozwiązywania problemów.

 

Mile widziane

  • Wiedza na temat jednej z głównych chmur (AWS/GCP/Azure).
  • Doświadczenie hands-on z projektami AI.
  • Znajomość koncepcji konteneryzacji (Docker, Kubernetes).
  • Znajomość Palantir Foundry.