Koordynator Testów Oferta pracy

Dołącz do zespołu odpowiedzialnego za rozwój produktu e-mobility, realizowanego dla Klienta ze Skandynawii.
ikona: Dział

Branża

Energy
ikona: Lokalizacja

Lokalizacja

Warszawa
ikona: Wynagrodzenie

Wynagrodzenie

B2B: 150 – 170 PLN netto/h

Technologie

Jira Postman

O projekcie

  • Dołącz do zespołu odpowiedzialnego za rozwój produktu e-mobility, realizowanego dla Klienta ze Skandynawii.
  • Zespół składa się z developerów Backend, Fullstack, Mobile, Testera i Product Ownera.
  • Praca oparta jest o metodykę Scrum; długość sprintów – 2 tygodnie.
  • Zespół przywiązuje dużą wagę do jakości – w procesie wytwarzania oprogramowania stosowane są dobre praktyki programistyczne, TDD, clean code, code review.
  • Hybryda 1 x w tygodniu z biura w Warszawie.

 

Twoje zadania

  • Planowanie i koordynacja testów: tworzenie planów testów, harmonogramów oraz zarządzanie zasobami niezbędnymi do przeprowadzenia testów.
  • Przeprowadzanie testów.
  • Analizowanie i monitorowanie błędów wykrytych podczas testów oraz współpraca z zespołem developerskim w celu ich naprawy.
  • Tworzenie raportów z wyników testów i komunikowanie ich do odpowiednich interesariuszy.
  • Bliska współpraca z zespołami developerskimi, analitycznymi i biznesowymi w celu zapewnienia, że wymagania są spełnione i systemy działają zgodnie z oczekiwaniami.
  • Zarządzanie zasobami, niezbędnymi do realizacji testów.
  • Mentoring w zespole QA.

 

Wymagania

  • 8-letnie doświadczenie w obszarze testowania oprogramowania.
  • 2-letnie doświadczenie na podobnym stanowisku.
  • Znajomość narzędzi do testowania API np. Postman, Insomnia.
  • Znajomość JIRA.
  • ISTQB.
  • Podejście zorientowane na klienta i zrozumienie całościowej ścieżki użytkownika.
  • Bardzo dobre umiejętności komunikacyjne.
  • Umiejętności analityczne.
  • Bardzo dobra znajomość języka angielskiego na poziomie min. B2.

Benefity

Budżet rozwojowy
Solidne narzędzia
Opieka medyczna
Zmiana projektu
Gildie Technologiczne
Eventy i integracje
Medicover Sport
Działalność charytatywna

Jak przebiega rekrutacja

1. Wysyłasz CV
2. Rozmowa rekrutacyjna
3. Weryfikacja techniczna
4. Rozmowa z partnerem
5. Otrzymujesz ofertę pracy
6. Witamy się w naszym zespole!
Energy

Koordynator Testów

B2B: 150 – 170 PLN netto/h

Warszawa

Aplikuj Poleć znajomego
I otrzymaj od nas 7000zł

Masz pytania?

Nasze Rekruterki i nasi Rekruterzy znają IT
Sprawdź FAQ

Ewa Kaczyńska

Senior IT Recruitment Specialist
+48 794 333 645 ewa.kaczynska@j-labs.pl

Znasz kogoś, kto idealnie pasuje na to stanowisko?

Prześlij nam CV znajomej osoby, zainteresowanej pracą w j‑labs. Po rozpoczęciu przez nią współpracy otrzymasz 7 000 zł.

Poleć znajomego

Zobacz nowe oferty pracy IT

Zobacz wszystkie oferty

Lista ofert pracy

Senior BI Developer/Analytics Engineer

Dołącz do zespołu odpowiedzialnego za budowę infrastruktury danych oraz procesów ETL.
B2B: 180 – 215 PLN netto/h
Lokalizacja: Kraków
FinTech
DBT ETL tools Google Looker Looker Studio BigQuery GCP SQL

O projekcie

  • Projekt obejmuje budowę infrastruktury danych, procesów ETL oraz współpracę z globalnymi zespołami w Europie, Indiach i Ameryce Łacińskiej, ze szczególnym naciskiem na rozbudowę kompetencji inżynierskich w Polsce.
  • Zespół koncentruje się na tworzeniu dashboardów w narzędziach takich jak Google Looker i Looker Studio, przekształcających surowe dane w czytelne, wizualnie atrakcyjne raporty dla klientów wewnętrznych oraz na budowaniu potoków ETL i transformacji danych.
  • Praca hybrydowa – z biura w Krakowie 2x w tygodniu.

 

Twoje zadania

  • Tworzenie dashboardów w narzędziach BI – Google Looker i Looker Studio.
  • Współpraca z interesariuszami w celu zrozumienia ich wymagań i dostarczenia spersonalizowanych dashboardów spełniających ich potrzeby.
  • Wsparcie procesu ETL w DBT i Google BigQuery: pozyskiwanie, oczyszczanie i prezentacja danych – projektowanie, rozwój, testowanie, kodowanie i wdrażanie do produkcji.
  • Nacisk na jakość i ograniczenia czasowe.
  • Praca z globalnymi, różnorodnymi zespołami.
  • Praca w zwinnej kulturze zorientowanej na produkt.

 

Wymagania

  • Co najmniej 7-letnie doświadczenie zawodowe w tym w rozwoju BI, tworzeniu dashboardów oraz w pracy z SQL.
  • Doświadczenie w pracy z Google Looker i Looker Studio.
  • Doświadczenie w inżynierii danych, rozwoju ETL w SQL.
  • Doświadczenie w GCP, Big Query oraz DBT.
  • Doświadczenie w implementacji zautomatyzowanych rozwiązań zapewniających jakość danych.
  • Doświadczenie w podejmowaniu decyzji projektowych dotyczących schematów i hurtowni danych.
  • Doświadczenie w orkiestracji i harmonogramowaniu.
  • Doświadczenie w pracy w środowisku DevOps (czyli myślenie, budowanie i uruchamianie).
  • Doświadczenie w Continuous Integration, Continuous Delivery.
  • Biegła znajomość języka polskiego oraz angielskiego.

 

Mile widziane

  • Doświadczenie w modelowaniu danych.
  • Doświadczenie w budowaniu i/lub zarządzaniu chmurowymi platformami danych.
  • Doświadczenie w używaniu Git, skryptowania powłokowego, Pythona.
  • Doświadczenie w architekturze danych.

 

Senior MLOps Engineer

Chcesz wdrażać modele ML, masz doświadczenie w sektorze bankowym i fascynują Cię technologie chmurowe? Dołącz do j‑labs!
B2B: 180 – 210 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
AI Airflow GCP CI/CD Terraform Docker Python Jenkins

O projekcie

  • Projekt wykorzystuje narzędzia Machine Learning (ML) w celu poprawy wykrywania oraz zmniejszenia liczby przestępstw finansowych.
  • Rozbudowa i rozwój nowej architektury i procesów MLOps.
  • Współpraca z zespołem Data Scientists w celu przekształcania złożonych modeli ML w rozwiązania produkcyjne. Zespół skupia się na wdrażaniu, utrzymaniu i optymalizacji modeli.
  • Projekt daje możliwość budowania wydajnych i skalowalnych pipeline’ów Machine Learning na platformie Google Cloud, zapewniając jednocześnie integrację ze środowiskami lokalnymi.
  • Technologie w projekcie: Python, PySpark, Docker, Jupyter, Airflow, Java, GCP, BigQuery, Cloud Storage, Cloud Composer, Vertex AI, Dataproc, Compute Engine, CI/CD, Terraform, Terragrunt, Jenkins, Groovy, Crane, Kaniko.
  • Lokalizacja: Kraków, hybryda – 1x w tygodniu praca z biura.

 

Twoje zadania

  • Ścisła współpraca z zespołem Data Scientists w celu przygotowania i wstępnego przetwarzania danych do treningu i oceny modeli.
  • Wdrażanie i zarządzanie modelami ML na platformie Vertex AI w GCP, zapewniając ich wydajność i skalowalność.
  • Opracowywanie technik wizualizacji i wyjaśniania zachowań modeli, aby zapewnić przejrzystość i odpowiedzialność modelu zgodnie z wytycznymi PRA S51/23.
  • Współpraca z zespołami infrastruktury i DevOps w celu ustalenia wydajnych strategii wdrażania i skalowania.
  • Budowanie i utrzymywanie pipeline’ów do treningu, strojenia i wdrażania modeli z wykorzystaniem komponentów Vertex AI i narzędzi GCP, takich jak Cloud Composer, przy użyciu Pythona, Javy i Big Query.
  • Implementowanie zautomatyzowanego monitoringu, aby śledzić wydajność modeli i identyfikować potencjalne problemy.
  • Opracowywanie i utrzymywanie kontroli jakości danych oraz walidacji, w tym rekonsyliacji, zgodnie z zasadami kontroli jakości danych i przechowywania danych.
  • Wdrażanie solidnych środków ochrony danych, aby chronić wrażliwe informacje i modele.
  • Ustanowienie i utrzymywanie najlepszych praktyk w zakresie MLOps, w tym kontrola wersji, pipeline’y CI/CD oraz rejestr modeli i punkty końcowe Vertex AI.
  • Implementowanie narzędzi MLOps w celu uproszczenia procesu rozwoju modeli, treningu, strojenia, wdrażania, monitorowania i wyjaśniania.
  • Identyfikowanie i rozwiązywanie problemów związanych z wydajnością modeli ML i pipeline’ów.
  • Rozwiązywanie problemów związanych z ML, aby zapewnić optymalną wydajność modeli i optymalizację kosztów.

 

Wymagania

  • Minimum 8 lat doświadczenia w programowaniu w języku Python – wiedza na poziomie eksperta.
  • Doświadczenie w pracy z GCP, w tym BigQuery, Cloud Composer i Vertex AI.
  • Biegłość w inżynierii danych i rozwoju pipeline’ów.
  • Doświadczenie w zakresie zasad i narzędzi MLOps.
  • Doskonałe umiejętności komunikacyjne, silne umiejętności analityczne i rozwiązywania problemów.
  • Znajomość języka angielskiego i polskiego – poziom min. B2/C1.

 

Mile widziane

  • Doświadczenie w projektowaniu, tworzeniu oraz utrzymywaniu rozproszonych systemów w języku Java.

 

Senior Java Developer z językiem niemieckim

Dołącz do zespołu rozwijającego nowoczesne serwisy backendowe dla lidera branży telekomunikacyjnej, pracując z dynamicznymi technologiami, samoorganizującym się zespołem i niemieckojęzycznym biznesem.
B2B: 160 – 180 PLN netto/h
Lokalizacja: Zdalnie
Telco
Rest API Java Kubernetes Jenkins Mikroserwisy Spring Boot

O projekcie

  • Dołączysz do zespołu inżynierów wspierających rozwój serwisów backendowych w dziale Shop Development.
  • Klientem jest niemiecki lider w sprzedaży produktów mobilnych, szerokopasmowych, akcesoriów oraz usług cloudowych.
  • Twoja praca będzie związana z rozwojem serwisów odpowiadających za dostarczanie danych technicznych do sklepu w kontekście ofert oraz bundli (pakietów) produktów.
  • Projekt wymaga elastyczności ze względu na:
    • dynamicznie zmieniające się priorytety wynikające z sytuacji rynkowej,
    • złożoność przetwarzania danych w dużej skali.
  • Głównym celem jest wsparcie w utrzymaniu i rozwoju wysokowydajnych, skalowalnych rozwiązań backendowych kluczowych dla funkcjonowania sklepu.

 

Twoje zadania

  • Rozwój i implementacja serwisów backendowych w środowisku mikroserwisów.
  • Współpraca z biznesem (głównie niemieckojęzycznym) w celu implementacji wymagań.
  • Samodzielne zarządzanie zadaniami oraz dostarczanie rozwiązań na środowisko produkcyjne.

 

Wymagania

  • Minimum 5 lat doświadczenia w programowaniu w Javie.
  • Znajomość technologii:
    • Java 17+, Spring Boot, JPA/Hibernate, REST API,
    • Kubernetes, Jenkins, GIT.
  • Znajomość języka niemieckiego na poziomie komunikatywnym (B1+).
  • Umiejętność pisania testów jednostkowych i integracyjnych (JUnit, Mockito, WireMock).
  • Doświadczenie w pracy w środowisku mikroserwisów.
  • Znajomość języka angielskiego na poziomie B2.

Data Engineer

Bądź konsultantem, prowadź reverse-engineering platform AI i usprawniaj jakość procesów DataOps.
B2B: 150 – 180 PLN netto/h
Lokalizacja: Zdalnie
HI-Tech
AI ETL tools PySpark CI/CD Docker Azure Python Kubernetes Linux Spark

O projekcie

  • Nie lubisz nudy? Dołącz do szybko rozwijającego się start-up’u i wspieraj wiele projektów, zróżnicowanych pod kątem domeny.
  • Czekają na Ciebie wyzwania związane z reverse-engineering.

 

Twoje zadania

  • Wsparcie działu Data w różnorodnych zapytaniach.
  • Monitorowanie kondycji systemu.
  • Rozwiązywanie problemów technicznych / zarządzanie incydentami.
  • Pomoc i wsparcie klientów oraz proponowanie i wdrażanie usprawnień.
  • Koordynacja utrzymania infrastruktury i platformy (aktualizacje).
  • Integracja innych narzędzi na platformie, takich jak narzędzia BI i ETL.
  • Monitorowanie przepływów danych na platformie w celu identyfikacji problemów z wydajnością.

 

Wymagania

  • Doświadczenie w pracy z wieloma projektami/klientami.
  • Doświadczenie w utrzymywaniu pipeline’ów.
  • Wiedza z zakresu administracji systemem Linux oraz podstawowa wiedza o sieciach.
  • Wiedza na temat przynajmniej jednego z następujących zagadnień: rozproszone przetwarzanie danych (Spark), orkiestracja przepływów ETL/ELT, zarządzanie przepływami danych.
  • Komunikatywność i pragmatyczne podejście do rozwiązywania problemów.

 

Mile widziane

  • Wiedza na temat jednej z głównych chmur (AWS/GCP/Azure).
  • Doświadczenie hands-on z projektami AI.
  • Znajomość koncepcji konteneryzacji (Docker, Kubernetes).
  • Znajomość Palantir Foundry.