Data Engineer
Dietly to największy w Polsce marketplace dla cateringów dietetycznych, będący częścią Grupy Żabka. Działamy na styku technologii, logistyki i zdrowego stylu życia – łącząc świat SaaS, e-commerce, logistyki i foodtech w jeden, spójny ekosystem. Jako jeden z nielicznych graczy w Europie rozwijamy model „SaaS-enabled Marketplace”, w którym nasi partnerzy – ponad 300 zakładów produkujących żywność – korzystają z naszego systemu SaaS (MasterLife) do zarządzania produkcją, sprzedażą i obsługą klientów.
Dietly to jednak nie tylko oprogramowanie. To również gotowe sklepy e-commerce dla cateringów oraz zintegrowana logistyka D2C, pozwalająca na dostarczenie posiłków w mniej niż 24 godziny od momentu ich przygotowania. Każdego dnia dzięki naszym rozwiązaniom realizowanych jest ponad 100 tysięcy dostaw, a nasz zespół ponad 140 specjalistów pracuje nad tym, by ten złożony ekosystem działał niezawodnie – od pierwszej linijki kodu po zbilansowany posiłek pod Twoimi drzwiami.
Wierzymy, że dane to paliwo, które napędza nasz wzrost. Jako Data Engineer będziesz "mostem" między surowymi bazami danych a światem analityki.
Twoje zadania będą obejmować:
Tworzenie oraz utrzymanie potoków danych (ETL/ELT), które zasilają nasze procesy decyzyjne.
Skracanie czasu dostarczania danych dla zespołu Data Analyst, aby mogli szybciej wyciągać wnioski.
Przekształcanie rozproszonych informacji w uporządkowane struktury danych, gotowe do natychmiastowej analizy
Automatyzację, która zastąpi manualne procesy nowoczesnymi rozwiązaniami.
Projektowanie logicznych i uporządkowanych struktur danych w hurtowni (BigQuery).
Pomoc przy technicznych update’ach baz danych i obsługa requestów spływających z marketingu, produktu, sprzedaży..
Czego od Ciebie oczekujemy? (Wymagania)
Minimum 2-3 lata doświadczenia w obszarze danych jako Data Engineer lub ponad 5 w innym obszarze związanym silnie z danymi (np. Data Analyst, Backend Developer, Database Administrator).
Bardzo dobra znajomość SQL & Python
Doświadczenie w pracy z rozwiązaniami chmurowymi (AWS/GCP), ze szczególnym uwzględnieniem BigQuery (to nasz główny target).
ETL/ELT: Praktyczna umiejętność tworzenia data pipelines – wyciąganie danych z różnych źródeł i ładowanie ich do hurtowni.
Znajomość narzędzi takich jak Dagster, Airflow, Prefect lub podobnych.
Doświadczenie z przekształcaniem i modelowaniem danych w celach analitycznych w hurtowni danych (preferowalnie z wykorzystaniem dbt Core lub podobnymi narzędziami).
Język angielski: Poziom min. B2 (praca z dokumentacją i narzędziami).
Dodatkowy "plus" otrzymasz za:
Znajomość Dockera (konteneryzacja).
Doświadczenie ze streamingiem danych (np. RabbitMQ, Kafka).
Znajomość zasad modelowania danych (Kimball, architektura Medallion).
Wykształcenie kierunkowe (Informatyka, Metody Ilościowe, Ekonometria itp.).
Narzędzia, z którymi będziesz pracować:
Źródła: PostgreSQL, MySQL, MongoDB, API, S3 (Parquet), Google Sheets.
Inne narzędzia: BigQuery, MySQL, AWS Athena, Python, Dagster, AWS Lambda, Tableau.
Co oferujemy?
Umowę B2B – 13 000 -19 000 zł netto
Okres wdrożeniowy – zadbamy o Twoje wprowadzenie do naszych systemów i procesów, byś poczuł/a się pewnie w swojej roli.
Płatna przerwa w świadczeniu usług oraz elastyczny czas pracy, żeby załatwić swoje sprawy, czy to w urzędzie, czy u dentysty - rozumiemy, że życie potrafi być nieprzewidywalne. :)
Praca hybrydowa (2 dni w biurze, 3 dni zdalnie) - jeśli jesteś z Trójmiasta lub całkowicie zdalna jeśli jesteś z innej części Polski!
Preferencyjne stawki karty Multisport i opieki medycznej LUXMED.
Możliwość udziału w wolontariacie firmowym lub indywidualnym.
Zniżki na catering dietetyczny. ;)
Turbo zespół – przekonaj się sam/-a!
Jak będzie wyglądał Twój proces rekrutacyjny (spotykamy się online):
Na pierwszy ogień łączysz się na ok. 45-minutowe spotkanie z naszą HRBP.
Kolejny krok to spotkanie techniczne z zespołem.
Na finał zaprosimy Cię na spotkanie z Hiring Managerem.
To wszystko! Witamy na pokładzie Dietly. :)
Aplikuj! Czekamy na Ciebie!
Data Engineer
Data Engineer