Data Engineer

BI & Data

Data Engineer

BI & Data
Czerska 12, Warszawa

Dentsu Polska

Pełny etat
UoP
Specjalista / Mid
Praca hybrydowa

Opis stanowiska

Grupa dentsu to globalna sieć komunikacji marketingowej stworzona z myślą o przyszłości. W jej skład wchodzą marki: Carat, iProspect, Amplifi, dentsu X i Dentsu Creative.

Przyjmując skoncentrowane na ludziach podejście do transformacji biznesowej, wykorzystujemy naszą wnikliwość do łączenia marki, contentu, handlu i doświadczenia - wszystko w oparciu o innowacyjną kreatywność.

Nasza główna siedziba znajduje się w Tokio, a 65 000 ekspertów pracuje w czterech regionach (Japonia, Ameryka, EMEA i APAC). dentsu łączy japońską innowacyjność ze zróżnicowaną, globalną perspektywą, aby napędzać rozwój klientów i kształtować społeczeństwo.

 

Do zespołu Data Engineering dentsu Polska poszukujemy Data Engineera (K/M), który będzie rozwijał i utrzymywał platformę danych dentsu opartą na Google Cloud Platform. 

 

ZADANIA

·       Projektowanie i rozwój pipeline’ów danych w Pythonie, uruchamianych w Airflow / Cloud Composer. 

·       Budowa i utrzymanie warstw danych bronze i silver, zgodnych ze standardami platformy. 

·       Integracja danych z różnych źródeł (API, systemy marketingowe, pliki, dane semi‑/nieustrukturyzowane). 

·       Praca z BigQuery - modelowanie danych, zapytania, optymalizacja oraz przygotowanie danych do raportowania i modeli. 

·       Utrzymanie i rozwój przetwarzania w środowisku GCP (Cloud Run, Cloud Functions, Pub/Sub, GCS). 

·       Implementacja mechanizmów stabilności: monitoring, alerting, retry, walidacje danych. 

·       Praca z repozytorium kodu (GitHub). 

·       Współpraca z Analytics, Data Science i Research w przygotowaniu danych do analiz i produktów danych. 

·       Udział w projektach integracyjnych i migracyjnych po stronie klientów (m.in. konsolidacja źródeł, przenoszenie procesów danych, integracje API). 

·       Tworzenie dokumentacji technicznej kodu, pipeline’ów i procesów.  

WYMAGANIA

·       Min. 3 lata doświadczenia w obszarze Data Engineeringu 

·       Bardzo dobra znajomość Python w zastosowaniach inżynierskich (pipeline’y danych, integracje, lekkie serwisy backendowe). 

·       Doświadczenie w budowie pipeline’ów w Airflow  

·       Praktyczne doświadczenie w pozyskiwaniu danych z różnych źródeł, w szczególności API (REST), ale również z innych form integracji 

·       Praktyczna praca z repozytorium kodu Git/GitHub  

·       Doświadczenie z chmurą (GCP/AWS/Azure) u nas preferowana Google Cloud Platform, ale otwarci jesteśmy na osoby z innym doświadczeniem chmurowym. 

·       Praca z analitycznym DWH (BigQuery lub odpowiednik). 

·       Umiejętność debuggowania, diagnozowania i rozwiązywania problemów w pipeline’ach danych. 

·       Angielski min. B2. 

Mile widziane 

·       Znajomość usług serverless (np. Cloud Run, Cloud Functions, AWS Lambda, Azure Functions etc.) stosowanych do budowy skalowalnych komponentów przetwarzania i integracji danych. 

·       Doświadczenie z Infrastructure as Code (Terraform lub inne narzędzia do automatyzacji infrastruktury chmurowej). 

·       Znajomość Dockera i pracy z kontenerami 

·       Przetwarzanie big‑data (PySpark / Spark / GCP DataProc lub analogiczne środowiska rozproszone). 

·       Przetwarzanie streaming i event‑driven (Kafka / Pub/Sub etc,). 

·       Praktyczna znajomość pracy w środowiskach Linux oraz narzędziach CLI (bash / shell / PowerShell), w tym praca z GCP/AWS CLI, logami i lokalnym debugowaniem pipeline’ów 

·       Doświadczenie z elementami DataOps (tworzenie powtarzalnych procesów danych: CI/CD dla pipeline’ów, automatyzacje, quality gates, standaryzacja przepływów danych) 

·       Doświadczenie z danymi nieustrukturyzowanymi 

·       Znajmość frameworków warstwy analitycznej (np. Dataform lub podobne narzędzia budujące warstwy SQL/analytics) 

·       Doświadczenie z testowaniem i kontrolą jakości danych (testy integracyjne, walidacje, data quality checks etc.) 

·       Doświadczenie z monitoringiem i observability (logowanie, alerting, analiza awarii pipeline’ów) 

·       Znajomość różnych środowisk chmurowych  

·       Podstawy MLOps (np. MLflow, Vertex AI, pipeline’y ML, wersjonowanie modeli/artefaktów) 

·       Doświadczenie w pracy z narzędziami AI‑assisted development (np. Cursor, Claude Code etc) 

·       Doświadczenie w pracy z danymi marketingowymi, mediowymi lub CRM. 

·       Doświadczenie w pracy agencyjnej 

 OFERUJEMY

  • Pracę w globalnej, dynamicznie rozwijającej się grupie z obszaru komunikacji marketingowej;

  • Samodzielność w działaniu w zakresie powierzonych zadań;

  • Możliwość rozwoju w ramach grupy dentsu w Polsce i na świecie;

  • Szkolenie on-boardingowe i programy rozwojowe;

  • 3 dodatkowe, wolne dni płatne - tzw. „Wellness days”;

  • 2 dodatkowe dni przeznaczone na wolontariat pracowniczy;

  • Summer Fridays - w okresie wakacyjnym (od czerwca do września, w piątki kończymy pracę 2 godziny wcześniej);

  • Hybrydowy tryb pracy – zależnie od ustaleń w zespole;

  • Wewnętrzne programy szkoleniowe

  • Nowoczesne i komfortowe biuro zgodnie z ideą work-life-balance, oferujące między innymi takie udogodnienia jak siłownia i sala fitness, punkt opieki dziennej dla dzieci DAY CARE;

  • Finansowany przez pracodawcę abonament medyczny w Medicover z możliwością rozszerzenia o dodatkowe usługi;

  • Finansowane przez pracodawcę Ubezpieczenie na życie UNUM z możliwością rozszerzenia o dodatkowe pakiety;

  • Kafeteria NAIS;

 

Wymagane umiejętności

Python

AirFlow

API

Google Cloud

BigQuery

Znajomość języków

Angielski: B2

Polski: C2

Lokalizacja biura

Data Engineer

Podsumowanie oferty

Data Engineer

Czerska 12, Warszawa
Dentsu Polska
Aplikując zgadzam się na przetwarzanie moich danych osobowych w celu przeprowadzenia procesu rekrutacyjnego. Informujemy, że administratorem danych jest Dentsu Polska sp. z o. o. z siedzibą w Warszawie, ul. Czerska 12 (dalej jako "administrator"). Ma... WięcejThis site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.