Czym będziesz się u nas zajmować?
- będziesz projektować i implementować procesy przetwarzające duże i nieustrukturyzowane zbiory danych (Data Lake Architecture, Streaming Architecture);
- wdrażać, optymalizować oraz testować nowoczesne rozwiązania Big Data i EWH w chmurze oraz w środowisku Continuous Delivery / Continuous Integration;
- w przypadku istniejących systemów będziesz pracować również nad migrowaniem oraz poprawą wydajności działających procesów z platform on-prem na public cloud.
Poszukujemy właśnie Ciebie, jeśli:
- masz doświadczenie w projektach z obszaru Cloud lub BigData zakresie przetwarzania danych (w różnych fazach rozwoju systemów);
- posiadasz praktyczną znajomość AWS, Azure lub Google Cloud Platform w obszarze Storage, Compute (+Serverless), Networking oraz Devops popartą pracą nad projektami komercyjnymi;
- programujesz w jednym z języków takich jak Scala/Java/Python (mile widziana praktyczna znajomość Kafki);
- znasz przynajmniej jeden stack technologiczny (Cloudera lub Hortonworks) z praktyką w Hadoop, Hbase, Spark, Hive, Oozie oraz jeden (nie)relacyjny system bazodanowy i język SQL;
- dobrze posługujesz się językiem angielskim (mile widziana znajomość języka niemieckiego).
W zamian otrzymasz od nas:
- szkolenia zawodowe i językowe (w tym intensywny kurs języka niemieckiego – więcej informacji znajdziesz tutaj);
- benefity w ramach pakietu socjalnego, m.in. prywatna opieka medyczna, pakiet ubezpieczeniowy, karta Multisport, dofinansowanie zajęć sportowych;
- abonament samochodowy na preferencyjnych warunkach – Master Benefit;
- możliwość zastosowania podwyższonych kosztów uzyskania przychodu w przypadku pracy twórczej;
- elastyczny czas pracy;
- wsparcie w relokacji;
- bezpłatne miejsca parkingowe oraz zamykane boksy rowerowe;
- dostęp online do ponad 2000 audiobooków i podcastów.
Poczytaj, jak wygląda nasz proces rekrutacyjny.
Więcej informacji
- Poziom stanowiska specjalista $ Miesiąc
- Języki język polski, język angielski