Jan Pustelnik i Kamil Owczarek z GFT Polska na konferencji Kariera IT

Kariera IT to wydarzenie dla każdego, kto wiążę swoją karierę zawodową z branżą IT. Prelekcje techniczne, pokazy technologii, prezentacje ofert, doradztwo zawodowe - to wszystko i wiele innych atrakcji czeka na uczestników tegorocznej edycji. Wstęp bezpłatny!

Tegoroczna edycja wydarzenia odbędzie się 5 listopada 2016 w Doubletree by Hilton Hotel w Łodzi. Eksperci GFT Polska wygłoszą dwie prelekcje techniczne:

  • Jan Pustelnik Technical Architect / Principal Consultant oraz wykładowca na Uniwersytecie Łódzkim. Doświadczony programista, DevOps i menedżer branży IT. Aktywny w polskim środowisku języka Scala i technologii BigData. Prelegent łódzkiego JUGa. Prowadził i uczestniczył w realizacji wielu kluczowych projektów w branży bankowej, m.in. platform zintegrowanych z giełdami, systemu bankowości elektronicznej a także systemów wnioskowych oraz hurtowni danych. Wielki fan open source, aktywnie udziela się w projekcie Akka. @gosubpl na Twitterze.

    Temat prelekcji: Testowanie okiem developera

    Testy to bardzo ważny element każdego projektu informatycznego. Czasem jest fajnie, bo w zespole jest profesjonalny QA. Ale często zostajemy z tym zagadnieniem sami. W wystąpieniu chciałbym opowiedzieć o tematach, które z mojego doświadczenia są istotne dla każdego projektu: – jaka jest wartość testów jednostkowych (Unit Test) i jak rozumieć pokrycie testami (Test Coverage)? – czym się różnią mocki od stubów? – co nam dają testy integracyjne i jak je prowadzić? – jakie jeszcze rodzaje testów znamy i jak możemy ich użyć? – co to jest Hexagonal Architecture? – piramida zdrowych testów w projekcie w zależności od domeny i technologii – jak automatyzować testy i dlaczego nie wszystko się da przetestować w pełni automatycznie – jaką wartość mają dane w procesie testowania?
     
  • Kamil Owczarek Senior Scala / Big Data Developer w GFT Łódź. Członek i prelegent grup Java User Group i Data Science Łódź. Entuzjasta programowania funkcyjnego, Scali i zagadnień z zakresu Big Data, od data warehousing do przetwarzania wielkich grafów.

    Temat prelekcji: Podstawy Sparka i modelu obliczeń MPP

    Wraz z pojaweniem się Web 2.0 i Internet of Things era aplikacji na pojedynczych serwerach i obliczeń uruchmanianych na jednej maszynie odchodzi w przeszłość, ustępując miejsca przetwarzaniu rozproszonemu. Jednym z wiodących obecnie narzędzi do obliczeń rozproszonych jest Apache Spark, którego znajomość jest obecnie kluczem do fascynującego świata Big Data.

    1. Co to jest Big Data?
    2. Podstawy modelu obliczeniowego MapReduce.
    3. Wady modelu MapReduce.
    4. Podstawy modelu obliczeniowego MPP
    5. Wstęp do Sparka.
    6. Submoduły Sparka (Streaming, SQL , GraphX, MLLib) i ich zastosowania.
    7. Spark 2.0 i przyszłość tego framework’a
     

Zapraszamy!