Bezpłatny, dwuczęściowy webinar #BigData z mnóstwem praktyki i kodowania na żywo: wykorzystaj potęgę Kafki w swoich projektach! Co na tapecie?

  • Kafka jako niezawodny i wydajny broker oraz narzędzie integracyjne
  • Pozyskiwanie i preprocessing danych w czasie rzeczywistym z użyciem KafkaConnect
  • przetwarzanie strumieni danych z opóźnieniami rzędu kilku milisekund przy milionach rekordów w KafkaStreams
  • przyjazna dla użytkowników nietechnicznych analiza danych w czasie rzeczywistym z użyciem KSQL

Zarejestruj się już dziś!

Zapraszają #GFTexperts: Kamil Owczarek, Head of Big Data Practice & Kamil Banaszczyk, Senior Software Engineer
 


Do szkolenia potrzebujecie:

  • Dockera z min 8 GB RAM,
  • Git,
  • Jave 8,
  • Ulubione IDE

Prosimy sklonować wcześniej repozytorium:
https://github.com/confluentinc/examples

Po ściągnięciu repo #1 zrobić następujące rzeczy:

Navigate to cp-all-in-one examples directory

cd cp-all-in-one

Pull all required docker images

docker-compose pull