Streaming ETL with Spark Declarative Pipelines in Apache Spark 4.1
Szczegóły
Mamy już oficjalne wydanie Spark Declarative Pipelines (SDP) w najnowszej wersji Apache Spark 4.1!
Podczas nadchodzącego spotkania przyjrzymy się przetwarzaniu strumieniowemu danych w SDP (streaming ETL / streaming data processing pipelines).
Czego się nauczysz (dowiesz podczas kodowania na żywo) o Spark Declarative Pipelines:
- Zbudujesz i uruchomisz prostą aplikację ETL do przetwarzania danych strumieniowo
- Użyjesz SQL i Python (zgodnie z własnymi upodobaniami)
- Wczytasz dane z lokalnych plików na Twoim dysku przyrostowo
- (opcjonalnie) Uruchomisz Apache Kafka i zbudujesz bardziej wyrafinowaną aplikację ETL
Pomysł dla odważnych: Jeśli chciał(a)byś całość kodować u Ciebie na żywo (z moją pomocą słowną), odezwij się wcześniej lub bezpośrednio na początku spotkania. Ty prezentujesz, ja opowiadam. Brzmi ciekawie!
W razie pytań, sugestii lub chcesz pomóc, skontaktuj się ze mną na jacek@japila.pl. Każda pomoc mile widziana!
Proszę o nagłośnienie meetupu wśród Twoich znajomych. Dziękuję i zapraszam!
Pokrewne tematy
Machine Learning
Data Engineering
Predictive Analytics
Python
Open Source
