Event streaming con Apache Kafka
Details
Volvemos un mes más a presentar un interesante taller, esta vez sobre Event streaming y Apache Kafka, una solucion imprescindible en el mundo actual de consumo de grandes cantidades de datos que nos rodean continuamente.
¿Por qué la usan empresas como LinkedIn, Netflix, Uber, Spotify...?
En este taller práctico veremos conceptos imprescindibles para entender la arquitectura que hay detrás de Apache Kafka, aprenderemos a producir y consumir datos, desarrollaremos una sencilla aplicacion y veremos cómo se utiliza en grandes empresas que mueven cantidades ingentes de datos.
Jorge nos hablará de cómo integran Apache Kafka en una Arquitectura Kappa dentro de una entidad financiera.
Conoceremos los 3 tipos de accesos a Kafka, viendo sus diferencias y cuándo seleccionar uno u otro:
- Kafka producers & consumers
- Kafka Streams
- Kafka Connect
- KSQL
Instrucciones
- Trae tu portatil, o traete a alguien que lo traiga. Si no es Windows ya tendremos grandes pasos dados para trabajar con un entorno estable y maduro, y podras seguir el taller facilmente.
- Minimo Java 8.
- Descargate Apache Kafka en https://www.apache.org/dyn/closer.cgi?path=/kafka/2.0.0/kafka_2.11-2.0.0.tgz
- Si prefieres trabajar con Docker y tener mas de un broker, clona este repositorio y sigue las instrucciones para tenerun nodo de Zookeeper y varios de Kafka. NO es IMPRESCINDIBLE para el taller -> https://github.com/semurat/kafka-stack-docker-compose
- El ejercicio a desarrollar guardara datos en un Elasticsearch, parasu instalacion varias opciones:
5.1 Instala con Docker: https://hub.docker.com/_/elasticsearch/
5.2 Instalacion desde la web de Elastic -> https://www.elastic.co/guide/en/elasticsearch/reference/current/setup.html
5.3 Elasticsearch en la nube: https://bonsai.io - Cliente de Elasticsearch -> https://www.elastic.co/guide/en/elasticsearch/client/java-rest/6.4/java-rest-high.html
