II Workshop Big Data: ingesta de datos en Hadoop


Details
Queridos bigdateros,
No, no nos hemos olvidado de vosotros, tras el último Meetup volvemos a la carga antes de un merecido descanso estival. Muchos de vosotros estaréis pensando en las vacaciones y otros ya estaréis disfrutándolas, así que este Meetup es para los que os quedáis en Madrid en julio y queréis seguir aprendiendo.
En el último taller vimos cómo trabajar con datos en Hadoop usando Hive. En este segundo workshop, y continuando con la senda anterior, profundizaremos en cómo hacer llegar datos a Hadoop mediante dos técnicas sencillas:
-
Copia de ficheros: esto ya lo vimos por encima el último día, haremos un breve repaso y comentaremos sus ventajas e inconvenientes.
-
Flume: permite canalizar flujos de datos de forma que terminen en Hadoop. Veremos diferentes formas de trabajar con esta pequeña pero utilísima herramienta del ecosistema.
IMPORTANTE: Traeros vuestros PCs, con la Cloudera Quickstart VM instalada:
https://www.cloudera.com/downloads/quickstart_vms/5-10.html
Dudas y comentarios en el Slack www.big-data-madrid.slack.com.
¡Ayudadnos a definir el contenido del workshop!
Por último, como es el último Meetup del curso escolar ¿Nos despedimos con unas cañas brindando por el veranito?

II Workshop Big Data: ingesta de datos en Hadoop