Apache Kafka at our First Meetup in Rome


Details
*** PLEASE REGISTER HERE TO ENSURE ENTRANCE *** (https://www.eventbrite.it/e/biglietti-meetup-aperitech-di-roma-apache-kafka-41507498044?aff=es2)
RSVP ON THIS PAGE DOESN'T ENSURE ENTRANCE, MAKE SURE YOU CLICK ON THE EVENTBRITE LINK. THANK YOU!
Please join us for our first Rome Kafka Meetup the 1st of February, hosted by our friends from Seacom.
Please find below the Agenda and speaker's information:
Agenda:
7:00pm: Doors open
7:00pm - 7:30pm: Networking, Pizza and Drinks
7:30pm - 8:15pm: Introduction to Apache Kafka and Confluent... and why they matter!, Paolo Castagna, Confluent
8:15pm - 9:00pm: Big Data Stream Analytics without code, Stefano Pampaloni, Dario Balinzo, Seacom Srl
9:00pm - 9:30pm: Additional Q&A and Networking
First Talk
Title:
Introduction to Apache Kafka and Confluent... and why they matter!
Speaker:
Paolo Castagna, Confluent
Bio:
L'Ing. Paolo Castagna vive da più di 10 anni in Inghilterra e lavora come Senior Systems Engineer presso Confluent con clienti in EMEA. Il background tecnico di Paolo è "big data" e ha toccato con mano l'evoluzione ed enorme cambiamento che l'industria del software sta attraversando da batch/big data a stream processing/fast data.
Abstract:
Il talk introduce Apache Kafka (incluse le APIs Kafka Connect e Kafka Streams), Confluent (la società creata dai creatori di Kafka) e spiega perché Kafka è un'ottima e semplice soluzione per la gestione di stream di dati nel contesto di due delle principali forze trainanti e trend industriali: Internet of Things (IoT) e Microservices.
Second Talk:
Title:
Big Data Stream Analytics without code
Speaker:
Stefano Pampaloni, Dario Balinzo, Seacom Srl
Bio:
Stefano:
Business Open Source Evangelist, CEO @Seacomsrl. sostenitore convinto dell'Open Source, ha creato il suo primo Internet Service Provider nel 1995, implementando l'intera infrastruttura attraverso software Open Source. Nel corso degli anni ha fondato diverse "Internet Company" tra cui una compagnia telefonica. Grazie a queste esperienze ha acquisito un patrimonio di conoscenze tecniche e manageriali, soprattutto nel campo dei sistemi di comunicazione, collaborazione e Bigdata
Bio
Dario: Appassionato di tecnologia e informatica. Dopo la laurea magistrale in Informatica e Networking presso l'Università di Pisa e la Scuola Superiore S.Anna, ho iniziato a lavorare come sviluppatore di sistemi a bassa latenza. Dopo poco tempo ho iniziato ad occuparmi di Data Pipeline e Ingestion, scoprendo la passione per i "Big Data". Dal 2017 mi occupo di consulenza in ambito ElasticSearch e Kakfa.
Abstract: Il talk mostrerà come Kafka Confluent + Elasticsearch possono essere usati per l'analisi dei Big Data in tempo reale. Durante il talk, verrà mostrato come è possibile costruire una soluzione completa per lo streaming in ambito Big Data senza scrivere una riga di codice. In genere, le piattaforme BigData sono grandi e complesse; invece in maniera semplice, estremamente scalabile e potente, mostreremo come grazie a Kafka Connect è possibile raccogliere i dati per poi elaborarli in tempo reale attraverso Kafka Streams (anche utilizzando la sintassi SQL). Usando un altro Kafka Connect i dati posso essere indicizzati in ElasticSearch e visualizzati con Kibana.

Apache Kafka at our First Meetup in Rome