Skip to content

Apache Kafka at our First Meetup in Rome

Photo of Alice Richardson
Hosted By
Alice R.
Apache Kafka at our First Meetup in Rome

Details

*** PLEASE REGISTER HERE TO ENSURE ENTRANCE *** (https://www.eventbrite.it/e/biglietti-meetup-aperitech-di-roma-apache-kafka-41507498044?aff=es2)
RSVP ON THIS PAGE DOESN'T ENSURE ENTRANCE, MAKE SURE YOU CLICK ON THE EVENTBRITE LINK. THANK YOU!

Please join us for our first Rome Kafka Meetup the 1st of February, hosted by our friends from Seacom.

Please find below the Agenda and speaker's information:

Agenda:
7:00pm: Doors open
7:00pm - 7:30pm: Networking, Pizza and Drinks
7:30pm - 8:15pm: Introduction to Apache Kafka and Confluent... and why they matter!, Paolo Castagna, Confluent
8:15pm - 9:00pm: Big Data Stream Analytics without code, Stefano Pampaloni, Dario Balinzo, Seacom Srl
9:00pm - 9:30pm: Additional Q&A and Networking

First Talk

Title:
Introduction to Apache Kafka and Confluent... and why they matter!

Speaker:
Paolo Castagna, Confluent

Bio:
L'Ing. Paolo Castagna vive da più di 10 anni in Inghilterra e lavora come Senior Systems Engineer presso Confluent con clienti in EMEA. Il background tecnico di Paolo è "big data" e ha toccato con mano l'evoluzione ed enorme cambiamento che l'industria del software sta attraversando da batch/big data a stream processing/fast data.

Abstract:
Il talk introduce Apache Kafka (incluse le APIs Kafka Connect e Kafka Streams), Confluent (la società creata dai creatori di Kafka) e spiega perché Kafka è un'ottima e semplice soluzione per la gestione di stream di dati nel contesto di due delle principali forze trainanti e trend industriali: Internet of Things (IoT) e Microservices.

Second Talk:

Title:
Big Data Stream Analytics without code

Speaker:
Stefano Pampaloni, Dario Balinzo, Seacom Srl

Bio:
Stefano:
Business Open Source Evangelist, CEO @Seacomsrl. sostenitore convinto dell'Open Source, ha creato il suo primo Internet Service Provider nel 1995, implementando l'intera infrastruttura attraverso software Open Source. Nel corso degli anni ha fondato diverse "Internet Company" tra cui una compagnia telefonica. Grazie a queste esperienze ha acquisito un patrimonio di conoscenze tecniche e manageriali, soprattutto nel campo dei sistemi di comunicazione, collaborazione e Bigdata

Bio
Dario: Appassionato di tecnologia e informatica. Dopo la laurea magistrale in Informatica e Networking presso l'Università di Pisa e la Scuola Superiore S.Anna, ho iniziato a lavorare come sviluppatore di sistemi a bassa latenza. Dopo poco tempo ho iniziato ad occuparmi di Data Pipeline e Ingestion, scoprendo la passione per i "Big Data". Dal 2017 mi occupo di consulenza in ambito ElasticSearch e Kakfa.

Abstract: Il talk mostrerà come Kafka Confluent + Elasticsearch possono essere usati per l'analisi dei Big Data in tempo reale. Durante il talk, verrà mostrato come è possibile costruire una soluzione completa per lo streaming in ambito Big Data senza scrivere una riga di codice. In genere, le piattaforme BigData sono grandi e complesse; invece in maniera semplice, estremamente scalabile e potente, mostreremo come grazie a Kafka Connect è possibile raccogliere i dati per poi elaborarli in tempo reale attraverso Kafka Streams (anche utilizzando la sintassi SQL). Usando un altro Kafka Connect i dati posso essere indicizzati in ElasticSearch e visualizzati con Kibana.

Photo of Roma Apache Kafka® Meetup by Confluent group
Roma Apache Kafka® Meetup by Confluent
See more events
LUISS ENLABS
Via Marsala 29H - Stazione Termini · Roma, RM