• ParisDataEng' #13 ~ Machine Learning Engineering

    Xebia - Consulting firm IT

    Salut à tous, Pour ce nouveau Meetup, nous sommes accueillis par Xebia-Publicis Sapient. Le Machine Learning Engineering est l'ensemble des processus qui permettent la mise en production de Machine Learning grâce à l’optimisation d’algorithmes. Cette session a pour but d'en présenter les contours et de mettre en avant l'émergence d'outils permettant d'aider les ML Engineers/Data Engineers au quotidien. Comme d'habitude, on va garder du temps pour discuter entre nous de "DataLake" et du quotidien d'ingénieur de la donnée ! A très vite ! L'équipe Paris Data Eng' ⚠ Pensez à vous munir de votre carte d’identité, elle peut vous être demandée à l’entrée. =========================== Agenda =========================== 18h30 - Accueil des participants 19h00 - Utilisation de MLflow pour le cycle de vie des projet Machine learning par Arduino Cascella [Français] Mlflow est un projet opensource pour administrer le cycle de vie des projets machine learning (de l’expérimentation jusqu’au déploiement) afin de mieux les intégrer dans l’écosystème qui les entoure. Durant cette présentation nous montrerons les différentes composantes de MLflow et ferons une démonstration de son utilisation à la fois dans le contexte d’une plateforme Databricks et d’un IDE local. 19h45 - ONNX : déploiement de modèles de Machine Learning par Xavier Dupré [Français] Le langage Python est le plus utilisé pour construire des modèles de machine learning mais il n'est pas le plus efficace pour prédire à partir de ces modèles. ONNX est une solution qui ne dépend pas de Python, qui est disponible sur Windows, Linux, CPU, GPU, ARM. Il s'applique au deep learning et au machine learning. La présentation présente les concepts et quelques exemples. 20h - Romain Sagean [Français] Lors du DataxDay je vous ai appris à industrialiser les prédictions d'un réseau de neurones à l'aide de DL4J et Spark. Maintenant les Data Scientists voudraient tester différentes variantes de réseaux de neurones. Pendant ce temps, votre modèle en production donne des prédictions. Il faudra suivre son évolution pour vérifier que ses performances ne se dégradent pas. 20h30 - Data Cocktail et Networking Merci à notre hôte Xebia Publicis Sapient (https://www.xebia.fr) de nous accueillir et nous offrir boissons et nourriture. =========================== Présentation des speakers =========================== Xavier Dupré Graduated in 1999 from the ENSAE and doctor in 2004, Xavier Dupré began his career at A2iA, a company specialized in automatic reading of cheques and handwriting recognition. After a short passage in finance, he joined Yahoo in 2008 to work on search query rewriting problems by implementing statistical algorithms designed for all languages. In 2010, Xavier joined Microsoft to participate in the local search engine. He contributed to the partnership between PagesJaunes and Bing. Xavier continues to work on very large scale problems for Microsoft’s search engine and contributes to Microsoft open sources projects (ML.net, onnxmltools). Meanwhile, Xavier Dupré have been teaching programming since 2001 at the ENSAE. The courses have expanded in 2014 to machine learning and technologies associated to big data. More recently, Xavier started to leverage student’s work about machine learning through hackathons and academical projects with non-profitable organizations. Arduino Cascella Arduino Cascella est Solutions Architect chez Databricks, où il aide les clients à extraire la valeur de leurs données en adressant les défis posés par le Big Data. Avant de rejoindre Databricks, Arduino a eu un parcours très varié, allant du Machine Learning et la détection de fraudes au NoSQL, en passant aussi par la sécurité informatique. Romain Sagean Développeur depuis 4 ans, Romain « scauglog » s’intéresse à tout ce qui tourne autour de l’écosystème Big Data. UX de formation, il aime rapprocher ces deux mondes et code secrètement en JavaScript.

    10
  • DATAXDAY 2019 - The Data Centric Conférence in Paris

    Nous sommes heureux cette année de soutenir le DataXDay, une conférence technique autour de la Data Science et du Data Engineering sur Paris. La prochaine édition aura lieu le 27 juin 2019, au Pan Piper et pour l’occasion nous proposons de vous offrir un code promo: PDEM-DXD. Il offre -20% de réduction aux 20 premières personnes du Paris Data Eng'. Les places sont en vente à cette adresse: https://www.billetweb.fr/dataxday-2019 Avec une journée entière de conférence, deux tracks en parallèles et des talks en anglais et français cette évènement compte bien réunir un contenu concret et technique capable de faire rêver un public de développer / Lead tech. Pour plus d’informations sur l’évènement http://dataxday.fr L'équipe ParisDataEng'

  • [Training] Just enough Scala for Spark // Ce qu'il faut de Scala pour Spark

    Cet atelier offre un aperçu des principales fonctionnalités de Scala qu'il est nécessaire de connaître pour utiliser Apache Spark efficacement. Vous apprendrez les syntaxes, expressions et APIs Scala les plus importantes pour programmer avec Spark. Chaque thème abordé est composé d'une partie théorique et pratique. ⚠ INSCRIPTION UNIQUEMENT SUR https://bit.ly/2XnSRfi ⚠ Une participation de 12 euros est demandée afin de couvrir une partie des frais de restauration et de communication. ⚠ Le nombre de participants est limité à deux personnes de la même entreprise. Les moyens logistiques et pédagogiques vous sont offerts par Datadog et Univalence. ===================== Objectifs ===================== • Comprendre les bases de la programmation en Scala, sans approfondir les parties les plus avancées du langage qui ne sont pas nécessaires pour Spark. • Comparer et différencier Scala d'autres langages tels que Java et Python. • Apprendre à écrire un programme complet en Scala. • Comprendre les bases de la compilation et du typage en Scala. • Ecrire de meilleurs jobs Spark avec moins de code grâce à Scala. ===================== Public ===================== • Data Engineer • Data Scientists/ Analysts • Développeurs • Etudiants ===================== Pré-requis ===================== • Connaissance d'un langage de programmation orienté objet ou fonctionnelle tel que Python, Java ou C# est requise. • Connaissance de base de Spark. ===================== Programme détaillé ===================== • Différence entre Scala et Java • Bref vue d'ensemble du langage Scala • Compiler un programme Scala • Le shell Scala (interpréteur) • Outils de développement Scala : compilateur scalac, sbt (Scala's Build Tool), IntelliJ avec le plugin Scala • Syntaxe de base en Scala • Les variables en Scala, valeurs mutables vs. immuables • Types de base en Scala (primitives, tuples) • Gestion de flux (structures conditionnelles, boucles) • Fonctions et lambdas • Scoping • Programmation orientée objet en Scala • Classes, traits et héritage • Méthodes • Les collections Scala et les opérations courantes sur elles • L'inférence de type • Imports • Différences entre programmation fonctionnelle et impérative • Case classes • Pattern matching • For-comprehensions • Erreurs habituelles (ex. serialization errors) et comment les éviter ===================== Matériel et téléchargement nécessaire à effectuer pour la formation ===================== • Ordinateur portable • Avant l'atelier, cloner ou télécharger le repo GitHub et suivre les instructions d'installation dans le fichier README.md. ===================== Partenaires ===================== Merci à Datadog, Univalence et Paris Scala User Group pour leur soutien.

    14
  • ParisDataEng' #12 ~ Stream Data Processing

    Salut à tous, Pour ce nouveau Meetup, nous sommes accueillis par Criteo et nous parlerons essentiellement de Data Processing, de Stream Data Processing plus précisément. Comme d'habitude, nous garderons du temps pour discuter entre nous de "datalake" et du quotidien d'ingénieur de la donnée ! A très vite ! ⚠ Pensez à vous munir de votre carte d’identité, elle peut vous être demandée à l’entrée. Détails ======================= ▶ Le 20 juin 2019 🕛 De 18h30 à 22h00 📍 32 Rue Blanche, 75009 Paris 💬 La session sera animée par Sara et Brahim Agenda ======================= 18h30 - Accueil des participants 19h00 - Deploying a Change Data Capture stack with Kafka, Kafka Connect and Debezium par Clément Demonchy [Français] REX How Jobteaser got rid of an old data dump job using change data capture (cdc) with Debezium and Kafka. 19h30 - Apache Kafka : Patterns / Anti-patterns par Damien Gasparina [Français] Lorsque qu'Apache Kafka est utilisé dans des applications critiques, un déploiement stable et fiable est nécessaire dès le début. Au cours de cet échange, nous évoquerons les erreurs les plus communes rencontrées sur le terrain et comment les éviter. Comment assurer la durabilité des messages ? Quels sont les paramètres de configuration à connaître ? Et, avant tout, comment monitorer Apache Kafka ? Nous tenterons de répondre à ces différentes questions. 20h15 - Learn What Criteo is doing with Apache Kafka and Presto par Hervé Rivière et Raphaël Claude [Français] Criteo runs one of the largest Apache Kafka deployments in the world, streaming ~500B events across it each day. Presto is the new kid on the block and shows huge promise in accelating warehouse-scale analytics and ETL. In this talk engineers from Criteo's SRE Data Processing group will discuss both of these systems and how Criteo is leveraging then in its day to day operations. 20h40 - Introduction à Apache Pulsar par Bruno Bonnin [Français] "Apache Pulsar, encore un système de messages pub/sub", me direz-vous ? C'est pas faux... Néanmoins, regardons de plus près... Pulsar est devenu un Top Level Project de la fondation Apache au mois de septembre 2018 et il se targue de vouloir unifier les modèles de messages traditionnels et le streaming, tout en fournissant un système extrêmement performant. Alors partons à la découverte de ce nouveau pulsar pour voir de quoi il retourne ! 21h00 - Data Cocktail et Networking Merci à notre hôte Criteo (https://www.criteo.com) de nous accueillir et nous offrir boissons et nourriture. Présentation des speakers =========================== Clément Demonchy Clément Demonchy is a data engineer since 2015, currently working at JobTeaser a french based company helping student to find their dream job, you can find some of his article on their tech blog. His main stack is python, AWS, Kubernetes with some experience on Kafka and Airflow. Damien Gasparina Ingénieur passionné d'open-source, Damien a passé la plupart de son temps a travaille dans le monde de la base de données pour des éditeurs de logiciel comme MongoDB. Fraîchement revenue en France après avoir passé plusieurs années en Angleterre, Damien a rejoint Confluent, la société fondée par les créateurs d'Apache Kafka. En tant que Solution Architect, il travaille en étroite collaboration avec des clients de toutes tailles et de toutes formes - allant de petites startups aux banques mondiales - sur divers sujets tels que la conception de systèmes, l'intégration de données ou la manipulation de données en temps réel. Bruno Bonnin Vieux développeur ayant un fort penchant pour les langages de vieux (Java), de jeunes vieux (JavaScript) et de jamais jeunes (Python), pour le NoSQL (MongoDB, Elasticsearch) et le Big Data (Hadoop). Hervé Rivière DevOps à Criteo, membre du département SRE (Site Reliability Engineering) son équipe assure la scalabilité, stabilité et performance de l'infrastructure streaming de Criteo. Hervé est aussi un des organisateurs du Paris Kafka Meetup.

    3
  • Scio, un DSL Scala pour Beam et REX Spark

    Salut à tous, Pour ce nouveau Meetup, nous sommes accueillis par Deezer. En première partie, Alick nous présentera Scio un DSL Scala pour Apache Beam développé par Spotify. En seconde partie, Hugo nous présentera l'outil interne "scheduler de tasks bigdata" de chez Deezer. Finalement, Himanshu et Nitya Nand nous partegeront leurs bonnes pratiques Spark. Comme d'habitude, on va garder du temps pour discuter entre nous de "DataLake" et du quotidien d'ingénieur de la donnée ! A très vite ! L'équipe Paris Data Eng' ⚠ Pensez à vous munir de votre carte d’identité, elle peut vous être demandée à l’entrée. =========================== Détails =========================== ▶ Le 28 mai 2019 🕛 De 19h00 à 21h30 📍 12 Rue d'Athènes, 75009 Paris 💬 La session sera animée par Sara et Jonathan =========================== Agenda =========================== 19 - Introduction ParisDataEng' 19h - Apache Beam et Google DataFlow IRL avec Scala Scio par Alick Paul [Français] Une présentation de Scio, un DSL Scala pour Apache Beam développé par Spotify. Nous verrons des cas d'utilisation réels de votre machine vers Google Cloud Platform. 19h40 - 10 choses que j’aurais aimé savoir avant d’utiliser Spark en production par Himanshu Arora et Nitya Nand YADAV [Français] Vous avez récemment commencé à travailler sur Spark et vos jobs prennent une éternité pour se terminer? Ce talk est pour vous! Nous avons rassemblé de nombreuses bonnes pratiques, optimisations et ajustements que nous avons appliqués au fil des années en production pour rendre nos jobs plus rapides et moins consommateurs de ressources. Nous découvrirons également l'utilisation appropriée de RDD, DataFrame et Dataset afin de bénéficier pleinement des optimisations internes apportées par Spark. 20h15 - REX: pourquoi et comment développer son propre scheduler par Hugo Sempere [Français] 20h30 - Data Cocktail et Networking Merci à notre hôte Deezer (https://www.deezer.com) de nous accueillir et nous offrir boissons et nourriture. =========================== Présentation des speakers =========================== Alick Paul Data Engineer, Développeur Full-Stack... passionné par les langages alternatifs et globalement par tout ce qui peut avoir un compilateur ou un interpréteur, Runner et Jardinier hors-sol à mes heures perdues, j'aime développer de nouvelles idées et tenter de nouvelles choses. Hugo Sempere Plongé dans le monde de la Big Data depuis deux ans, j'ai commencé chez Deezer par contribuer à notre scheduler de job BigData. Je suis depuis devenu un passionné de Big Data. Je travaille maintenant au cœur de la pipeline de royalties de Deezer et j'œuvre à notre outil d'analytics à destination des professionnels de la musique, Backstage. Himanshu Arora Himanshu Arora is a passionate Senior Data Engineer from Paris. He is currently working for NeoLynk. He has been using Scala, Reactive systems and Big data stack for a few years now in production to help enterprises accelerate digital transformation. He is a Lightbend certified expert on Scala, Play, Akka and FastData and Databricks certified Spark developer. He loves to be a reactive and functional programming advocate. He contributes time to time in open source community and participates in scala, data, FP and reactive system conferences around the globe. Nitya Nand YADAV Nitya Nand YADAV is a data engineer based in Paris and currently at NeoLynk. He has been working in the domain of Big Data since last few years and worked with different French companies as a software developer on Hadoop stack. He worked on several projects in different sectors as a data engineer and helped build software of production level from scratch. He is a Big Data enthusiast, he believes in learning, sharing and encouraging people to learn and adopt modern technologies.

    3
  • Ce qu'il faut de Scala pour Spark !

    Datadog

    Cet atelier offre un aperçu des principales fonctionnalités de Scala qu'il est nécessaire de connaître pour utiliser Apache Spark efficacement. Vous apprendrez les syntaxes, expressions et APIs Scala les plus importantes pour programmer avec Spark. Chaque thème abordé est composé d'une partie théorique et pratique. ⚠ INSCRIPTION UNIQUEMENT SUR https://bit.ly/2H1nvV2 ⚠ Une participation de 12 euros est demandée afin de couvrir une partie des frais de restauration et de communication. Les moyens logistiques et pédagogiques vous sont offerts par Datadog et Univalence. ===================== Objectifs ===================== • Comprendre les bases de la programmation en Scala, sans approfondir les parties les plus avancées du langage qui ne sont pas nécessaires pour Spark. • Comparer et différencier Scala d'autres langages tels que Java et Python. • Apprendre à écrire un programme complet en Scala. • Comprendre les bases de la compilation et du typage en Scala. • Ecrire de meilleurs jobs Spark avec moins de code grâce à Scala. ===================== Public ===================== • Data Engineer • Data Scientists/ Analysts • Développeurs • Etudiants ===================== Pré-requis ===================== • Connaissance d'un langage de programmation orienté objet ou fonctionnelle tel que Python, Java ou C# est requise. • Connaissance de base de Spark. ===================== Programme détaillé ===================== • Différence entre Scala et Java • Bref vue d'ensemble du langage Scala • Compiler un programme Scala • Le shell Scala (interpréteur) • Outils de développement Scala : compilateur scalac, sbt (Scala's Build Tool), IntelliJ avec le plugin Scala • Syntaxe de base en Scala • Les variables en Scala, valeurs mutables vs. immuables • Types de base en Scala (primitives, tuples) • Gestion de flux (structures conditionnelles, boucles) • Fonctions et lambdas • Scoping • Programmation orientée objet en Scala • Classes, traits et héritage • Méthodes • Les collections Scala et les opérations courantes sur elles • L'inférence de type • Imports • Différences entre programmation fonctionnelle et impérative • Case classes • Pattern matching • For-comprehensions • Erreurs habituelles (ex. serialization errors) et comment les éviter ===================== Matériel et téléchargement nécessaire à effectuer pour la formation ===================== • Ordinateur portable • Avant l'atelier, cloner ou télécharger le repo GitHub et suivre les instructions d'installation dans le fichier README.md. ===================== Partenaires ===================== Merci à Datadog, Univalence et Paris Scala User Group pour leur soutien.

    19
  • Apache Beam & Google Cloud DataFlow avec J-B. Onofré et G. Charhon @Converteo

    Salut à tous, Pour ce nouveau Meetup, nous sommes accueillis par Converteo Technology et nous parlons de traitement de données par flux et par lots. En première partie, Jean-Baptiste nous offrira un tour d'horizon complet d'Apache Beam (https://beam.apache.org/) qui ambitionne d'unifier les pipelines de traitements de données. En seconde partie, Guillaume nous fera un retour d'expérience Teemo sur Google Cloud Dataflow (https://cloud.google.com/dataflow/). Pour la petite histoire, Apache Beam a été fondée début 2016 lorsque Google et d’autres partenaires ont pris la décision de transférer les SDKs et runners Google Cloud Dataflow vers l’incubateur Apache Beam. Comme d'habitude, on va garder du temps pour discuter entre nous de "DataLake" et du quotidien d'ingénieur de la donnée ! A très vite ! L'équipe Paris Data Eng' ⚠ Pensez à vous munir de votre carte d’identité, elle peut vous être demandée à l’entrée. =========================== Détails =========================== ▶ Le 23 avril 2019 🕛 De 19h00 à 21h30 📍 117 Quai de Valmy , 75010 Paris 💬 La session sera animée par Sara et Jonathan =========================== Agenda =========================== 19h - Apache Beam de A à Z par Jean-Baptiste Onofré [Français] Présentation de Apache Beam, découverte du programming model, des IOs et des runners. Example de use cases. 20h - Retour d'expérience sur l'utilisation de Dataflow par Guillaume Charhon [Français] Use case : Retour d'expérience sur l'utilisation de Dataflow pour faire fonctionner nos algorithmes de détection de visites en magasin (batch) ainsi que dans l'ingestion d'évènements vers BigQuery (streaming). 20h30 - Data Cocktail et Networking Merci à notre hôte Converteo Technology (https://www.converteo.com) de nous accueillir et nous offrir boissons et nourriture. =========================== Présentation des speakers =========================== Jean-Baptiste Onofré Jean-Baptiste est un membre de la fondation Apache Software. Il est membre PMC d'environ 20 projets Apache, de la containérisation et l'intégration (Karaf, ServiceMix, Aries, Archiva, ActiveMQ, Camel, ...) au Big Data (Beam, CarbonData, ...). Guillaume Charhon Guillaume est CTO et Co-fondateur de Teemo, la plateforme drive to store qui révolutionne le marketing des magasins physiques. Teemo gère des centaines de terabytes de données et répond à des centaines de milliers de requêtes par secondes.

  • {BOF} Meet and Greet @Devoxx2019, Paris

    Palais des congrès de Paris

    Nous vous invitons à nous retrouver à Devoxx France 2019 (https://www.devoxx.fr/) lors de la soirée "Meet and Greet" qui aura lieu le jeudi 18 avril 2019 de 19h à 22h. Ce sera l'occasion d'organiser un mini-open space de 45 minute pour faire découvrir cette méthodologie d’animation au participant de Devoxx et échanger entre nous sur nos pratiques. Vous aurez également accès aux autres BOF de la soirée (https://cfp.devoxx.fr/2019/agenda/bof/thursday) et au buffet Meet and Greet 2019 (https://www.devoxx.fr/meet-and-greet). =========================== Agenda =========================== 21h - Paris Data Eng' par Sara Himmich [Français] 21h30 - Le Data Engineer qui veut se faire aussi gros que le Data Scientist par Bachir Ait Mbarek [Français] Bien plus que "simple" développeur ETL moderne, le Data Engineer a un rôle majeur dans la métamorphose du SI. Dérivé d'une série de talks autour du Data Engineering, celui-ci porte particulièrement l'accent sur la capacité du Data Engineer à se substituer à un Data Scientist dans le but d'aider l'entreprise à s'améliorer et à innover. ============================================= Vous n'avez pas de ticket pour la conférence ? ============================================= Pas de panique! Vous pouvez assister à notre BOF. Nous vous enverrons un lien d'inscription avec mot de passe le mercredi matin par email. ⚠ Attention ⚠ : L'inscription est obligatoire pour pouvoir accéder à l'événement. Merci de ne vous inscrire que si vous serez présent le jeudi soir et que vous n'avez pas de billet pour participer à Devoxx. L'équipe ParisDataEng'

    1
  • Change Data Capture et DataLake avec Hugo L. et Dimitri C. @OVH, Paris

    Salut à tous, Pour ce nouveau Meetup, nous sommes accueillis par OVH. La collecte de données au sein d'un DataLake sans impacter les systèmes opérationnels est un challenge pour de nombreuses entreprises. En première partie, Dimitri nous présentera Data Collector qui est un outil de Change Data Capture (CDC) développé en interne chez OVH. Data Collector est capable d'assurer une réplication fiable et performante des bases de données jusqu'au DataLake. En seconde partie, Hugo vous présentera un cas d'utilisation autour de l'exploitation de données aéronautiques avec une touche d'IoT et de DataViz. Comme d'habitude, on va garder du temps pour discuter entre nous de "DataLake" et du quotidien d'ingénieur de la donnée ! A très vite ! L'équipe Paris Data Eng' ⚠ Pensez à vous munir de votre carte d’identité, elle peut vous être demandée à l’entrée. =========================== Détails =========================== ▶ Le 26 mars2019 🕛 De 19h00 à 21h00 📍 19 Place Françoise Dorin, 75017 Paris 💬 La session sera animée par Sara et Brahim =========================== Agenda =========================== 19h - Introduction 19h15- Lightweight Change Data Capture for DB to DataLake Data Collection par Dimitri Capitaine [Français] 19h50 - REX : Exploitation de données aéronautiques avec Data Collector par Hugo Larcher [Français] 20h15 - Data Cocktail et Networking Merci à notre hôte OVH (https://www.ovh.com/fr/platform/big-data) de nous accueillir et à Univalence (https://www.univalence.io/) de nous offrir boissons et nourriture. =========================== Présentation des speakers =========================== Hugo LARCHER Software & Data Engineer Dimitri CAPITAINE Senior DevOps Big Data

    4
  • Data Engineers Meetup avec Quentin F. et Jonathan W. @Datadog, Paris

    Salut à tous, Pour ce nouveau Meetup, nous sommes accueilli par Datadog qui nous partagera leur expérience sur "Building highly reliable data pipelines". Et comme demandé par certains d'entre vous, Jonathan d'Univalence nous expliquera "Scala for Data Engineering". Comme d'habitude, on va garder du temps pour discuter entre nous de "datalake" et du quotidien d'ingénieur de la donnée ! A très vite ! L'équipe Paris Data Eng' ⚠ Dans un souci d’organisation et de sécurité sur le site, merci de vous inscrire via le lien suivant : https://bit.ly/2t9Olnb ⚠ Pensez à vous munir de votre carte d’identité, elle peut vous être demandée à l’entrée. =========================== Détails =========================== ▶ Le 26 février 2019 🕛 De 19h00 à 21h00 📍 1 Rue de Metz, 75010 Paris 💬 La session sera animée par Brahim =========================== Agenda =========================== 19h - Introduction 19h15 - Building highly reliable data pipelines @Datadog [Français] par Quentin FRANCOIS Certaines fonctionnalités au coeur du produit de Datadog reposent sur des pipelines de données construits avec Spark qui traitent des milliers de milliards de points chaque jour. Dans cette présentation, nous verrons les grands principes que nous appliquons chez Datadog pour assurer que nos pipelines restent fiables malgré la croissance exponentielle du volume de données, les pannes matérielles, les données corrompues et les erreurs humaines. 19h50 - Scala for Data Engineering [Français] par Jonathan Winandy 20h15 - Data Cocktail et Networking Merci à notre hôte Datadog (https://www.datadoghq.com) de nous accueillir et nous offrir boissons et nourriture. =========================== Présentation des speakers =========================== Quentin FRANCOIS Quentin est lead Data Engineering à Datadog. Lors des 4 dernières années, il a travaillé avec Luigi, Spark et Go sur de nombreux pipelines de données dont dépendent plusieurs fonctionnalités au coeur du produit de Datadog, notamment rendre possible les requêtes en temps réel sur des pétabytes de données de série temporelle. Jonathan WINANDY Je suis _*Data Engineer*_, entrepreneur et fondateur d'Univalence, un cabinet d'expertise data. J'ai travaillé dans différents contextes, en tant que chef de projet, développeur (Java/Scala/Clojure) ou encore architecte de plateformes distribuées (Kafka/Hadoop/Spark). Et je me suis aussi investi dans des événements communautaires, dont la création du meetup Paris Data Engineer et la co-création de la conférence ScalaIO. Passionné par la donnée et la **programmation qui fonctionne**, je me suis spécialisé dans l'outillage et l’analyse des mouvements de données dans les différentes formes de systèmes d'information !

    14