Hadoop Meetup chez Logmatic/Ikoula (HUG)


Details
Bonjour à tous,
Nous avons le plaisir de vous inviter au Hadoop User Group le mardi 16 février 2016 chez Logmatic (130 Rue de Lourmel, 75015, Paris).
*** Attention, il est indispensable de renseigner votre Nom Prenom et email pour valider votre inscription! De plus, merci de ne pas utiliser de caractères accentuées pour votre nom et prénom, merci. ***
Les inscriptions pour ce meetup seront ouvertes à partir de mercredi 10 février 2016.
Les présentations débuteront à 19h suivies d'une 3e mi-temps qui nous permettra de continuer les discussions dans la bonne humeur.
Un agenda intéressant vous attend pour ce meetup:
• 18h30-19h : Accueil des participants, planning de la soirée
• 19h00-19h15 : Welcome message
• 19h15-19h45 : Migration de données structurées entre Hadoop et RDBMS par Louis Rabiet (Squid Solution)
Avec l'extraction de données stockées dans une base de données relationnelle à l'aide d'un outil de BI avancé, et avec l'envoi via Kafka des données vers Tachyon, plusieurs sessions Spark peuvent travailler sur le même dataset en limitant la duplication. On obtient grâce à cela une communication à coût contrôlé entre la base de données d'origine et Spark ce qui permet de réintroduire de manière dynamique les données modifiées avec MLlib tout en travaillant sur des données à jour. Les résultats préliminaires seront partagés durant cette présentation.
• 19h45-20h15 : Système de recommandations de produits sur un site marchand par Koby KARP, Data Scientist (Equancy) & Hervé MIGNOT, Partner at Equancy
La recommandation reste un outil clé pour la personnalisation des sites marchands et le sujet est loin d’être épuisé. La prise en compte de la particularité d’un marché peut nécessité d’adapter le traitement et les algorithmes utilisés. Après une revue des techniques de recommandations, nous présenterons la démarche spécifique que nous avons adopté. Le système a été développé sous Spark pour la préparation des données et le calcul des modèles de recommandations. Une API simple et son service ont été développé pour délivrer les recommandations aux applications clientes.
• 20h15-20h45 : Construire le cluster le plus rapide pour l'analyse des datas : benchmarks sur un régresseur par Christopher Bourez (Axa Global Direct)
Les toutes dernières technologies de calcul parallèle permettent de calculer des modèles de prédiction sur des big datas en des temps records. Avec le cloud est facilité l'accès à des configurations hardware modernes avec la possibilité d'une scalabilité éphémère durant les calculs. Des benchmarks sont réalisés sur plusieurs configuration hardware, allant de 1 instance à un cluster de 100 instances.
Christopher Bourez, développeur & manager expert en systèmes d'information modernes chez Axa Global Direct. Alien thinker. Blog : http://christopher5106.github.io/
• 20h45-21h30 : Apéro networking
Merci de vous enregistrer afin que l’on puisse s’assurer du bon déroulement logistique.
Un grand merci à Ikoula (https://express.ikoula.com/fr?gclid=CPeGyuiTxsoCFRBsGwods5sJxA) et logmatic.io (http://logmatic.io/) pour nous prêter leur salle et s'occuper de l'apéritif dinatoire.
L'équipe HUG France
@hugfrance (https://twitter.com/hugfrance)

Hadoop Meetup chez Logmatic/Ikoula (HUG)