• 2019#4: Autoroutes de demain & Architecture IA

    Openclassrooms

    Bonjour à tous, C'est avec un grand plaisir que nous annonçons cette nouvelle session ! Cette fois, nous serons les invité(e)s de OpenClassrooms dans ses supers locaux situés au 7 Cité Paradis , 75010 Paris. Programme (résumés ci-dessous): 18h45 - 19h : Accueil 19h - 19h40 : Premier talk "Rendons les caméras intelligentes pour le péage de demain" par Marion Tormento (AI Solution Architect) et Alexandre Moreau (Software Engineer) @Deepomatic 19h40 - 20h20 : Deuxième talk "IA ARCHITECTURE (Build, Deploy and Monitor)" par Hugo Hamad (Head of Data Engineering chez Groupe Crédit Agricole) 20h20 - 20h35 : OpenClassrooms (https://mentor.openclassrooms.com/ ) présentera son système de mentorat en fin de session, avec les liens vers les offres actuelles et les contacts. 20h35 - 21h15 : Échanges informels et collation. Notez que l'accueil se fera au premier étage. ------- Abstract 1 L'entreprise Abertis est le leader mondial de la gestion de routes et d'infrastructures avec péages. Pour lutter contre la congestion grandissante, elle cherche aujourd'hui à concevoir des péages « free flow », capables d'encaisser des véhicules lancés à 130km/h. Plusieurs technologies sont explorées à cette fin et notamment la reconnaissance d'images à partir de caméras thermiques. Chez Deepomatic, nous aidons les industriels à automatiser leur processus visuel et à déployer leurs applications de reconnaissance vidéos sur le terrain. Les applications conçues par nos clients sont parmi les cas d'usage les plus avancées dans le monde. Venez découvrir comment nous avons aidé l'entreprise Abertis à intégrer sur leurs péages un système de reconnaissance vidéo alliant deep learning et tracking, tout en surmontant les contraintes d'intégration, de ressources limitées, et de qualité d'image incertaine. ------- Abstract 2 Le passage en production d'une solution IA nécessite une architecture spécifique et modulaire ainsi que des composants indispensables pour une intégration complète. Dans ce talk, venez découvrir une architecture IA de référence pour concevoir , déployer et monitorer des solutions IA en production : comment produire des modèles dans un environnement de RUN ? comment stocker les modèles et les versionner ? comment les déployer et les exposer en API ? comment les monitorer ?

    2
  • ML in air transport industry, Data science versioning

    Novapost / PeopleDoc France

    Bonjour à tous, Nous sommes ravis de vous retrouver pour cette nouvelle session qui sera hébergée par PeopleDoc. Programme (résumés ci-dessous): 18h45 - 19h : Accueil 19h - 19h40 : Premier talk "Outil de versioning pour l'analyse de données" par Sarah Diot-Girard (data scientist) et Stéphanie Bracaloni (DataOps) @PeopleDoc 19h40 - 20h20 : Deuxième talk "Maintenance predictive dans le transport aérien" par Solène Richard (data scientist) et David Vazquez (responsable programme Big Data) @Airfrance-KLM 20h20 - 21h : Échanges informels et collation ------- Abstract 1 Vous êtes data scientist. Vos analyses de données sont stockées dans des notebooks Jupyter, mais si vous ouvrez un fichier de plus de deux mois, plus rien ne fonctionne. Et aussi, vous avez oublié la valeur du dropout de l’avant-dernière couche de ce réseau de neurones qui fonctionnait si bien et que vous voudriez mettre en prod. Cela vous semble-t-il familier ? Vous êtes ingénieur·e logiciel, et vous travaillez avec des data scientists. Pour vous, Git, les revues de code, les tests, la CI, c’est la base. Vous n’avez jamais envisagé de considérer les notebook Jupyter comme un outil de travail au long cours. Que votre travail soit versionné et comporte des back-up est une évidence. Et enfin, vous voulez livrer en production quelque chose de fiable et de maintenable. Comment faire ? Nous avons ce genre de problématiques à PeopleDoc. Nous n’avons pas de baguette magique, mais en s’appuyant sur des projets open-source, nous avons développé un ensemble d’outils et de processus qui fonctionne pour nos besoins. Nous sommes ravies de présenter notre projet et d’ouvrir un échange avec la communauté. Nous sommes sur Github : https://github.com/peopledoc/ml-versioning-tools ------- Abstract 2 Les avions produisent de grandes quantités de données grâce à des capteurs qui enregistrent en continu leurs comportements tout au long des vols. L’exploitation de ces données nous permet de construire un outil d’aide à la décision qui va apprendre des pannes passées pour détecter des prémices de futures pannes et proposer de remplacer des pièces avant qu’elles ne tombent en panne. L’apprentissage automatique nous permet donc de proposer une alternative à la maintenance préventive et curative : la maintenance prédictive. Grâce à des techniques d’optimisation et aux prédictions de notre outil Prognos for Aircraft, nous pouvons donc envisager de déposer les pièces au moment le plus opportun : avant qu’elles ne tombent en panne, mais en utilisant au maximum leur potentiel. Venez découvrir comment nous contribuons à la limitation des retards et annulations de vols, à l’amélioration des opérations, et à la sécurité des vols grâce à un outil de machine learning.

  • DATA, IT Support & Climate Modeling

    Verteego

    Bonjour, Nous sommes heureux de vous retrouver pour cette nouvelle session ! Rendez-vous le 04 juin dans les locaux de Verteego. Programme (résumés des talks ci-dessous): 18h45 - 19h : Accueil 19h - 19h40 : Premier talk "Intelligent IT Support" Platform par Guillaume Saupin (CTO @Verteego ) 19h40 - 20h20 : Deuxième talk "Big Data for Climate Modeling" par Atef Ben Nasser (Ingénieur de recherche @Institut Pierre Simon Laplace/CNRS) 20h20 - 21h : Échanges informels et collation ------- Abstract 1 Verteego a développé en partenariat avec l'un de ces clients une plateforme de support IT embarquant diverses fonctionnalités d'IA : systèmes prédictifs, classification, traitement du langage, analytics, .... Elle a été conçue non seulement pour simplifier à des milliers d'utilisateurs l'accès au suivi de leurs incidents, mais aussi et surtout pour leur fournir des informations à forte valeur ajoutée telle que le délai de résolution estimé. Elle augmente aussi la productivité des équipes de support en réduisant les taches fastidieuses telles que l'assignation. Basée sur la plateforme GCP, elle est scalable dynamiquement, et offre un taux de disponibilité élevé ------- Abstract 2 L'IPSL a été créé en 1995 regroupe 9 laboratoires ( CEREA , GEOPS , LATMOS , une équipe du LERMA , LISA , LMD , LOCEAN , LSCE et METIS ) dont les thématiques de recherche concernent l’environnement global. Le pôle modélisation de l'IPSL contribue depuis quelques années à l'effort de production de modèles climatiques, fiables, nécessaires pour la projection dans le futur mais aussi à la compréhension des phénomènes passés. Cet effort génére des petas de données FAIR, qui doivent être stockés, répliqués mais aussi distribués en libre accès à travers un réseau global ESGF: Earth System Grid Federation, une infrastructure de noeuds de données présents sur 4 continents. Liens utiles: https://esgf.llnl.gov/ https://esgf-node.ipsl.upmc.fr/projects/esgf-ipsl/ https://fr.wikipedia.org/wiki/Fair_data

    4
  • Videos & Graph Analysis

    Dailymotion

    Bonjour à tous ! Nous sommes ravis de vous retrouver pour notre prochain meetup "Videos and Graph analysis". Pour cette session nous accueillerons: - Axel de Romblay, Data Scientist à Dailymotion qui nous parlera de la mise en place des pipelines automatique d’annotation de vidéos à partir des metadata (ou comment extraire des topics à partir de vidéos). - Sébastien Loustau, Chercheur et CEO de LumenAI qui présentera un cas de détection de communautés sur Twitter : l'actualité des Gilets Jaunes. On vous attends nombreux chez Dailymotion qui a la gentillesse de nous recevoir dans ses locaux. Résumés: ///////////// 1er talk: ---------- À Dailymotion, notre plateforme héberge des millions de vidéos dans plusieurs dizaines de langages différents. Afin de caractériser au mieux le contenu de nos vidéos, nous travaillons au sein de l’équipe Data sur des algorithmes capables d’extraire automatiquement des “topics” (ou sujets) à partir de vidéos et de leurs metadata (texte, son et images). Le talk se déroulera comme suit : 1) Présentation des enjeux et des critères de performances 2) Explication détaillée du pipeline 3) Conclusion et ouverture PS: un avant-goût est disponible dans cet article medium : https://medium.com/dailymotion/automatic-topic-annotation-pipeline-for-videos-using-the-metadata-377079d27936 2éme talk: ------------- LumenAI conçoit des algorithmes de Machine Learning dans les secteurs du marketing, de l’industrie et des réseaux sociaux. Le différenciateur majeur des algorithmes de LumenAI réside dans leur capacité à se mettre à jour directement à la source des données. Dans cette exposé, je vous présenterai un exemple d'algorithme non-supervisé destiné à extraire des communautés à partir de l'observation dynamique d'un large graphe. Après un aperçu théorique des fondements de notre algorithme (spectral theory, greedy optimization, Monte Carlo Markov Chain), nous parlerons des extensions au cadre des communautés avec overlap, et de l'ajout de méta-données textuelles (NLP). Enfin, nous détaillerons son application au mouvement des Gilets Jaunes sur Twitter en montrant notamment comment évoluent en temps réel les leaders de communautés À très vite !

    4
  • Machine Learning & Anomaly Detection

    Bonjour à tous ! Nous sommes ravis de vous retrouver pour notre prochain meetup Machine Learning & Anomaly Detection. Pour cette session nous accueillerons: - Simon Grah, data scientist du laboratoire Theresis de Thales qui nous parlera de détection d'anomalie de trafic maritime dont le résumé est ci-dessous. - Guillaume Hochard, Senior Data Scientist chez Quantmetry qui présentera un cas de detection d’anomalies non supervisée sur series temporelles hétérogènes. On vous attends nombreux chez AID qui a la gentillesse de nous recevoir dans ses locaux. Résumés: ///////////// 1er talk: ---------- La plupart des bateaux émettent fréquemment des messages AIS (Automatic Identification System) contenant un certain nombre de variables comme la vitesse, les coordonnées, des informations temporelles, etc… Ce système a été créé à l’origine pour éviter les collisions en mer. L’objectif de cette présentation est double. Dans un premier temps, réaliser l’entraînement d’un modèle de machine learning pour apprendre le comportement moyen d’une classe de navire (ex : navire Tanker). Ainsi pour un nouveau message AIS se déclarant de la classe Tanker, l’algorithme entraîné lui associera une probabilité d’être classé en tant que navire Tanker plutôt qu’une autre classe. Cette probabilité reflète de manière sous-jacente la cohérence des caractéristiques du message avec tous ceux déjà vu par le modèle pour la classe Tanker. La phase de pré-traitement des données, ainsi que l’apprentissage du modèle s’appuiera sur la solution PunchPlatform Machine Learning (PML). Enfin, une présentation de l’état de l’art des méthodes d’interprétabilité en machine learning sera illustrée par l’explication de quelques sorties de l’algorithme précédemment entraîné. 2éme talk: ------------- Modèle non-supervisé de détection d’anomalies - Exploitation des séries temporelles issues d'un grand nombre de capteurs (>5000). capteurs positionnés sur les équipements d’un système industriel. - Conception d’un algorithme distribué de traitement des données pour les rendre exploitables - Conception d’un algorithme de clustering des capteurs afin d’identifier les équipements qui sont liés de part leur fonctionnement - Conception d’un modèle de détection d’anomalies non supervisé pour identification des pannes et des équipements liés à l’apparition d’une panne. À très vite !

    2
  • Data & Chatbots

    Bureaux de Xebia

    Bonjour à tous ! Nous sommes ravis de vous retrouver pour notre prochain meetup Data & Chatbots! Au programme : Fabien Poulard CEO @Dictanova va nous parler de l'analyse sémantique d'avis clients Mik Bry CTO @OPLA va présenter un moteur open source de création de Chatbots Nous aurons peut être un intervenant mystère à confirmer! On vous attends nombreux chez Xebia qui a la gentillesse de nous recevoir et de fournir le cocktail ! À très vite, Yohann & Wajdi

    13
  • Data & UX

    #LaPiscine

    Bonjour à tous, Nous allons voir comment la data peut-être mise au service de l'expérience utilisateur ! Pour ce meetup, qui sera technique, nous sommes ravis d'accueillir trois Speakers de très prestigieuses startups : - Florent Bertrand - Senior Data Engineer - ContentSquare Comment modéliser la donnée pour de l'analyse comportementale à large échelle ? - Yohan Bentolila, Co-founder & CTO - Insideboard Data et UX : Moteurs d'engagement des utilisateurs - Jérôme Foret, Founder & Head of R&D - Deep Algo Code Mining + NLG = Code for Human Nous espérons vous voir nombreux pour cet événement exceptionnel :). A très bientôt, Yohann

    9
  • Data & Entertainment

    Palais Brongniart

    Attention : Inscription OBLIGATOIRE pour accéder au meetup --> Entrée gratuite avec le code : BIGDATAML100 sur le billet "Pass Forum & Conférence" (https://www.weezevent.com/widget_billeterie.php?id_evenement=263101&lg_billetterie=1&code=37138&width_auto=1&color_primary=00AEEF). Bonjour à tous, Nous sommes de retour pour un événement Spécial au Palais Brongniard ! A l'occasion du salon Datajob 2017, quatre startups interviendrons sur le thème Data & Entertainment. Au programme : - Footbar : Reconnaissance des gestes du football à partir d'un capteur accélérométrique - Lineberty / ClaraVista : 3 illustrations de l'usage des data dans l'entertainment : recommandations personnaliseées pour un média online (Konbini), programmation dans le cinéma et digitalisation de l'attente (Lineberty) - Comeet.in : Comment utiliser l'intelligence artificielle pour le matchmaking ? Comme d'habitudes les interventions seront techniques :) A mercredi, Yohann NOTRE MEETUP EST PARTENAIRE DE DATAJOB 2017 (http://www.datajob.fr) : le rendez-vous majeur des professionnels de la data ! La 5ème édition de DataJob se déroulera le 22 novembre prochain au Palais Brongniart. Venez à la rencontre de 50 entreprises dont Criteo, McKinsey, PwC, OVH, Bouygues Telecom, EDF, Faurecia, Quiten ou encore Dataiku et Ercom, à la recherche de candidats comme vous : data scientist, data engineer, dev ops, architects, CDO etc. Vous retrouverez également : - Un village regroupant les 16 startups les plus attractives de la place parisienne : objets connectés, robotique, I.A, chatbot, réalité augmentée etc. - Deux keynotes Hands-On réalisées par les acteurs les plus influents de la tech mondial ! - Et enfin, participez à notre nocturne avec nos 4 meetups partenaires et développez vos connaissances techniques sur des sujets de machine learning ou de deep learning. BENEFICIEZ D'UNE ENTREE GRATUITE AVEC LE CODE : BIGDATAML100 sur le billet "Pass Forum & Conférence" (https://www.weezevent.com/widget_billeterie.php?id_evenement=263101&lg_billetterie=1&code=37138&width_auto=1&color_primary=00AEEF).

    15
  • Data & Mobiles

    Deezer

    Bonjour à toutes et à tous, C'est notre grande rentrée et pour notre premier événement, nous sommes ravis de vous inviter dans les locaux de Deezer pour discuter de l'utilisations des datas de nos téléphones intelligents :) Pour nous éclairer, trois explorateurs de la donnée : • Florian de l'équipe Data Scientist chez Deezer : "Automatic building of structured musical representation spaces with Word2Vec" • Tristan Data Scientist chez Sicara : "Agile Machine Learning - 6 semaines pour faire un moteur de recherche par image" • Guillaume CTO de Teemo : "Agile Big Data" On espère que vous serez nombreux parmis nous ! A très vite, Yohann

    17
  • Webinar Vertica: comment tirer parti de l’évolution des solutions Big Data ?

    Analyse de données : quelles sont les nouvelles armes des entreprises « data centric » ? Facebook, Uber, Criteo, … : tous ces acteurs gèrent et analysent des données à très grande échelle. Une de leurs armes est d’intégrer Vertica à leurs architectures Big Data. Découvrez dans ce nouveau webinar comment Vertica (moteur SQL complet) évolue aujourd’hui dans ces architectures Big Data en venant compléter efficacement les clusters Hadoop, et avec maintenant des connecteurs hautes performances pour les solutions Spark ou Kafka. Pour participer, inscrivez-vous gratuitement en cliquant ici: S'enregistrer (https://webikeo.fr/webinar/comment-tirer-un-meilleur-parti-de-l-evolution-des-solutions-big-data-hadoop-spark-kafka/share)

    10