#39 BERT et l'avancement du traitement des langues

Location image of event venue

Details

Résumé :
Au cours de l'année passée, les modèles génériques (modèles pré-appris et ré-utilisables pour plusieurs taches) de traitement automatique des langues ont connu un saut inhabituel de performances. De la même manière que word2vec pour les mots, un changement de paradigme se profile pour le traitement des phrases/paragraphes.
Dans cette présentation, nous allons aborder les défis actuels du traitement des langues puis montrer ce que les modèles récents basés sur les Transformers et les modèles de langue (BERT, GPT, XLnet) apportent de nouveau (et d'ancien).

Damien Sileo est doctorant en 3eme année à Synapse Développement et à l'Université de Toulouse. Il est spécialisé dans la compréhension automatique du langage naturel et s'intéresse particulièrement à la notion de sens dans les représentations neuronales, ainsi qu'à la composition d'embeddings et aux modèles d'encodage (RNN/CNN/Transformers).

=======================================================

Agenda:
• 19h00 - Accueil des participants
• 19h15 - Talk d'introduction
• 19h30 - Présentation
• 21h00 - Moment apéro et échange entre les membres
• 21h45 - Fin du Meetup

Un GRAND MERCI à notre SPONSOR :
- Dexstr : https://www.dexstr.io/fr/
- Airbus : https://www.airbus.com/
- Liebherr Aerospace : https://www.liebherr.com/

Un merci tout spécial à Nathalie et Benoit d’Harry Cow pour leur accueil.

------------------------------------------------------------------
Les meetups peuvent être filmés et le public photographié au long de l'événement. En participant à ces rencontres vous autorisez la publication des photos sur notre site Toulouse Data Science Meetup. Cette autorisation n'inclut pas une utilisation publicitaire d'image.
------------------------------------------------------------------