Aprendiendo XGBOOST


Detalles
En esta ocasión contamos con la crack Julia Lastra, donde nos hablará de Gradient Boosting. La sesión estará dividida en 2 partes:
Intro a xgboost: qué es Gradient Boosting, para qué se utiliza y por qué lo ha petado en Kaggle.
Manos a la obra: caso práctico de clasificación binaria con xgboost
Breve exploración de datos: qué tenemos y qué queremos.
Implementación de un modelo de clasificación con xgboost: el maravilloso submundo de los hiperparámetros.
Interpretación de resultados: insights sobre las variables.
Nuestra ponente de abril es una entusiasta de los datos a la que le encanta resolver problemas. Tras licenciarse en Matemáticas empezó a trabajar en el ámbito del análisis de datos y hoy en día compatibiliza su puesto de Senior Data Scientist en Lingokids con el de Profesora Asociada en el Departamento de Estadística de la Universidad de Oviedo. Entre sus intereses en el "mundo data", destacan la visualización de datos, la comunicación y la automatización de procesos.
El taller se podrá seguir en entornos virtuales con Jupyter y RStudio, pero si los participantes quieren usar su entorno local, estos son los requerimientos para el taller:
Versión de R >= 3.6
install.packages("caret")
install.packages("Ckmeans.1d.dp")
install.packages("DiagrammeR")
install.packages("e1071")
install.packages("precrec")
install.packages("xgboost")
devtools::install_github("thomasp85/ggforce")
devtools::install_github("liuyanguu/SHAPforxgboost")
install.packages("tidyverse")
Todo está disponible en este repo (enlace a los entornos virtuales, requisitos, script en R, notebook y los datos): https://github.com/lastree/talks

Patrocinadores
Aprendiendo XGBOOST