Lo que hacemos

Grupo para compartir experiencias, éxitos, mejores prácticas y hacer sinergia en la conjuncion de aplicaciones de Apache Spark, uso de Aprendizaje Automatizado (Machine Learning, ML), Inteligencia Artificial con Jupyter, Python, TensorFlow y Keras.

Es un lugar que deseamos convertir en una Catapulta para la Promocion y Uso de la Ciencia de Datos y las Matemáticas.

Bienvenidos todos los entusiastas promotores de estas técnicas del Mundo de la Ciencia de los Grandes Volumenes de Datos y la Inteligencia Artificial

Próximos eventos (5+)

Aplicaciones de Inteligencia Artificial en la Industria, Rachid Guerrero, saXsa

Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas

IIMAS UNAM Instituto de Investigaciones en Matemáticas Aplicados y en Sistemas de la UNAM Primer Coloquio Estudiantil de Ciencia de Datos Aplicaciones de Inteligencia Artificial en la Industria Ponente: Mtro Rachid Christian Guerrero, saXsa Fecha: 13 de noviembre 2019 Coordinación de Licenciatura en Ciencia de Datos Hora: 9am a 10 am Auditorio IIMAS Ciudad Universitaria

Predicción numérica, Inteligencia Artificial, TensorFlow, Keras, Python con GPU

Predicción numérica, Inteligencia Artificial, TensorFlow, Keras, Python con GPU No se quede fuera del mundo de la Inteligencia Artificial aplicado a economia con series de tiempo y redes recurrentes de tipo LSTM Miércoles 19 de noviembre 2019, de 5pm a 9pm INVERSIÓN: 2,000 + i.v.a. Para CFDI, favor enviar datos fiscales BBVA Bancomer CLABE:[masked] Atentamente Dr Gabriel GUERRERO [masked] info cel (55)[masked] Temario 1) Instalación máquina virtual con todos los sistemas en operación: Centos 7, Anaconda, Python, Jupyter, TensorFlow, Keras y bibliotecas de graficacion de Python 2) Inicio de ambiente desarrollo con cuadernos Jupyter Notebooks con Python, para clasificación de dígitos, manejo de Series de Tiempo y graficación básica 3) Breve introducción al mundo de Tensores para la descripción de problemas. ¿Cómo genero a partir de mis datos una representación del problema con tensores? ¿Por qué TensorFlow de Google, es una herramienta indispensable en la Ciencia de Datos? 4) Solución de problemas clásicos de regresión lineal y predicción numérica 5) Breve introducción al modelo de red neuronal recurrente de tipo LSTM 5) Solución de problemas de predicción con Series de Tiempo usando TensorFlow. Caso: Predicción consumo eléctrico con redes LSTM ¿Por qué las redes LSTM? Las redes neuronales LSTM, (Long Short-Term Memory), son un tipo particular de redes neuronales recurrentes que constituye una nueva metodología para la aplicación de la Inteligencia Artificial en fenómenos donde el tiempo es una variable estratégica. De manera sencilla, podemos pensar que las redes LSTM tienen “memoria” y que contienen celdas de estado contextuales internas que actúan como celdas de memoria a largo plazo (Long Term Memory) o a corto plazo (Short Term Memory), de donde toman su nombre como Redes Neuronales con Memoria a Largo y Corto Plazo. La salida de la red LSTM está definida por el estado de estas celdas. Esta es una propiedad muy importante cuando necesitamos que la predicción de la red neuronal dependa del contexto histórico de las entradas, y no solo de la última entrada, como en las redes neuronales convolutivas. Es conocido de los economistas, que el futuro no solo depende del inmediato anterior, sino del comportamiento de los fenómenos en el tiempo pasado. Por lo anterior el modelo de Red Neuronal con Memoria a Largo y Corto Plazo (LSTM Long Short-Term Memory), es uno de los modelos que mayor relevancia actualmente para los estudios de los economistas y tomadores de decisiones económicas. Hoy la Inteligencia Artificial, las Redes Neuronales y el Aprendizaje Profundo son los temas que están en todos los medios, como la nueva revolución en el mundo de las TICs En este taller, se ofrece un recorrido con ejemplos del uso del lenguaje de programación Python en un ambiente interactivo Jupyter, con un enfoque de Ciencia de Datos Es un taller práctico en donde con ejemplos completos en operación, se muestra el uso del lenguaje Python para la construcción de redes neuronales con Keras Esta es una metodología de enseñanza muy exitosa, en donde se enseña TOP/DOWN, es decir se ofrecen sistemas completos de operación y se muestra y explica cada uno de los elementos que permiten el funcionamiento. En saXsa se ofrecen ejemplos completos y en una maquina virtual con los ejemplos operando, para que el alumno, los tome como plantillas y pueda al termino de 4 horas poder hacer uso de estas plantillas en su problemática cotidiana. No se quede fuera del mundo de la Inteligencia Artificial Miércoles 19 de noviembre 2019, de 5pm a 9pm INVERSIÓN: 2,000 + i.v.a. Para CFDI, favor enviar datos fiscales BBVA Bancomer CLABE:[masked] Atentamente Dr Gabriel GUERRERO [masked] info cel (55)[masked]

Taller Nivel 1: Machine Learning, Data Science, Jupyter, TensorFlow con Python

Aprendizaje Automatizado, Ciencia de Datos, Jupyter, TensorFlow con lenguaje Python Ciencia de Datos, Machine Learning en Spark, Jupyter, TensorFlow con Python Jueves 21 de noviembre 2019 De 5pm a 9pm Objetivo Talleres teórico/prácticos, que proporcionan capacidades teóricas, técnicas y prácticas para la gestión, manejo y explotación del Big Data La Ciencia de Datos con Machine Learning para la generación de aplicaciones en 3 ambientes: usando Python en arquitectura Vertical (solo python), Horizontal (Con SparkML) y TensorFlow ¿Por qué TensorFlow? La biblioteca TensorFlow ofrece herramientas para computo con estructuras de tensores aprovechando al máximo el poder de computo de CPU y GPU. En este taller se ofrece una introducción las funcionalidades de TensorFlow con Python. Se proporciona una máquina virtual, con una instalación básica de las herramientas expuestas en éste, así como lecturas complementarias, que permitan a los participantes llevar a cabo prácticas y ejercicios en pseudo-clúster Big Data INVERSIÓN: 2,000 + i.v.a. Para CFDI, favor de enviar datos fiscales BBVA Bancomer CLABE:[masked] Atentamente Dr Gabriel GUERRERO [masked] info cel (55)[masked] TEMARIO Introduccion a conceptos del Aprendizaje Automatizado (ML Machine Learning) Repaso de bibliotecas Python Numpy y Pandas Uso de bibliotecas de ML en Python con Jupyter Uso de ambiente PySpark, uso de Jupyter con Spark y Python Módulo de Spark ML con Python con algoritmos como: Algoritmo de Regresión Lineal Algoritmo de Regresión Logística Algoritmo de KNN Algoritmo de K-means Uso de ambiente TensorFlow con Python para los mismos algoritmos Regresion Lineal, Logistica, KNN y K-means Showroom de Aplicaciones Productivas Ejecución de aplicaciones del Aprendizaje Automatizado en un ambiente Apache Spark, y manejo herramientas Python, Jupyter, Hadoop y la biblioteca SparkML Le prometieron un Lago de Datos (Data Lake) y le entregaron un Pantano de Datos (Data swamp), ... nosotros lo convertiremos en Catarata de Datos (Data Fall) Un pantano de datos es un lago de datos deteriorado que es inaccesible para los usuarios previstos o proporciona poco valor, ..., ¿se identifica con esto? Si le vendieron la solución para interactuar con el lago de datos, con herramientas novedosas como Apache Pig, Apache Hive y otras que ya para que mencionarlas, ... , lamento desilusionarlo porque va hacia el Pantano de Datos, y tal vez ya se encuentra inmerso y ahora quiere monetizar sus datos, pero no sabe ¿cómo? Pero no se preocupe en cualquiera de las situaciones que se encuentre casi en el Pantano de Datos o desesperado por no saber como generar valor con sus datos que NO SE MUEVEN, HAY SOLUCION, generando una Catarata de Datos (Data Fall) para que como en las cataratas del Niagara en Canada o Cataratas de Iguazú en Brasil, sus datos generen energía. El curso del agua (datos), en nuestro caso, el flujo o movimiento de los datos, es utilizado para la producción de energía (monetizar sus datos). Un enfoque necesario para monetizar sus datos, es la aplicacion de Modelos del Aprendizaje Automatizado En este taller utilizamos Python, Jupyter primero en un equipo y enseguida estos mismos algoritmos utilizando la arquitectura de cómputo distribuido y tolerante a fallas SparkML No se lo pierda Jueves 21 de noviembre 2019 De 5pm a 9pm INVERSIÓN: 2,000 + i.v.a. Para CFDI, favor de enviar datos fiscales BBVA Bancomer CLABE:[masked] Atentamente Dr Gabriel GUERRERO [masked] info cel (55)[masked]

Taller Nivel 0: Ciencia de Datos, BigData, Hadoop, Spark, Jupyter con Python

Taller Nivel 0: Ciencia de Datos, BigData, Hadoop, Spark, Jupyter con Python Viernes 22 de noviembre 2019 De 5m 9pm Este es un taller de fundamentos al desarrollo y creación de aplicaciones de BigData con herramientas y mejores practicas como uso de ambientes de almacenamiento distribuido Hadoop HDFS, del procesamiento tolerante a fallas Spark en un ambiente interactivo Jupyter con el lenguaje Python Estos instrumentos son los pilares de cualquier otra rama como Aprendizaje Automatizado (Machine Learning), Redes Neuronales Convolutivas (CNN), Redes Neuronales Recurrentes (RNN, como LSTM), Aprendizaje Profundo (Deep Learning), Inteligencia Artificial (Artificial Intelligence) con herramientas como TensorFlow y Keras. Se proporciona una máquina virtual, con una instalación de las herramientas y lecturas complementarias, que permiten a los participantes llevar a cabo prácticas en pseudo-clúster Big Data INVERSIÓN: 2,000 + i.v.a. Para CFDI, fvor de enviar datos fiscales BBVA Bancomer CLABE:[masked] Atentamente Dr Gabriel GUERRERO [masked] info cel (55)[masked] TEMARIO Introducción a Ciencia de Datos y Big Data Introducción a Hadoop HDFS Introduccion a Python Introducción a Apache Spark con Python Uso de cuadernos Jupyter Notebook con Python Uso básico de Spark SQL Uso de Datos Abiertos de INEGI y CDMX entre otras Descripción Práctica 1. El taller inicia instalando en cada equipo la máquina virtual con todos los sistemas (Hadoop HDFS, Spark, LivyServer, Anaconda, Python, Jupyter), asi como los ejercicios resueltos del taller, con el objetivo de NO TECLEAR nada, todo se ofrece al participante para que concentre su atención en los conceptos y metodologías. Práctica 2. Enseguida se inician los servicios HDFS para realizar practicas: "Subir" archivos ajustando parámetros como talla de bloque y factor de replicación. Práctica 3. Después se realizan practicas de "Bajar" archivos del sistema HDFS a la maquina linux" Práctica 4. Se inician servicios Spark y se realizan prácticas de "Subir" archivos a Spark desde HDFS y desde la maquina Linux, para generar un RDD con los datos en RAM Práctica 5. Una vez que se tiene el RDD en RAM en Spark se realiza un Análisis Exploratorio de Datos (EDA, Exploratory Data Analysis) utilizando Python y el concepto de DataFrame en un ambiente Jupyter. Se introduce la estructura de almacenamiento permanente PARQUET Práctica 6. Se definen con enunciados SQL del mundo relacional estándar las transformaciones y acciones que se desean realizar, pero con una arquitectura distribuida utilizando SparkSQL Práctica 7. Una vez terminada la ejecucion del enunciado SQL en RAM, se almacena en una estructura permanente en Hadoop HDFS y/o en el sistema de archivos Linux. El formato del almacenamiento en LINUX puede ser CSV, PARQUET En todos los ejercicios se utilizan fuentes de información de datos abiertos como INEGI y de la CDMX entre otras Se proporciona una máquina virtual por módulo, con una instalación de las herramientas y lecturas complementarias, que permiten a los participantes llevar a cabo prácticas en pseudo-clúster Big Data Viernes 22 de noviembre 2019 De 5m 9pm INVERSIÓN: 2,000 + i.v.a. Para CFDI, fvor de enviar datos fiscales BBVA Bancomer CLABE:[masked] Atentamente Dr Gabriel GUERRERO [masked] info cel (55)[masked]

También puedes encontrarnos en