• Intro Data Wrangling with Python & Jupyter Notebooks - towards Machine Learning

    Aan de basis van iedere Data Science activiteit ligt data. Of je nu dashboards en rapporten gaat maken, een business probleem gaat uitzoeken of een machine leaning model probeert te construeren. In deze sessie van het Conclusion Gilde voor Machine Learning gaan we aan de slag met Data Wrangling (“data kneden”). Dit is de stap waarin de ruwe data wordt bewerkt tot een vorm die bruikbaar is voor business intelligence en machine learning. We gaan dat doen met Python en Jupyter Notebooks. Deze sessie is open en daarom is iedereen welkom om aan te schuiven. Ben je voetballiefhebber en wil je de wedstrijd Ajax-Juventus niet missen? Om 20:00 uur heb je de kern van het programma te pakken en heb je nog voldoende tijd om ergens de wedstrijd te gaan kijken. Voor alle anderen blijven wij aanwezig voor begeleiding en inspiratie - en kijken we daarna samen de wedstijd. Data Wrangling in een notendop Data Wrangling omvat een combinatie van activiteiten zoals valideren en schonen van data, combineren van data sets, analyseren van attributen, corrigeren van waarden, dedupliceren, verrijken van data vanuit externe bronnen en algoritmes, uniformeren van formaten en eenheden, afleiden van attributen die geschikt zijn voor verdere stappen in de data science workflow, anonimiseren van identificeerbare attributen en meer. De uitkomst van Data Wrangling is een ‘mise en place’ – een data set waar de data scientist mee los kan. Data Wrangling kan worden gedaan met allerlei technologieën – van SQL, klassieke ETL tools tot Excel en Perl. Een favoriet tool van veel data scientists voor data wrangling is Jupyter Notebook, vaak in combinatie met Python als data bewerkingstaal. Deze combinatie wordt overigens ook gebruikt voor visualisatie van data en voor het ontwikkelen van Machine Learning modellen.(een korte introductie van Jupyter Notebooks staat hier op YouTube). In deze sessie maken we kennis met Python - de waarschijnlijk meest gebruikte taal voor data science - en Jupyter Notebooks. Na een korte demo gaan we aan de slag met eerst een simpel notebook en vervolgens een uitgebreidere casus waarin veel aspecten van data wrangling aan bod komen (en we ook wat data visualisatie en machine learning doen – ook met Jupyter Notebook). Agenda van de sessie: 1. Introductie van de Data Flow - Met speciale aandacht voor data wrangling 2. Introductie van Python, Jupyter Notebook en Pandas 3. Aan de slag met Jupyter Notebook Diner 5. Introductie van de casus en de beschikbare data gevolgd door bespreking van de aanpak – de data flow toegepast op deze casus 6. Hands-on workshop: a. Verzamel de raw data (JSON) in een data lake (het file systeem) b. Wrangle de data (fase I) – reshape, discard, deduplicate, derive c. Wrangle de data (fase II) – join/merge, verrijk (uit externe bronnen en met NLP data extractie), aggregeer d. Business Intelligence (visualisatie) Team: Michael van Gastel, Jeffrey Resodikromo, Maarten Smeets, Marcel Mourits, Bèrke Verheij, Camiel Mommers, Lucas Jellema Niveau: Geen speciale voorkennis vereist. Wel is enige ervaring met programmeren of scripten (SQL of Excel) nuttig Benodigdheden: Een laptop die een Virtual Machine (VirtualBox) of Docker Containers kan runnen

    3
  • Ansible: Operations for Developers - demo and handson workshop

    With Ansible you will be able to provision an entire environment with a single command as well as automate some simple SSH commands. Automatic deployments are en vogue these days. It seems to become ever more relevant to know how to approach automation and CI/CD, and for good reason. A major advantage is that automatic deployments are consistent. You take the “human error” out of the equation: no longer will you forget to run that one script or to tweak this setting in that obscure file. This session will introduce Ansible and is targeted towards operators and developers who wish to learn about provisioning, deployment and orchestration. In the world of servers and virtual machines Ansible is a very popular and powerful tool. Ansible allows you to provision Virtual Machines, as well as manage the entire configuration, deploy applications and orchestrate environments. Very complex deployments can be reduced to a single command or a single mouseclick. Basically, Ansible allows you to automate anything you could do with SSH commands. The cherry on top is that your Ansible code will also serve as documentation of your infrastructure (infrastructure as code). Currently containers are becoming increasingly important. Kubernetes and Docker are often seen and one might ask, why would Ansible still be relevant? Ansible will remain relevant because Kubernetes clusters and Docker containers need a VM to run on. Ansible allows you to install Kubernetes and Docker and basically provide the platform on which to run your containers. In this session we will use a VM with Ansible installed to install and configure an Apache webserver on another VM and we will deploy some software to it. You will learn the workings of the Ansible syntax and how to structure an Ansible "Playbook" (the set of commands to be run during a deployment), and how easy it is to add extra VMs once you have a Playbook. We will use Vagrant and Virtualbox. Agenda: • Introduction to Ansible, why use it, what does it do and what doesn't it do? • First handson with Ansible • Dinner • In-depth Ansible: how to deal with sensitive information, improving the architecture and adding extra VMs • Second handson with Ansible No specific knowledge is required but the "programming mindset" is certainly useful. Make sure you have a laptop with Vagrant and Virtualbox installed beforehand. If you are running Windows do make sure Hyper-V is disabled (it is enabled when you can run Docker containers), otherwise Virtualbox will not work! 1. Download and install VirtualBox - https://www.virtualbox.org/wiki/Downloads 2. Download and install Vagrant - https://www.vagrantup.com/intro/getting-started/install.html Speaker: Michael van Gastel

    3
  • Oracle OpenWorld & CodeOne 2018 Review

    Ieder jaar organiseert Oracle haar OpenWorld conferentie in San Francisco. De strategie wordt ontvouwd, de product-roadmaps gepresenteerd, de beta-releases gepreviewed en de verhalen van achter de schermen in de wandelgangen gedeeld. Ieder jaar organiseert AMIS de Oracle OpenWorld review - waarin we in een paar uur verslag doen van de belangrijkste aankondigingen van Oracle en analyses en bevindingen van onze experts. In deze sessie word je bijgepraat en heb je uiteraard ook de kans om mee te praten en vragen te stellen. Naast Oracle OpenWorld vindt ook CodeOne plaats - de opvolger van JavaOne. Tijdens de CodeOne conferentie wordt gesproken door developers over moderne architecturen, evolutie van programmeertalen en -technieken en over actuele thema's als blockchain, IoT,Machine Learning, DevOps, CI/CD en containerization. Tijdens deze review sessie zullen we ook uitgebreid aandacht besteden aan CodeOne en de belangrijkste aankondigingen en trends. Ben je ontwikkelaar, platformspecialist, architect, DevOps engineer of anderszins geinteresseerd in actuele ontwikkelingen (helemaal als ze een Oracle-rood randje hebben) dan is deze review-sessie zeer de moeite waard.

    2
  • Monitoring met Prometheus en Grafana - Handson Workshop

    Datum: Donderdag 20 september Tijd:[masked] Spreker: Lucas Jellema Doelgroep: DevOps professionals (Applicatie- en Platform-Ontwikkelaars en -Beheerders) Monitoring is een belangrijk middel om het correct functioneren van een runtime-omgeving vast te stellen. Reageert de applicatie snel genoeg, is een functie nog beschikbaar, hoe staat het met de gezondheid van een server of de ruimte op een storage component. Monitoring is het proces van verzamelen, verwerken en interpreteren van runtime metrics van applicatie-, platform- en infra-componenten. Monitoring helpt inzicht te krijgen in huidige status, recente geschiedenis en trends – met het doel in te grijpen, bij te sturen en te analyseren. In deze SIG spreken we over Monitoring: waarom doe je het en hoe je het willen aanpakken? Welke middelen zijn daarvoor nodig? Vervolgens krijg je een demonstratie van allereerst Prometheus (voor monitoring) en vervolgens Grafana (voor het visualiseren van monitoring-data in dashboards). Daarna volgt een handson-workshop waarin je de kans hebt zelf deze tools uit te proberen. Prometheus (van de Cloud Native Compute Foundation) is een populair open source tool voor monitoring. Prometheus schraapt periodiek metrics uit allerlei componenten, verzamelt deze in een centrale data store, ontsluit deze voor afnemers en doet continue controles tegen geconfigureerde condities die bij overschrijding tot alerts leiden. Prometheus is de de-facto standaard voor monitoring van containers op het Kubernetes-platform en voor veel microservice-implementaties. In het Prometheus ecosysteem zijn voorzieningen beschikbaar voor het verzamelen van metrics uit een groot aantal technologieën en producten. Grafana is een open source tool voor het creëren van dashboards. Grafana kan met allerlei data sources werken – waarvan Prometheus er eentje is. De combinatie Prometheus en Grafana wordt veel toegepast. Grafana wordt gebruikt om een dashboard te maken waarin niet alleen Prometheus data op visueel aantrekkelijke wijze wordt getoond maar dat ook goed kan dienen als startpunt voor een (root cause) analyse als er een probleem is geconstateerd – bijvoorbeeld door de DevOps engineer die een geautomatiseerde notificatie heeft ontvangen van het Prometheus alert-mechanisme. In de workshop ga je aan de slag met Prometheus. Na de installatie ga je de monitoring van enkele componenten inrichten. De verzamelde data ga je bekijken en analyseren. Je configureert een alert-conditie en je stelt vast dat het alert wordt getriggerd. Vervolgens gebruik je Grafana om met die verzamelde data ook een dashboard met meerdere visualisaties in te richten. Aan het eind van deze sessie hebben deelnemers een gemeenschappelijk beeld van het belang en de rol van monitoring. Ook is voor deelnemers duidelijk wat Prometheus is en waar het voor gebruikt kan worden – en hoe het zich verhoudt tot andere tools die voor beheer-activiteiten worden ingezet. De toepassing van Grafana in aanvulling op Prometheus is eveneens duidelijk. Voorbereiding: Neem je laptop mee en zorg dat daarop VirtualBox en Vagrant zijn geïnstalleerd. Zie https://www.virtualbox.org/wiki/Downloads en https://www.vagrantup.com/downloads.html . Bronnen: Prometheus - https://prometheus.io/ Grafana - https://grafana.com/

    3
  • Leer snel setup & beheer van omgevingen met Packer, Vagrant, Virtualbox & Docker

    Leer slim beheer van PoC | Demo | Studie | ontwikkel| speel-omgevingen met Packer, Preseed, Vagrant, Virtualbox, Docker Spreker: Maarten Smeets, Oracle ACE & Senior Development Consultant (AMIS) Benodigd: enige ervaring met command line tools, Virtual Machines en Linux is gewenst; breng in elk geval je laptop mee voor het hands on deel van de sessie Als ontwikkelaar heb je naast je reguliere werk regelmatig behoefte aan een omgeving voor bijvoorbeeld zelfstudie, uitproberen van nieuwe tools of het uitvoeren van een PoC. Soms is de omgeving alleen voor jezelf maar in andere gevallen wil je deze ook eenvoudig kunnen delen zoals bijvoorbeeld voor het geven van een training. Voor deze omgeving heb je veelal specifieke wensen. Je wilt flexibele zijn en snel up en running. De mogelijkheid hebben de omgeving opnieuw op te bouwen zonder al te veel moeite. Bij voorkeur wil je deze lokaal draaien op je laptop, maar dan wel op zo'n manier dat deze goed geïsoleerd is van al je andere tools en omgevingen. Nadat je ermee klaar bent wil je deze kunnen opruimen zonder blijvende vervuiling op je laptop. Details van de installatieprocedure ben je veelal niet in geïnteresseerd. Om dit te realiseren heb je vaak te maken met een aantal uitdagingen zoals - Netwerkconfiguratie. Hoe kunnen een host en guest goed met elkaar communiceren? Hoe kunnen guests elkaar vinden? Hoe kunnen containers elkaar vinden? Hoe kunnen de guests bij het internet? Hoe maak ik mijn lokaal gehoste applicatie eenvoudig online beschikbaar? - Snel nieuwe versies uitproberen. Werkt mijn stack nog wel goed op deze specifieke Linux versie? - Herstel Hoe kan ik snel mijn omgeving herstellen, opnieuw opbouwen of terugbrengen naar een vorige toestand? Er wordt ingegaan op mogelijkheden van Virtualbox en Docker. - GUI Hoe kan ik GUI tools gebruiken vanuit Docker containers Tijdens deze avond zal je ervaring opdoen met verschillende tools om omgevingen neer te kunnen zetten. Als voorbeeld zal er een Kafka / Spring Boot / Spring Tool Suite omgeving worden opgetogen, maar de methodiek is generiek en toepasbaar op andere frameworks en tools. - Virtualbox wordt gebruikt om een gevirtualiseerde omgeving in te draaien. Er zal in worden gegaan op hoe Virtualbox networking in de praktijk werkt. - Preseed wordt gebruikt voor het automatiseren van de OS installatie - Packer wordt gebruikt om Preseed gebruik te automatiseren - Vagrant wordt gebruikt om vervolgens de omgeving verder in te richten zoals het netwerk te configureren, gebruikers aan te maken en Docker te installeren - Docker wordt vervolgens gebruikt om de puntjes op de i te zetten en bijvoorbeeld een Apache Kafka + Spring Boot + Java 8/9/10 omgeving te draaien of een Oracle Database + SOA Suite omgeving samen te stellen en te gebruiken. Er zal worden uitgelegd hoe je Docker containers kan laten communiceren en hoe je vanuit een Docker container ook GUI tools zoals Spring Tool Suite of JDeveloper kan draaien. Naast de do-it-yourself oplossing zoals hierboven beschreven zijn er verschillende oplossingen voor ready-to-use omgevingen zoals AWS AMIs, Bitnami, images uit Docker registries. Ook deze zullen de revu passeren. Na deze sessie heb je de bagage om met de genoemde tools zelf snel een potentieel complexe omgeving op te zetten, efficient te gebruiken en na gebruik weer netjes op te ruimen.

    3
  • Challenges and experiences of IoT

    Conclusion

    Topics we will cover • How do you handle connectivity? • What is the best way to update your edge devices? • How to make sure your data processing is efficient and scalable? • What is the most optimal solution for alerting and warnings • How do you make sure your platform and applications are available and cost-efficient? • What is the way to choose an intelligent edge system with local logic processing and when do you choose a cloud-centric architecture? Input The workshop is very interactive and we encourage you to share your case with use upfront if you want so we can prepare for the session optimally. Audience Engineers and architects For details please visit the registration page https://www.amis.nl/events/de-uitdagingen-van-en-ervaringen-met-iot

    6
  • Introducing JHipster - The Open Source Application Generator (with workshop)

    Speakers: Sendil Kumar (Senior Full Stack Developer at Xebialabs, Netherlands and member of the JHipster core development team), Nico Klasens (Senior Full Stack Developer, AMIS) & Lucas Jellema (CTO, AMIS) Target Audience: front end & backend (API and Service) developers, full stack developers, application architects Prerequisites: some development experience with either front end or middleware/back end systems and a little Java is desirable; also: bring your laptop for the hands on session JHipster is an application generator. Based on best practices from 100s of developers and supporting many de facto standard technologies, JHipster generates a complete and modern Web app, unifying: • A high-performance and robust Java stack on the server side with Spring Boot powered REST APIs - integrating with databases (SQL & NoSQL & In Memory Cache), messaging systems (such as RabbitMQ and Apache Kafka), Identity & Access Management (Okta or KeyCloak) • A sleek, modern, mobile-first front-end with Angular or React and Bootstrap • A powerful workflow to build your application with Yeoman, Webpack/Gulp and Maven/Gradle and deploy it in Docker, on Kubernetes and on one of several cloud platforms The generated application has built in support for metrics for monitoring, logging, service discovery, authentication and more - leveraging the power of Spring Boot. Most applications cannot be fully generated obviously. Using JHipster for the full life cycle of all application components will not always be an option. For most components, the main value of JHipster lies in the initial phase where JHipster assists in quickly creating the outline of the application, a directory structure with fully and mutually configured technologies and the skeleton (dare I say 'the struts'?) of the application code itself. It is a perfect way to quickly get going with a rich frontend and/or microservice - and to simply learn what good practices are for working with a rich combination of popular and widely adopted technologies. This session will provide clear insight in what JHipster can do for you and helps you getting started in a practical way. Agenda: * Welcome & Introduction (Why this session? Why is JHipster worth our while?) by Lucas * Overview of JHipster 5.0 - presented and demonstrated by Sendil Kumar:  What does it provide? What are its goals?  Where did it come from, who is behind it, what is the history and roadmap, what is in JHipster 5.0  What technologies does it work with? What types of application can it generate?  How do you create your first application? Demo!  What has been generated 'under the covers'?  How can you extend the generated application: regenerate, hybrid: hand build & regenerate, only hand build  Demo: adding entities to the application and supporting those with generated artifacts (DB, REST API and UI) * Dinner * Nico's personal experiences and the introduction to the workshop * Handson Workshop - • first steps with JHipster: generate a working application (Web UI and Microservices-with-REST-API with at least two entities) (build and run), • explore all that has been generated (directories, config-files, source code - Java, SpringBoot & JavaScript + HTML, SQL); • extend the meta-definition of the application and regenerate • and/or change some of generated sources and rebuild/rerun the application • bonus: look at marketplace modules (https://www.jhipster.tech/modules/marketplace/#/list) and at IDE support? Our guest speaker is Sendil Kumar.Sendil Kumar is a part of JHipster core development team and writing a book on Full stack development with JHipster. He is also a member of Webpack contributor team. Sendil Kumar is an active open source contributor. He is also a senior full stack developer at Xebialabs. He loves to explore and learn new things. See him in action at Devoxx Belgium (November 2017): https://www.youtube.com/watch?v=cN2yyD6JYvc&feature=youtu.be.

    6
  • Verkenning van Tools en Technologie voor CQRS en Data Replicatie

    Datum: donderdag 21 juni Tijd:[masked] Doelgroep: (integratie-)ontwikkelaars, DBAs, platformspecialisten, applicatie-architecten Inleider: Lucas CQRS (Command Query Responsibility Segregation) is een architectuurpatroon dat heel praktisch beschouwd stelt dat de datastore die data ontvangt en manipulaties verwerkt niet dezelfde hoeft te zijn als de engine die query’s beantwoordt. Er zijn verschillende redenen waarom je een C database en een of meerdere Q bronnen in een architectuur opneemt – van performance en beschikbaarheid tot schaalbaarheid, security, en (licentie)kosten. Een paar voorbeelden: een webshop gebruikt MongoDB (en nu ook Elastic Search) met een vanuit de Oracle OLTP database gegenereerde verzameling JSON documenten die vanuit de website kunnen worden gequeried. Een industrieel bedrijf gebruikt een Elastic Search index met een subset van data uit het ERP systeem om de (read-only) JET gebaseerde webapplicatie van data te voorzien. Een logistieke dienstverlener heeft een aparte Oracle Database die wordt gevoed vanuit alle terminal-specifieke databases met data voor de web-applicatie voor externe gebruikers. En ieder data warehouse of data lake kan je als een vorm van CQRS beschouwen. In deze sessie gaan we kijken naar de implementatie van CQRS. Wat zijn uitdagingen, wat zijn criteria voor de selectie van tools en technologie. En welke tools en technologie zijn beschikbaar en worden veel toegepast? En welke van die middelen zijn of lijken geschikt voor ons portfolio? Op dinsdag 5 juni is er een SIG waarin CQRS vanuit architectuur-invalshoek wordt beschouwd. Waarom en wanneer gaan we CQRS toepassen? Wat zijn dan ontwerpbeslissingen en requirements die expliciet moeten worden gemaakt? De uitkomsten van die sessie definiëren het kader voor deze SIG. We kijken naar uitdagingen zoals - Hoe detecteer je relevant changes in de command-store (polling, native notification mechanisme, event sourcing, …) en hoe extraheer je snel | efficiënt de data die moet worden gerepliceerd? - Hoe transporteer je de data van command-source naar query-target – betrouwbaar, veilig, snel (genoeg) en met de juiste consistentie (volgorde, idem-potency, verliesloos) - Hoe doen we (formaat-)conversie of verrijking van data (indien nodig) - Hoe kies je het database product voor de query-stores? Wat zijn voor de hand liggende opties? - Hoe voer je wijzigingen door in de query-target store? In kleine groepjes gaan we in meer detail kijken naar concrete aanpakken, tools en technologie – om tot eerste meningen en selecties te komen. Aan het eind van de sessie delen we onze bevindingen. We gaan nader kijken naar onder andere: • Oracle Database (Golden Gate/Data Integration Platform Cloud, Log Mining, Flashback Query, DB Query Result Change Notification, Custom Triggers, Materialized Views, DB Visit Replication) • Debezium • StreamSets • Kafka Connect • Attunity • Apache Flink • Alooma • Query store implementaties: Elastic Search, MongoDB, Neo4J, PostgreSQL • Alternatieve Command store implementaties (naast Oracle Database): Apache Cassandra, Elastic Search Index, Kafka

  • Machine Learning 2e etappe – Concrete stappen met Random Forests en Clustering

    SIG/Gilde Machine Learning - 2e etappe Sprekers: Jeffrey Resodikromo en Michael van Gastel Op 7 mei hebben we in de eerste etappe van onze Machine Learning reis kennisgemaakt met data science en machine learning – met de doelen en ambities, met terminologie en aanpak, met use cases en op hoofdlijnen de terminologie. In korte hands-on sessies zijn we aan de gang gegaan met eerste vingeroefeningen met tools en technologie. Details van deze sessie - en de presentatie en hadson materialen - staan hier: https://www.meetup.com/Oracle-Developer-Meetup/events/249860132/. Op 14 juni stropen we de mouwen op en gaan we concreet worden. Zelf machine learning modellen trainen en testen. Dat doen we met R en R Studio als tool. Na een introductie door Michael over algemene concepten rond het trainen en valideren van machine learning modellen gaan we eerst data science bedrijven op basis van de supervised Random Forest machine learning methode voor regressie of classificatie (voor het eerst beschreven in 1995). Vervolgens presenteert Jeffrey de theorie van cluster algoritmes – een unsupervised machine learning methode om waarnemingen in categorieën in te delen. De presentatie gaat over in een tweede handson sessie. Opnieuw gebruiken we R Studio om een geprepareerde dataset met K-Means Clustering en/of Hierarchical Clustering in (betekenisvolle?) clusters te laten indelen. Voorkennis: In de SIG sessie van 7 mei is in de technische handson gewerkt met Decision Trees. Dat vormt de basis voor wat we in deze sessie met Random Forests gaan doen. Heb je de 7 mei sessie niet bijgewoond, dan is het zeer aan te raden dit filmpje van ~7 minuten te kijken: https://www.youtube.com/watch?v=a5yWr1hr6QY. Het concept van de Decision Tree wordt daar gemakkelijk uitgelegd. Random Forest is daar een uitbreiding van. Voorbereiding: Deelnemers moeten R (https://cran.r-project.org/bin/windows/base/) en Rstudio (https://www.rstudio.com/products/rstudio/download/, de gratis RStudio desktop versie volstaat) geïnstalleerd hebben voorafgaand aan deze sessie.

    5
  • Kennismaking met Machine Learning – het begin van de reis

    Sprekers: Michael van Gastel, Jeffrey Resodikromo, Maarten Smeets, Lucas Jellema We gaan Machine Learning “op de kaart gaan zetten”. Het is een onderwerp dat steeds relevanter wordt in algemene zin en dat in snel tempo ook voor ons en onze klanten concreter en toepasbaarder wordt. In deze sessie maken we een start – en korte tijd later volgt een serie aan sessies waarin we de diepte in gaan voor en met wie dat wil. Het doel van de eerste sessie is tweeledig: • Bewustwording: wat is Machine Learning in grote lijnen, wat beoogt het en hoe verhoudt het zich tot wat wij al wel gewend zijn te doen (qua technologie, database, processen, user interfaces); wat kunnen we klanten extra gaan bieden op basis van Machine Learning. • Drempelverlagend (en enthousiasmerend): Machine Learning concreet maken en deelnemers helpen de eerste drempel over te gaan (en de eerste drempelvrees te overwinnen). De agenda ziet er als volgt uit: 17.00 Wat is Machine Learning - overzicht van concepten en de plek van machine learning in onze wereld van enterprise IT – met demonstraties, de belangrijke technologie en een toelichting op de data science workflow 18.00 diner 19.00 Concrete casus – een voorbeeld van hoe machine learning in de praktijk is toegepast. Van de uitdaging op basis van een duidelijke business vraag, via een schets van de oplossing op basis van machine learning (en waarom machine learning?), naar een beschrijving van de aanpak, de gebruikte middelen en een demo van het resultaat 19.30 Hands-On – twee tracks: 1: Functioneel – verkennen van tools en sites op basis van machine learning, visualisatie van machine learning proces en uitproberen van machine learning services 2: Technisch – na een korte presentatie en demonstratie van R-Studio zelf aan de slag met het decision tree (CART) algoritme voor een eerste concrete ervaring met het zelf doen van machine learning 21.00 Einde – met napraten en uithijgen Specifieke voorkennis is niet nodig voor deze sessie, uiteraard wel een interesse in het onderwerp. Om aan de handson mee te kunnen doen moet je een laptop meebrengen. Je hoeft niet vooraf al software te installeren - maar je moet voor de techniche handson wel in staat zijn om installaties uit te voeren.

    3