Machine learning : bagging, gradient boosting, SVM avec R

 
  2 jours       1530       Avancé    
  Prochaine session
25 et 26 mai 2023
Objectifs de la formation
  • Connaître et savoir mettre en œuvre les méthodes d’agrégation en régression et classification supervisée : bagging (random forest) et gradient boosting
  • Connaître et savoir mettre en œuvre la méthode SVM en classification supervisée
  • Savoir gérer empiriquement le risque de sur-apprentissage

Prérequis

Public visé

Data analysts, data scientists


Contenu

Rappels sur les bases du machine learning

Méthodes d’agrégation – bagging

  • Rappels sur les arbres de régression et de décision (CART)
  • Bagging
  • Random forest
  • Importance des variables
  • Applications sur cas pratiques

Méthodes d’agrégation – gradient boosting

  • Algorithme AdaBoost
  • Principe du gradient boosting
  • Quelques fonctions de coût classiques
  • Applications sur cas pratiques

SVM

  • Cas linéairement séparable
  • Ajout de variables ressort (slack variables)
  • Astuce du noyau
  • Applications sur cas pratiques

Introduction aux réseaux de neurones

  • Neurone formel
  • Perceptron multicouche (MLP)
  • Fonctions d’activation
Approche pédagogique

  Moyens pédagogiques

  • Exposé théorique de concepts
  • Applications pratiques sur ordinateur
  • Échanges sur les pratiques et expériences des participants
  • Temps de questions / réponses
  • Exercices, quiz, forum etc.

  Méthodes pédagogiques