Certificat en Intelligence Artificielle    Nouvelle formation
Développer des systèmes d’Intelligence Artificielle en entreprise

 
  Réunion d'information en distanciel le mercredi 3 décembre prochain (13h00-13h30)    
  

Certificat de Data Scientist
  18 jours (126 h)       9 950    

  Prochaines sessions et informations pratiques

Dans un monde en constante évolution, où l’accroissement des données offre un champ d’exploration nouveau pour optimiser la prévision économique autant que les process de production, l'intelligence artificielle (IA), — et en particulier l'IA générative — est un levier incontournable pour dynamiser la compétitivité et l’innovation. Elle transforme d’ores et déjà les pratiques professionnelles de nombreux secteurs.

Ce certificat en ingénierie IA permet d’acquérir des compétences opérationnelles clés pour concevoir ou adapter des solutions performantes, s’inscrivant dans un cadre éthique, règlementaire et numérique responsable.

Vous apprendrez à...


  • Maîtriser les bases du Machine learning et du Deep learning
  • Explorer l’IA générative appliquée aux textes et aux images
  • Appliquer des méthodes avancées d'IA aux séries temporelles
  • Construire des agents IA avec des outils Open Source
  • Implémenter des solutions performantes pour l'entreprise
  • Mettre en œuvre l’IA dans un cadre réglementaire et éthique responsable
  • Réaliser un projet concret

Programme

Le certificat s’articule selon deux axes principaux : Deep learning d’une part et modèles de fondation d’autre part, qui constituent aujourd’hui le cœur des approches modernes en intelligence artificielle.

Une remise à niveau en Machine learning (apprentissage supervisé et non-supervisé) précède l’apprentissage des architectures de réseaux de neurones : Deep Neural Network (DNN), Convolutional Neural Network (CNN) pour l’image, Recurrent Neural Network (RNN) pour les données séquentielles, puis celui des modèles de fondation — Large Language Model (LLM) pour le texte, Large Vision Model (LVM) pour la vision, et Time Series Foundation Models (TSFM) pour les séries temporelles.

Enfin, après avoir étudié la conception d’agents IA capables d’interagir avec leur environnement, les participants sont sensibilisés aux implications juridiques et éthiques liées à l’IA, afin de garantir une mise en œuvre responsable de ces technologies.

   Voir le programme détaillé des modules


Prérequis

Public visé & prérequis

Cette formation est destinée aux personnes souhaitant acquérir une culture et des savoir-faire en intelligence artificielle.

Elle est ouverte aux titulaires d’un master (mathématiques, informatique, statistique...) ou d'un diplôme de niveau équivalent, ou aux personnes pouvant justifier d'une expérience technique d'au moins 3 ans dans le domaine de la data et/ou de l'intelligence artificielle. La maîtrise des fondamentaux du machine learning et du langage Python (numpy, pandas, matplotlib) constituent un pré-requis.


Certification

Certification

Outre les tests de contrôle continu programmés pendant le cursus, les stagiaires soutiennent, à la fin du parcours de formation, un projet commencé pendant la formation et achevé deux mois après la fin des cours. Cette mise en situation vise à mettre en pratique les fondamentaux de l’intelligence artificielle sur un cas réel. La validation du certificat est soumise à la réussite à ces épreuves, ainsi qu’à la présence obligatoire aux cours.

En cas de réussite, le participant se voit décerner un Certificat en Intelligence Artificielle du Groupe des Écoles Nationales d'Économie et Statistique.



Le certificat s’articule selon deux axes principaux : Deep learning d’une part et modèles de fondation d’autre part. Le cursus comprend 5 modules principaux, auxquels s’ajoute une introduction aux modèles de fondation appliqués aux séries temporelles, une sensibilisation aux implications juridiques et éthiques liées à l’IA, ainsi que 3 séances de projet tutoré. L’ensemble s’étend sur une durée d'environ 6 mois. En voici le détail.


Machine learning

Machine learning — 3 jours

Ce module rappelle les fondamentaux de l’apprentissage statistique et les principales méthodes d’apprentissage supervisé (bagging-random forests, gradient boosting, SVM). Une attention particulière est portée au risque de sur-apprentissage et à ses palliatifs (découpage apprentissage, validation-test et validation croisée). Vous implémenterez ces méthodes à l’aide de Scikit-Learn et ses pipelines de traitements.
   Voir notre article sur le Machine learning



Deep learning

Deep learning — 3 jours

Ce module explore les concepts avancés du Deep learning, une sous-catégorie du machine learning qui s’appuie sur des réseaux de neurones profonds. Il introduit les bases conceptuelles (réseaux neuronaux, fonctions d'activation, backpropagation) et propose des applications concrètes sur des données structurées. Pour les images, les réseaux de neurones convolutifs (CNNs) seront utilisés pour des tâches comme la classification d'images. Des LLM basés sur les modèles de transformers seront étudiés pour des tâches telles que la classification (ex :analyse de sentiments) et la génération de textes. Vous implémenterez ces méthodes à l’aide des frameworks TensorFlow - Keras et Pytorch.
   Voir notre article sur le Deep learning



LLM

Large Language Models (LLM) — 3 jours

Ce module présente dans un premier temps les principaux concepts des LLM en détaillant successivement leurs caractéristiques « Grande Volumétrie », « Langage » et « Modèle de Fondation ». Il expose ensuite leurs principes de fonctionnement : tokenisation, vectorisation, mécanisme « d’attention » et génération de texte. Il présente les différentes manières d’utiliser les LLM, parmi lesquelles l’utilisation par API et l’utilisation en local. Il fournit enfin les bonnes pratiques pour adapter un LLM à son propre corpus, notamment par l’implémentation de la génération augmentée de récupération (RAG) et la mise en œuvre de fine tuning supervisé ou non.



LVM

Large Vision Models (LVM) — 2 jours

Ce module présente les principaux concepts des LVM en détaillant successivement leurs caractéristiques « Grande Volumétrie », « Vision » et « Modèle de Fondation ». Il expose les principes des réseaux de neurones appliqués à l’analyse des images (convolution, différentes couches du réseau…). Puis, après avoir détaillé les techniques d’entrainement classiques il aborde les apports des « transformers » pour les images et leur mise en œuvre. Enfin, il présente les concepts d’apprentissage auto-supervisé et leur fonctionnement.



Time Series Foundation Models (TSFM)

Time Series Foundation Models (TSFM) — 1 jour

Cette introduction présente une nouvelle génération de modèles capables de prédire des séries temporelles sans entraînement spécifique sur les données de l’utilisateur (zero-shot forecasting). Après avoir présenté les apports des TSFMs, la session explore l’écosystème actuel avant de guider les participants dans la réalisation d’une première prédiction simple.



Agents IA autonomes

Agents IA autonomes — 2 jours

Ce module propose une exploration approfondie des architectures d’agents IA avec un accent particulier sur les approches par graphe et les frameworks modernes tels que LangGraph, CrewAI ou LlamaIndex. Les participants apprennent à concevoir des agents capables d’interagir avec des outils externes, à gérer mémoire et RAG et à intégrer les principaux concepts de standardisation. Le module couvre également les enjeux de sécurité, d’observabilité et de fiabilité, avant d’ouvrir sur les architectures avancées (agents multimodaux, systèmes multi-agents) et sur les problématiques de passage à l’échelle.



Droit et éthique de la donnée

Droit et éthique de la donnée — 1/2 journée

Ce module d'introduction aborde les aspects juridiques et éthiques liés à l'utilisation des données. Il couvre les réglementations comme le Règlement Général sur la Protection des Données (RGPD) en Europe, qui régit la collecte, l'utilisation et la protection des données personnelles. L’accent sera mis sur la conformité légale, la gestion des risques et la manière de minimiser les biais algorithmiques. Sur le plan éthique, vous explorerez les dilemmes posés par l’intelligence artificielle et le machine learning, en particulier lorsqu'il s'agit d'équité, de transparence et d’impact social.



Éric Matzner-Lober<br><small>Responsable du certificat</small>

Éric Matzner-Lober
Responsable du certificat

Professeur des universités, Éric est le responsable pédagogique et scientifique de l’Ensae-Ensai Formation Continue (Cepe). Il a rédigé en collaboration de nombreux ouvrages scientifiques alliant théorie et applications. Il effectue sa recherche au Centre de Recherche en Economie et Statistique (CREST) et est régulièrement invité au Laboratoire National de Los Alamos.

Fei Gao

Fei Gao

Diplômée de l’INSA en informatique, Fei GAO est professeur à l’Ecole des hautes études en santé publique et spécialisée dans la thématique de données massives en santé. Elle participe activement la mise en place de dispositif de formations au tour de Système National des Données de Santé en partenariat avec l’Assurance Maladie et l’Agence Technique de l'Information sur l'Hospitalisation. Elle anime des modules sur les traitements des données avec Python, R, SAS/SAS Enterprise Guide et aussi sur l’analyse spatiale (Arcgis et Qgis).

Thomas Kerdreux

Thomas Kerdreux

Diplômé de l’École Polytechnique en 2017, Thomas obtient en 2020 un doctorat en optimisation pour le Machine Learning à l’ENS Paris. Il effectue ensuite un post-doctorat en apprentissage automatique au Zuse Institute de Berlin puis au Los Alamos National Laboratory. En 2021, il cofonde Geolabe LLC, spécialisée dans l’analyse InSAR pour le suivi millimétrique de la surface terrestre. En 2024, il crée à Paris Galeio, dédiée au développement de modèles de fondation pour les données géospatiales — un “ChatGPT des images satellites” (optique, radar et spectrale).

Vincent Lefieux

Vincent Lefieux

Vincent Lefieux est diplômé de l’ENSAI et titulaire d’un doctorat en Statistique (Université Rennes 2). Après avoir occupé des postes d’ingénieur chercheur à EDF R&D puis RTE R&D, il est actuellement responsable de la feuille de route IA à RTE. En parallèle il a donné de nombreux cours dans des écoles d’ingénieurs (ENSAI, ENPC, ENSTA) et a été maître de conférence associé (PAST) à l’UPMC de 2010 à 2015.

Alexandre Tuel

Alexandre Tuel

Ingénieur diplômé de l’Ecole polytechnique en 2017, Alexandre a ensuite obtenu en 2020 un doctorat en climatologie au MIT. Après trois ans de postdoc à l'Université de Berne, en Suisse, il rejoint aux Etats-Unis Geolabe LLC pour travailler sur l’analyse d’images satellites appliquée à la surveillance des variations millimétriques de la surface terrestre et des émissions de gaz à effet de serre. En 2024, il revient en France pour cofonder Galeio, une entreprise spécialisée dans la création de modèles de fondation pour les données géospatiales.