Certificat en Intelligence Artificielle 
Développer des systèmes d’Intelligence Artificielle en entreprise
Prochaines sessions et informations pratiques
Dans un monde en constante évolution, où l’accroissement des données offre un champ d’exploration nouveau pour optimiser la prévision économique autant que les process de production, l'intelligence artificielle (IA), — et en particulier l'IA générative — est un levier incontournable pour dynamiser la compétitivité et l’innovation. Elle transforme d’ores et déjà les pratiques professionnelles de nombreux secteurs.
Ce certificat en ingénierie IA permet d’acquérir des compétences opérationnelles clés pour concevoir ou adapter des solutions performantes, s’inscrivant dans un cadre éthique, règlementaire et numérique responsable.
Vous apprendrez à...
- Maîtriser les bases de l’apprentissage machine (Machine learning) et profond (Deep learning)
- Maîtriser les bases du Machine learning et du Deep learning
- Explorer l’IA générative appliquée aux textes et aux images
- Appliquer des méthodes avancées d'IA aux séries temporelles
- Construire des agents IA avec des outils Open Source
- Implémenter des solutions performantes pour l'entreprise
- Mettre en œuvre l’IA dans un cadre réglementaire et éthique responsable
- Réaliser un projet concret
Programme
Le certificat s’articule selon deux axes principaux : Deep learning d’une part et modèles de fondation d’autre part, qui constituent aujourd’hui le cœur des approches modernes en intelligence artificielle.
Une remise à niveau en Machine learning (apprentissage supervisé et non-supervisé) précède l’apprentissage des architectures de réseaux de neurones : Deep Neural Network (DNN), Convolutional Neural Network (CNN) pour l’image, Recurrent Neural Network (RNN) pour les données séquentielles, puis celui des modèles de fondation — Large Language Model (LLM) pour le texte, Large Vision Model (LVM) pour la vision, et Time Series Foundation Models (TSFM) pour les séries temporelles.
Enfin, après avoir étudié la conception d’agents IA capables d’interagir avec leur environnement, les participants sont sensibilisés aux implications juridiques et éthiques liées à l’IA, afin de garantir une mise en œuvre responsable de ces technologies.
Public visé & prérequis
Cette formation est destinée aux personnes souhaitant acquérir une culture et des savoir-faire en intelligence artificielle.
Elle est ouverte aux titulaires d’un master (mathématiques, informatique, statistique...) ou d'un diplôme de niveau équivalent, ou aux personnes pouvant justifier d'une expérience technique d'au moins 3 ans dans le domaine de la data et/ou de l'intelligence artificielle. La maîtrise des fondamentaux du machine learning et du langage Python (numpy, pandas, matplotlib) constituent un pré-requis.
Certification
Outre les tests de contrôle continu programmés pendant le cursus, les stagiaires soutiennent, à la fin du parcours de formation, un projet commencé pendant la formation et achevé deux mois après la fin des cours. Cette mise en situation vise à mettre en pratique les fondamentaux de l’intelligence artificielle sur un cas réel. La validation du certificat est soumise à la réussite à ces épreuves, ainsi qu’à la présence obligatoire aux cours.
En cas de réussite, le participant se voit décerner un Certificat en Intelligence Artificielle du Groupe des Écoles Nationales d'Économie et Statistique.
Le certificat s’articule selon deux axes principaux : Deep learning d’une part et modèles de fondation d’autre part. Le cursus comprend 5 modules principaux, auxquels s’ajoute une introduction aux modèles de fondation appliqués aux séries temporelles, une sensibilisation aux implications juridiques et éthiques liées à l’IA, ainsi que 3 séances de projet tutoré. L’ensemble s’étend sur une durée d'environ 6 mois. En voici le détail.
Machine learning — 3 jours
Ce module rappelle les fondamentaux de l’apprentissage statistique et les principales méthodes d’apprentissage supervisé (bagging-random forests, gradient boosting, SVM). Une attention particulière est portée au risque de sur-apprentissage et à ses palliatifs (découpage apprentissage, validation-test et validation croisée). Vous implémenterez ces méthodes à l’aide de Scikit-Learn et ses pipelines de traitements.
Voir notre article sur le Machine learning
Deep learning — 3 jours
Ce module explore les concepts avancés du Deep learning, une sous-catégorie du machine learning qui s’appuie sur des réseaux de neurones profonds. Il introduit les bases conceptuelles (réseaux neuronaux, fonctions d'activation, backpropagation) et propose des applications concrètes sur des données structurées. Pour les images, les réseaux de neurones convolutifs (CNNs) seront utilisés pour des tâches comme la classification d'images. Des LLM basés sur les modèles de transformers seront étudiés pour des tâches telles que la classification (ex :analyse de sentiments) et la génération de textes. Vous implémenterez ces méthodes à l’aide des frameworks TensorFlow - Keras et Pytorch.
Voir notre article sur le Deep learning
Large Language Models (LLM) — 3 jours
Ce module présente dans un premier temps les principaux concepts des LLM en détaillant successivement leurs caractéristiques « Grande Volumétrie », « Langage » et « Modèle de Fondation ». Il expose ensuite leurs principes de fonctionnement : tokenisation, vectorisation, mécanisme « d’attention » et génération de texte. Il présente les différentes manières d’utiliser les LLM, parmi lesquelles l’utilisation par API et l’utilisation en local. Il fournit enfin les bonnes pratiques pour adapter un LLM à son propre corpus, notamment par l’implémentation de la génération augmentée de récupération (RAG) et la mise en œuvre de fine tuning supervisé ou non.
Large Vision Models (LVM) — 2 jours
Ce module présente les principaux concepts des LVM en détaillant successivement leurs caractéristiques « Grande Volumétrie », « Vision » et « Modèle de Fondation ». Il expose les principes des réseaux de neurones appliqués à l’analyse des images (convolution, différentes couches du réseau…). Puis, après avoir détaillé les techniques d’entrainement classiques il aborde les apports des « transformers » pour les images et leur mise en œuvre. Enfin, il présente les concepts d’apprentissage auto-supervisé et leur fonctionnement.
Time Series Foundation Models (TSFM) — 1 jour
Cette introduction présente une nouvelle génération de modèles capables de prédire des séries temporelles sans entraînement spécifique sur les données de l’utilisateur (zero-shot forecasting). Après avoir présenté les apports des TSFMs, la session explore l’écosystème actuel avant de guider les participants dans la réalisation d’une première prédiction simple.
Agents IA autonomes — 2 jours
Ce module propose une exploration approfondie des architectures d’agents IA avec un accent particulier sur les approches par graphe et les frameworks modernes tels que LangGraph, CrewAI ou LlamaIndex. Les participants apprennent à concevoir des agents capables d’interagir avec des outils externes, à gérer mémoire et RAG et à intégrer les principaux concepts de standardisation. Le module couvre également les enjeux de sécurité, d’observabilité et de fiabilité, avant d’ouvrir sur les architectures avancées (agents multimodaux, systèmes multi-agents) et sur les problématiques de passage à l’échelle.
Droit et éthique de la donnée — 1/2 journée
Ce module d'introduction aborde les aspects juridiques et éthiques liés à l'utilisation des données. Il couvre les réglementations comme le Règlement Général sur la Protection des Données (RGPD) en Europe, qui régit la collecte, l'utilisation et la protection des données personnelles. L’accent sera mis sur la conformité légale, la gestion des risques et la manière de minimiser les biais algorithmiques. Sur le plan éthique, vous explorerez les dilemmes posés par l’intelligence artificielle et le machine learning, en particulier lorsqu'il s'agit d'équité, de transparence et d’impact social.
Éric Matzner-Lober
Responsable du certificat
Professeur des universités, Éric est le responsable pédagogique et scientifique de l’Ensae-Ensai Formation Continue (Cepe). Il a rédigé en collaboration de nombreux ouvrages scientifiques alliant théorie et applications. Il effectue sa recherche au Centre de Recherche en Economie et Statistique (CREST) et est régulièrement invité au Laboratoire National de Los Alamos.
Fei Gao
Diplômée de l’INSA en informatique, Fei GAO est professeur à l’Ecole des hautes études en santé publique et spécialisée dans la thématique de données massives en santé. Elle participe activement la mise en place de dispositif de formations au tour de Système National des Données de Santé en partenariat avec l’Assurance Maladie et l’Agence Technique de l'Information sur l'Hospitalisation. Elle anime des modules sur les traitements des données avec Python, R, SAS/SAS Enterprise Guide et aussi sur l’analyse spatiale (Arcgis et Qgis).
Thomas Kerdreux
Diplômé de l’École Polytechnique en 2017, Thomas obtient en 2020 un doctorat en optimisation pour le Machine Learning à l’ENS Paris. Il effectue ensuite un post-doctorat en apprentissage automatique au Zuse Institute de Berlin puis au Los Alamos National Laboratory. En 2021, il cofonde Geolabe LLC, spécialisée dans l’analyse InSAR pour le suivi millimétrique de la surface terrestre. En 2024, il crée à Paris Galeio, dédiée au développement de modèles de fondation pour les données géospatiales — un “ChatGPT des images satellites” (optique, radar et spectrale).
Vincent Lefieux
Vincent Lefieux est diplômé de l’ENSAI et titulaire d’un doctorat en Statistique (Université Rennes 2). Après avoir occupé des postes d’ingénieur chercheur à EDF R&D puis RTE R&D, il est actuellement responsable de la feuille de route IA à RTE. En parallèle il a donné de nombreux cours dans des écoles d’ingénieurs (ENSAI, ENPC, ENSTA) et a été maître de conférence associé (PAST) à l’UPMC de 2010 à 2015.
