Certificat en Intelligence Artificielle    Nouvelle formation
Développer des systèmes d’Intelligence Artificielle en entreprise

 
Certificat de Data Scientist
  18 jours (126 h)       9 950    
  Prochaine session
17 septembre 2025 au 30 mars 2026

  Prochaines sessions et informations pratiques

Dans un monde en constante évolution, où l’accroissement des données offre un champ d’exploration nouveau pour optimiser la prévision économique autant que les process de production, l'intelligence artificielle (IA), — et en particulier l'IA générative — est un levier incontournable pour dynamiser la compétitivité et l’innovation. Elle transforme d’ores et déjà les pratiques professionnelles de nombreux secteurs.

Ce certificat en ingénierie IA permet d’acquérir des compétences opérationnelles clés pour concevoir ou adapter des solutions performantes, s’inscrivant dans un cadre éthique, règlementaire et numérique responsable.

Vous apprendrez à...


  • Maîtriser les bases du Machine learning et du Deep learning
  • Explorer l’IA générative appliquée
  • Appliquer des méthodes avancées d'IA aux séries temporelles
  • Implémenter des solutions performantes pour l'entreprise
  • Mettre en œuvre l’IA dans un cadre réglementaire et éthique responsable
  • Réaliser un projet concret

Programme

Le certificat s’articule selon deux axes principaux : Deep learning d’une part et IA générative appliquée aux textes et aux images d’autre part.

Une remise à niveau en Machine learning (apprentissage supervisé et non-supervisé) précède l’apprentissage des réseaux de neurones : Deep Neural Network (DNN), Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), puis celui des modèles de fondations : Large Language Model (LLM), Large Vision Model (LVM).

Enfin, après la déclinaison des méthodes de Deep learning sur les séries temporelles, les participants sont sensibilisés aux implications juridiques et éthiques liées à l’IA.

   Voir le programme détaillé des modules


Prérequis

Public visé & prérequis

Cette formation est destinée aux personnes souhaitant acquérir une culture et des savoir-faire en intelligence artificielle.

Elle est ouverte aux titulaires d’un master (mathématiques, informatique, statistique...) ou d'un diplôme de niveau équivalent, ou aux personnes pouvant justifier d'une expérience technique d'au moins 3 ans dans le domaine de la data et/ou de l'intelligence artificielle. La maîtrise des fondamentaux du machine learning et du langage Python (numpy, pandas, matplotlib) constituent un pré-requis.


Certification

Certification

Outre les tests de contrôle continu programmés pendant le cursus, les stagiaires soutiennent, à la fin du parcours de formation, un projet commencé pendant la formation et achevé deux mois après la fin des cours. Cette mise en situation vise à mettre en pratique les fondamentaux de l’intelligence artificielle sur un cas réel. La validation du certificat est soumise à la réussite à ces épreuves, ainsi qu’à la présence obligatoire aux cours.

En cas de réussite, le participant se voit décerner un Certificat en Intelligence Artificielle du Groupe des Écoles Nationales d'Économie et Statistique.



Le certificat s’articule selon deux axes principaux : Deep learning d’une part et IA générative appliquée aux textes et aux images d’autre part. Le cursus se déroule en 6 modules répartis sur une durée d'environ 6 mois. Voici le détail de ces modules.


Machine learning

Machine learning

Ce module rappelle les fondamentaux de l’apprentissage statistique et les principales méthodes d’apprentissage supervisé (bagging-random forests, gradient boosting, SVM). Une attention particulière est portée au risque de sur-apprentissage et à ses palliatifs (découpage apprentiisage-valisation-test et validation croisée). Vous implémenterez ces méthodes à l’aide de Scikit-Learn et ses pipelines de traitements.
   Voir notre article sur le Machine learning



Deep learning

Deep learning

Ce module explore les concepts avancés du Deep learning, une sous-catégorie du machine learning qui s’appuie sur des réseaux de neurones profonds. Il introduit les bases conceptuelles (réseaux neuronaux, fonctions d'activation, backpropagation) et propose des applications concrètes sur des données structurées. Pour les images, les réseaux de neurones convolutifs (CNNs) seront utilisés pour des tâches comme la classification d'images. Des LLM basés sur les modèles de transformers seront étudiés pour des tâches telles que la classification (ex :analyse de sentiments) et la génération de textes. Vous implémenterez ces méthodes à l’aide des frameworks TensorFlow - Keras et Pytorch.
   Voir notre article sur le Deep learning



LLM

Large Language Models (LLM)

Ce module présente dans un premier temps les principaux concepts des LLM en détaillant successivement leurs caractéristiques « Grande Volumétrie », « Langage » et « Modèle de Fondation ». Il expose ensuite leurs principes de fonctionnement : tokenisation, vectorisation, mécanisme « d’attention » et génération de texte. Il présente les différentes manières d’utiliser les LLM, parmi lesquelles l’utilisation par API et l’utilisation en local. Il fournit enfin les bonnes pratiques pour adapter un LLM à son propre corpus, notamment par l’implémentation de la génération augmentée de récupération (RAG) et la mise en œuvre de fine tuning supervisé ou non.



LVM

Large Vision Models (LVM)

Ce module présente les principaux concepts des LVM en détaillant successivement leurs caractéristiques « Grande Volumétrie », « Vision » et « Modèle de Fondation ». Il expose les principes des réseaux de neurones appliqués à l’analyse des images (convolution, différentes couches du réseau…). Puis, après avoir détaillé les techniques d’entrainement classiques il aborde les apports des « transformers » pour les images et leur mise en œuvre. Enfin, il présente les concepts d’apprentissage auto-supervisé et leur fonctionnement.



Apprentissage supervisé et non supervisé appliqué aux séries temporelles

Réseaux de neurones appliqués aux séries temporelles

Ce module présente des architectures neuronales particulièrement adaptées à la prévision de séries temporelles, notamment des réseaux neuronaux récurrents (RNN, dont LSTM et GRU) mais également des CNN et des transformers. Les autoencodeurs AE seront également étudiés ; ils permettent notament de réduire la dimension de séries temporelles avant un clustering, de détecter des valeurs typiques et peuvent même être utilisés en amont d’un modèle de prévision.



Droit et éthique de la donnée

Droit et éthique de la donnée

Ce module aborde les aspects juridiques et éthiques liés à l'utilisation des données. Il couvre les réglementations comme le Règlement Général sur la Protection des Données (RGPD) en Europe, qui régit la collecte, l'utilisation et la protection des données personnelles. L’accent sera mis sur la conformité légale, la gestion des risques et la manière de minimiser les biais algorithmiques. Sur le plan éthique, vous explorerez les dilemmes posés par l’intelligence artificielle et le machine learning, en particulier lorsqu'il s'agit d'équité, de transparence et d’impact social.



Éric Matzner-Lober<br><small>Responsable du certificat</small>

Éric Matzner-Lober
Responsable du certificat

Professeur de Statistique à l’Université de Rennes 2 et membre affilié au laboratoire National de Los Alamos, il a rédigé plusieurs livres sur R et les méthodes de régression. Il participe activement à des programmes de recherche en interaction avec des entreprises comme dans le project Smart Electric Lyon.

Fei Gao

Fei Gao

Diplômée de l’INSA en informatique, Fei GAO est professeur à l’Ecole des hautes études en santé publique et spécialisée dans la thématique de données massives en santé. Elle participe activement la mise en place de dispositif de formations au tour de Système National des Données de Santé en partenariat avec l’Assurance Maladie et l’Agence Technique de l'Information sur l'Hospitalisation. Elle anime des modules sur les traitements des données avec Python, R, SAS/SAS Enterprise Guide et aussi sur l’analyse spatiale (Arcgis et Qgis).

Vincent Lefieux

Vincent Lefieux

Vincent Lefieux est diplômé de l’ENSAI et titulaire d’un doctorat en Statistique (Université Rennes 2). Après avoir occupé des postes d’ingénieur chercheur à EDF R&D puis RTE R&D, il est actuellement responsable de la feuille de route IA à RTE. En parallèle il a donné de nombreux cours dans des écoles d’ingénieurs (ENSAI, ENPC, ENSTA) et a été maître de conférence associé (PAST) à l’UPMC de 2010 à 2015.

Alexandre Tuel

Alexandre Tuel

Ingénieur diplômé de l’Ecole polytechnique en 2017, Alexandre a ensuite obtenu en 2020 un doctorat en climatologie au MIT. Après trois ans de postdoc à l'Université de Berne, en Suisse, il rejoint aux Etats-Unis Geolabe LLC pour travailler sur l’analyse d’images satellites appliquée à la surveillance des variations millimétriques de la surface terrestre et des émissions de gaz à effet de serre. En 2024, il revient en France pour cofonder Galeio, une entreprise spécialisée dans la création de modèles de fondation pour les données géospatiales.