Résultats pour « Data science »

 
R pour la Data science
R s’impose comme un des langages outils pour la Data science. Sa rigueur et sa capacité à s’intégrer à des infrastructures techniques robustes en font un choix de prédilection pour les big data. Les objectifs sont de se familiariser avec les environnements de développement en R, acquérir les bases de la programmation en R pour traiter, visualiser et modéliser les données.

Python pour la Data science
Se familiariser avec les environnements de développement en Python Acquérir les bases de la programmation en Python pour traiter, visualiser et modéliser les données.

Spark pour la Data science
Maîtriser les principes de traitement de Spark et son architecture Développer des traitements distribués avec Spark Connaître les techniques de modélisation distribuées de Spark et construire des pipeline d’apprentissage et de prédiction Découvrir le traitement des données en flux avec Spark Streaming Connaître les modes d’industrialisation des traitements Spark

Les fondamentaux du Machine learning avec R
Comprendre les principes du machine learning : régression vs classification supervisée, biais-variance, sur-apprentissage, validation croisée… Connaître et savoir mettre en œuvre les méthodes de base en régression et classification supervisée : modèle linéaire généralisé (GLM), régression régularisée Appréhender les méthodes d’arbres (CART & random forest) et les mettre en pratique.

Panorama du Big Data
Avoir une vision des différents aspects des Big Data.

Crypto-actifs : les fondamentaux par la pratique
Connaître le fonctionnement des crypto-actifs Expérimenter avec les crypto-actifs : transactions, smart contracts, tokens, etc. Comprendre les enjeux associés aux crypto-actifs pour la finance de demain

Blockchain : enjeux pour la finance
Comprendre les grands principes sur lesquels reposent les protocoles blockchain Acquérir une culture générale sur l'écosystème blockchain Maîtriser les enjeux des protocoles blockchain pour le monde financier Étudier les stratégies blockchain des grands groupes et anticiper les développements futurs

Techniques de scoring
Savoir construire un score pour la prédiction d'un phénomène binaire, depuis la phase d'échantillonnage jusqu'aux restitutions finales.

Méthodes avancées de Data Mining
Faire le lien entre les méthodes de Data Mining usuelles et les méthodes issues de la recherche récente en apprentissage statistique, comme les méthodes à noyaux (SVM et SVR entre autres) et les méthodes d'agrégation (boosting, bagging, forêts aléatoires). Savoir mettre en œuvre ces méthodes sur des cas pratiques et juger de leur pertinence en fonction de l'objectif recherché.

Web-Scraping : méthodes d'extraction de données sur le web
Acquérir les notions théoriques et pratiques nécessaires à la mise en œuvre des techniques d'acquisition automatisées de données sur le web.

Sécurisation des données
Acquérir une vision globale des problèmes de sécurité des données en général et des contextes big data en particulier Comprendre l'étendue de la menace, les enjeux et les risques associés Disposer des bases nécessaires pour mettre en place une architecture de sécurité et comprendre les techniques de protection des données dans un contexte big data.

Visualisation des données avec R
Restituer l’information contenue dans les données ou les résultats des analyses effectuées de façon claire et didactique. Naviguer dans les données afin de trouver des pistes d’analyses.

Machine learning : bagging, gradient boosting, SVM avec R
Connaître et savoir mettre en œuvre les méthodes d’agrégation en régression et classification supervisée : bagging (random forest) et gradient boosting Connaître et savoir mettre en œuvre la méthode SVM en classification supervisée Savoir gérer empiriquement le risque de sur-apprentissage

Réduction de dimension et classification non supervisée (Clustering)
Cette formation permet de comprendre et savoir mettre en œuvre des techniques statistiques permettant de regrouper des individus en classes homogènes, ce que l’on nomme communément classification non supervisée ou clustering.

Enjeux éthiques et juridiques de la donnée
Acquérir les premiers réflexes juridiques à connaître pour la mise en place, la gouvernance, l’utilisation, la conception d’algorithmes, de « solutions _Big Data_ », d’entrepôts de données ou autres solutions digitalisées manipulant des données au regard de : la réglementation « informatique et libertés » française et Européenne en vigueur (RGPD), la règlementation Européenne relative aux données non personnelles (Data Act), la règlementation Européenne relative à l’encadrement de l’Intelligence Artificielle (IA Act), et plus globalement du droit français de la propriété intellectuelle.

Statistique textuelle pour le Text Mining
Explorer des corpus de nature différente (questions ouvertes, entretiens, mots associés, titres d’articles, etc.) au moyen de la statistique textuelle. Repérer des structures, des spécificités, des thématiques puis valoriser les résultats.

Introduction aux enjeux du Big Data en assurance
Comprendre et analyser les enjeux, les méthodes et les conséquences opérationnelles de l’utilisation du Big Data en actuariat.

Actuariat et Big Data : quels enjeux juridiques ?
Acquérir les connaissances juridiques nécessaires à la mise en place, l’utilisation, la conception de « solutions BIG DATA » dans la sphère de l’actuariat au regard des impératifs la loi n°78-17 dite « Informatique et libertés » du 6 janvier 1978 modifiée et du droit de la propriété intellectuelle.

Les fondamentaux du Deep learning avec Python
Comprendre et savoir mettre en œuvre les réseaux de neurones denses (DNN), à l’aide de l’algorithme de rétro-propagation (backpropagation) Comprendre et savoir mettre en œuvre les réseaux de neurones convolutifs (CNN) et le transfer learning Comprendre et savoir mettre en œuvre les réseaux de neurones récurrents (RNN) Comprendre et savoir mettre en œuvre les autoencoders (AE)

MLOps : principes, mise en œuvre et pratique
Connaitre et comprendre les principes du MLOps Identifier ses outils Préparer sa mise en place dans son organisation Le mettre en œuvre sur un cas pratique

MLOps : panorama et mise en place
Connaitre et comprendre les principes du MLOps Identifier ses outils Préparer sa mise en place dans son organisation

Les fondamentaux du Machine learning avec Python
Comprendre les principes du machine learning : régression vs classification supervisée, biais-variance, sur-apprentissage, validation croisée… Connaître et savoir mettre en œuvre les méthodes de base en régression et classification supervisée : modèle linéaire généralisé (GLM), régression régularisée Appréhender les méthodes d’arbres (CART & random forest) et les mettre en pratique.

Machine learning : bagging, gradient boosting, SVM avec Python
Connaître et savoir mettre en œuvre les méthodes d’agrégation en régression et classification supervisée : bagging (random forest) et gradient boosting Connaître et savoir mettre en œuvre la méthode SVM en classification supervisée Savoir gérer empiriquement le risque de sur-apprentissage

Les fondamentaux du Deep learning avec R
Comprendre et savoir mettre en œuvre les réseaux de neurones denses (DNN), à l’aide de l’algorithme de rétro-propagation (backpropagation) Comprendre et savoir mettre en œuvre les réseaux de neurones convolutifs (CNN) et le transfer learning Comprendre et savoir mettre en œuvre les réseaux de neurones récurrents (RNN) Comprendre et savoir mettre en œuvre les autoencoders (AE)

Pipeline de Machine Learning via Tidymodels en R
Clarifier les concepts de base de l’apprentissage automatique supervisé, tels que les types de modèles, les algorithmes courants et les métriques courantes Connaître la librairie « tidymodels » Implémenter un workflow complet de machine learning Être capable d’appliquer et de paramétrer ces méthodes pour résoudre des problèmes professionnels

Comprendre et adapter un Large Langage Model (LLM)
Comprendre les principes des Large Language Models (LLM) Savoir manipuler un LLM Adapter un LLM à son corpus documentaire

Statistique bayésienne
Comprendre la construction de modèle par assemblage hiérarchique de modules conditionnellement liés sous l'approche bayésienne. Réaliser une inférence bayésienne, notamment par des méthodes de simulation de type Monte-Carlo, et si besoin par des algorithmes Monte Carlo par chaînes de Markov. En faire le _scientific reporting_. Présenter l'articulation entre la théorie de la décision statistique et l'analyse bayésienne des données. Donner un point de vue critique de l'approche classique des statistiques qui se focalise sur la situation d'information parfaite.

Python intermédiaire
Acquérir les outils et techniques permettant d’effectuer des traitements sur les données, plus rapidement et plus efficacement Connaître les principaux packages d’analyse statistique

Python expert — Machine learning engineer
Maîtriser les bibliothèques Python les plus couramment utilisées pour la Data science, telles que Scikit Learn, Pandas, Plotly, Flask. Être capable de résoudre des problèmes concrets de classification et de régression supervisée en utilisant des algorithmes tels que les arbres de décision, la régression linéaire, les réseaux de neurones, etc. Mettre en œuvre une démarche MLOps pour déployer un modèle en production et gérer son cycle de vie de bout en bout. Savoir communiquer les résultats de manière claire et concise.

Python initiation
Manipuler une session de travail Python Distinguer les objets Python Mettre en œuvre des fonctions de Python pour manipuler un jeu de données

Python expert — Développement d’interfaces graphiques et dataviz avancée
Appréhender les problématiques de traitement visuel de l'information amplifiées par le développement du Big data Maitriser les librairies open source de dataviz Comprendre les possibilités offertes par Python en dataviz et le potentiel des librairies open source afin d'exploiter des données et de réaliser des visualisations pertinentes Acquérir les connaissances théoriques sur les principes de bases de conception et de réalisation de dataviz mais aussi le développement de savoir-faire pratiques directement utilisables en situation professionnelle