Banque et assurance dans l’univers du Big Data : enjeux et opportunités

 
  Toutes les formations  Data science
  2 jours       1950    
Objectifs

Les professionnels du secteur bancaire et des assurances possèdent déjà une réelle manne de données sur leurs clients. L’exploitation de données non structurées, comme les publications sur les réseaux sociaux, et la mise en œuvre des méthodes telles que le machine learning ou le deep learning peuvent contribuer à diversifier l’offre de services et à améliorer les process internes de ces entreprises. `

En deux jours de formation, vous saurez comment créer de la valeur, tirer profit de ces gisements de données et mener une démarche Big Data dans votre entreprise. Vous serez sensibilisés aux aspects juridiques et éthiques. Par la connaissance des dernières cyber-menaces et des solutions leur permettant de les éviter, vous pourrez anticiper la manière de garantir la sécurité de vos données, enjeu essentiel au maintien de la confiance des tiers.


Contenu

JOUR 1

Intervention de Olivier Lopez
Directeur de l’ISUP (Université Pierre et Marie Curie), Intervenant à l’Ensae-Ensai Formation Continue

Une fois les concepts de Big Data et de data science posés, nous verrons comment ils s’appliquent à la vie d’un produit d’assurance, de sa souscription à la gestion de ses risques en passant par la tarification. Nous pourrons ainsi mesurer les évolutions en cours et à venir concernant l’application du Big Data et de ses méthodes dans le domaine de l’assurance.

Panorama sur les enjeux stratégiques et opérationnels du big data liés à l’assurance et à son économie ; ses us et usages

La data science au service du marketing de l’assurance : ciblage de clients, valeur client, souscription en ligne…

La data science pour répondre aux problématiques de rétention de client : prévision des résiliations, risque de rachat, rétention de clients, lutte contre la fraude et l’anti-sélection…

Les applications dans le domaine de la tarification et du provisionnement, prédiction du risque : l’apport du Machine learning dans les méthodes et outils de suivi du risque, méthodes de conceptions de questionnaires de souscription en ligne, construction d’indicateurs de risque…

L’open data : quelles nouvelles sources de données ? Quelles en sont les utilisations possibles? Quels nouveaux risques posent-elles ? Quelles incertitudes ?

Objets connectés : de nouvelles données pour de nouveaux services

Nouvelles données, nouvelles méthodes, nouvelles compétences…

Intervention Marc Chemin et Gérard Haas.


JOUR 2

Intervention de Benoît Ravel
Directeur Général Datastorm

Les nouveaux moyens d’analyse, qu’ils soient informatiques ou mathématiques, offerts par les architectures big data permettent de nouvelles approches pour les activités de scoring dans le monde de la banque de détail. En effet, si les établissements bancaires sont longtemps restés cantonnés à la mise en place de modèles mathématiques classiques (régressions logistiques, probit, GLM) exploitant des données agrégées (en-cours moyens, volumes d’entrée, dépenses mensuelles par support…), il est désormais possible d’utiliser des techniques de Machine learning exploitant l’ensemble des historiques des transactions.

Après une présentation rapide des architectures et des différentes techniques exploitables, nous nous attacherons à quantifier les réels apports de ces nouvelles opportunités, en identifiant clairement ceux provenant de l’exploitation des données détaillées et ceux provenant de l’exploitation des nouvelles techniques d’analyse en grande dimension.

Pour cela, nous appuierons notre démonstration sur un cas concret d’analyse réalisé en partenariat avec une grande banque de détail et qui nous a permis de tester les techniques les plus innovantes de Machine learning (y compris les algorithmes de Deep-learning habituellement utilisés dans le traitement de reconnaissance d’image) pour la mise en place d’un modèle de défaut de paiement à court terme.

Intervention de Christophe Auberger
Directeur Ingénierie Systèmes Fortinet

Les organisations tirent parti du big data pour exploiter et analyser de vastes quantités de données afin de mieux appréhender de nombreux domaines. Cela amène une concentration et une multiplication des risques d’exposition, de vol, ou de perte de confiance des clients ou utilisateurs. La sécurité des données doit être considérée dans tous les aspects de l’infrastructure : de l’agrégation au stockage, du traitement à l’accès. Cela implique aussi la nécessité de plus de performance de sécurité et une plus grande visibilité des flux internes.

À l’ère numérique, l’information est la nouvelle monnaie. Comme l’information a de la valeur, elle est convoitée et les cybercriminels visent l’acquisition frauduleuse et la revente de données. Il y a plusieurs questions que nous devons essayer de comprendre afin de lutter contre ces cybercriminels : qui sont les coupables et correspondent-ils à un profil commun ? Quel est leur modèle économique et comment est-il mis en place ? A partir d’exemples et d’études de cas, vous serez sensibilisés à ce problème grave pour vous permettre d’anticiper. Actuellement, cette nouvelle ruée vers l’or pour la collecte et l’analyse big data crée des défis importants pour les réseaux, les centres de données et leur sécurité dans trois domaines clés :

  • Agrégation de données : les entreprises transfèrent des téraoctets de données sur de longues distances chaque jour. Cela crée des défis pour les produits de sécurité périmétriques traditionnels, tels que les pare-feu, car de nombreuses solutions ne sont pas conçues pour gérer un tel volume de flux et de sessions.

  • Traitement : l’analyse big data crée des flux de données asymétriques et le trafic latéral intra-serveurs croît de manière importante. Ce trafic doit être segmenté et inspecté, non seulement pour bloquer la diffusion des menaces persistantes avancées et les attaques ciblées, mais aussi pour protéger les données. Les architectures de sécurité doivent évoluer d’une approche périmétrique vers une conception hybride à plusieurs niveaux.

  • Accès et droits : la technologie est utilisée pour stocker et analyser des pétaoctets de données afin d’obtenir un meilleur aperçu des clients et des entreprises. Par conséquent, la classification de l’information devient critique comme sa propriété et les droits associés.


Modalités pédagogiques

Afin de mobiliser les participants, de multiplier les échanges et de faciliter l’assimilation des connaissances, cette formation alterne exposés théoriques et applications pratiques / cas concrets / travaux sur ordinateur.