Enjeux éthiques et juridiques de la donnée

 
  1 jour       765       Tout public    
Objectifs de la formation

Acquérir les premiers réflexes juridiques à connaître pour la mise en place, la gouvernance, l’utilisation, la conception d’algorithmes, de « solutions Big Data », d’entrepôts de données ou autres solutions digitalisées manipulant des données au regard de :

  • la réglementation « informatique et libertés » française et Européenne en vigueur (RGPD),
  • la règlementation Européenne relative aux données non personnelles (Data Act),
  • la règlementation Européenne relative à l’encadrement de l’Intelligence Artificielle (IA Act),
  • et plus globalement du droit français de la propriété intellectuelle.

Prérequis

Cette formation ne nécessite pas de connaissance juridique spécifique.


Public visé

Cette formation est à destination des opérationnels : statisticiens, membres des directions informatiques, communication et marketing) manipulant, constituant ou dirigeant des flux de données dans le cadre de leurs fonctions.


Programme détaillé

La formation présente en introduction une mise en perspective des différents enjeux éthiques attachés au progrès technologique et à la digitalisation de la société.

Ces enjeux éthiques se traduisent par un ensemble de règles juridiques applicables à la conception d’algorithme, de nouveaux services (IoT, IA, entrepôts de données), et plus généralement à tout type de manipulation (collecte, scrap, interconnexions…) de données effectuées dans un environnement digital et/ou de BIG DATA. Sera ainsi par exemple traitée la question de l’impact du droit sur les traitements de données non structurées provenant de diverses sources mises au service de l’analyse prédictive et du profilage. Par des mises en situation (cas pratiques, FAQ), il s’agira de définir les bonnes pratiques au-delà de l’identification des sources de risques juridiques et de responsabilités.

A la théorie traditionnelle des trois « V » définissant le Big Data (volume, vitesse, vélocité), cette formation aura pour but de révéler la nécessité de prise en compte de deux « V » supplémentaires essentiels « validité » et « valorisation ».

L’impact de la réglementation : le « V » de Validité

  • Présentation et mise en perspective des définitions légales (données personnelles ou non, responsable de traitement, sous-traitant, destinataires des données, flux transfrontière etc.)
  • Quelles sont les obligations légales à respecter et responsabilités à prendre en compte lors de la mise en œuvre de solutions dites de BIG DATA, d’analyse prédictive, de profilage ou encore de statistiques utilisant des données à caractère personnel ou non ?
  • Quel processus doit être mis en œuvre pour assurer la sécurité juridique de telles opérations ?

L’impact du droit de la propriété intellectuelle : le « V » de Valorisation

  • Comment protéger / valoriser une solution BIG DATA d’analyse prédictive au regard du droit de la propriété intellectuelle ?
  • Comment s’assurer du respect des droits des tiers lors de la collecte et du traitement des données ? (Présentation et mise en perspective des définitions légales du droit des producteurs de base de données et de la contrefaçon de droit d’auteur)
  • Qu’est-ce que l’OPEN DATA ?
  • Quelles sont les perspectives, règles et contraintes applicables au regard de la règlementation Européenne des données non personnelles en lien avec l’ouverture et le partage de données ?

Les réglementations RGPD, Data Act et IA Act

 

Réglementation « informatique et libertés » française et européenne en vigueur (RGPD)
Le Règlement Général sur la Protection des Données (RGPD) est une réglementation européenne qui est entrée en vigueur le 25 mai 2018. Il vise à protéger les droits et les libertés des individus en ce qui concerne le traitement de leurs données personnelles. Le RGPD s’applique à toutes les entreprises et organisations qui traitent des données personnelles de résidents de l’Union européenne, indépendamment de leur propre localisation. Il impose des obligations aux responsables du traitement des données (organisations) et aux sous-traitants (entreprises qui traitent des données pour le compte d’autres organisations). Les principes clés du RGPD comprennent la transparence dans le traitement des données, le consentement explicite pour la collecte des données, le droit à l’effacement des données (le droit à l’oubli), le droit à la portabilité des données et l’obligation de notifier les violations de données.

Réglementation européenne relative aux données non personnelles (Data Act)
Le Règlement sur les données non personnelles (Data Act) est une législation européenne proposée visant à faciliter la libre circulation des données non personnelles à travers l’Union européenne. Les données non personnelles font référence à des informations qui ne peuvent pas être directement associées à une personne spécifique. Le Data Act vise à éliminer les obstacles à la libre circulation des données non personnelles et à promouvoir l’utilisation des services de cloud computing et des technologies de l’Internet des objets (IdO) dans l’UE. Il contient des dispositions sur la portabilité des données non personnelles, l’accès aux données par les autorités publiques, la concurrence loyale dans le marché des services de cloud computing et la coopération entre les autorités de contrôle des États membres.

Règlementation européenne relative à l’encadrement de l’Intelligence Artificielle (IA Act)
Le Règlement sur l’Intelligence Artificielle (IA Act) est une proposition de réglementation européenne visant à établir un cadre réglementaire pour l’utilisation de l’intelligence artificielle dans l’Union européenne. L’objectif de cette réglementation est de promouvoir l’adoption de l’IA tout en garantissant la protection des droits fondamentaux et des valeurs européennes. L’IA Act propose des règles pour les systèmes d’IA à haut risque, tels que les systèmes utilisés dans les domaines de la santé, des transports, de la sécurité et de la gestion des infrastructures critiques. Il impose des exigences telles que la transparence de l’IA, la documentation des systèmes d’IA, la surveillance humaine appropriée, l’évaluation de la conformité avant la mise sur le marché et l’enregistrement des systèmes d’IA à haut risque auprès des autorités de réglementation.