Sommaire

LE MOT DE L’INTERVENANT

La Data Science et les Business Analytics sont des éléments...

La Data Science et les Business Analytics sont des éléments essentiels de la nouvelle vague digitale mise en mouvement par l’utilisation avancée de la Donnée. Cette session vous donne des bases larges et solides pour appréhender les nouveaux projets, et interagir avec, orienter et évaluer des équipes de spécialistes. Elle est une première étape dans la construction d’une expertise, que vous pouvez ensuite compléter par des formations plus spécialisées en Machine Learning et en technologies Big Data.

Vinh PHAM-GIA
Vinh Pham-Gia est consultant, expert en Data Science. Il est intervenu sur des projets variés (appétence client marketing, analyse d’images, Yield Management…) pour des clients dans le domaine du tourisme, des mutuelles d’assurance ou de l’énergie.
Lire la suite Cacher le texte

 

 

Comment la révolution des données peut-elle contribuer à la performance de l’entreprise ?

Les grands acteurs du Web ont vulgarisé l’usage des Business Analytics et de la Data Science afin d’exploiter les données du Big Data. A l’heure où même la Maison Blanche se dote d’un CDO (Chief Data Officer), la culture de la Donnée se diffuse dans les entreprises et révolutionne les business models : Uber, Amazon, Airbnb, Google nous le démontrent tous les jours.

Il devient de plus en plus nécessaire aux décideurs, dans les fonctions métiers et IT, de comprendre les résultats que l’on peut obtenir, les limitations, les méthodes et les démarches des Business Analytics, de la Data Science et de la Data Visualisation. Ce séminaire leur permettra, grâce à l’acquisition de bases solides sur le sujet, de s’engager dans la transformation de leur activité en toute connaissance de cause.



Le déluge des données et comment en tirer parti


L’émergence de nouvelles sources de données

  • Économie digitale.
  • La révolution mobile.
  • Objets connectés.
  • Données non structurées.

Des nouvelles technologies pour maîtriser ce volume

  • Plafonnement sur les temps de traitement et d’accès séquentiels.
  • Réduction exponentielle des coûts de stockage.
  • Puissance de calcul et architectures parallélisées.
  • Logiciels d’analyse et de parallélisation.

Le modèle des grands du Web

  • Un modèle qui a prouvé son efficacité en contexte contraint.
  • Culture de la mesure.
  • Souplesse technologique.
  • Contribution Open Source.
  • L’Intelligence Artificielle comme cœur de métier des nouveaux acteurs.

Définitions et use cases métier


Définitions

  • Business Intelligence.
  • Business Analytics.
  • Big Data.
  • Dataviz.
  • Data Science & Intelligence Artificielle.
  • Algorithmic business.

La Donnée comme avantage concurrentiel

  • Clé d’amélioration des processus.
  • Au cœur de nouveaux produits.
  • Commercialisation de la Donnée.

Cas d’usages

  • Relations clients.
  • Anti-fraude.
  • Maintenance prédictive.
  • Analyse de fiches métiers.
  • Analyse de texte.
  • Energie.
  • Santé.

Méthodologie d’analyse de données


Le processus CRISP-DM

  • Comprendre la problématique métier.
  • Comprendre la Donnée.
  • Préparer la Donnée.
  • Modéliser.
  • Evaluer.
  • Déployer.

Une approche itérative expérimentale

  • Un processus non prévisible proche d’une démarche de recherche.
  • Une vraie démarche scientifique.

Des compétences clés

  • Bases de Données.
  • Architecture informatique.
  • Statistiques et probabilité.
  • Machine Learning.

Préparation de la Donnée


Collecte de la Donnée

  • Des formats de Données divers et variés.
  • Le Web Scraping pour collecter davantage de Données.
  • Les APIs.

Une qualité de données souvent insuffisante

  • Risque de dégradation de qualité lié au Big Data.
  • Véracité, ou la qualité des données au minimum.
  • Historique limité aux besoins opérationnels.

Stockage de la donnée (Data Warehouse et Data Lake)

  • Tirer partie du Data Warehouse.
  • Nouvelles approches Big Data : le Data Lake.
  • Pourquoi tout conserver ?

Gouvernance et RGPD

  • Nécessité d’une bonne gouvernance de la donnée.
  • RGPD (objectifs, grands principes et conséquences)

Infrastructures et outils informatiques


Boîte à outils data

  • La Workstation Data Science.
  • Open Source : R, Python.

Une infrastructure orientée données et usages

  • Architecture générale.
  • Ingestion des données : Batchs, Microbatchs et Streaming.
  • Lambda Architecture.
  • Stockage des données : Hadoop et HDFS.
  • SQL et NoSQL.
  • L’émergence de Spark.

Les solutions Cloud

  • Les promesses du Cloud : avantages et inconvénients.
  • Offres proposées en Analytics.

Rappels de statistiques et probabilités


Notion de base

  • Série statistique.
  • Variables aléatoires discrètes et continues.
  • Principales caractéristiques : médiane, moyenne, écart-type.
  • Représentations graphiques.

Corrélation vs causalité

  • Définition et représentation graphique de la corrélation.
  • Corrélation élevée n’implique pas causalité.
  • Exploiter les corrélations pour mieux comprendre les processus métier.

De l’inférence bayésienne au Machine Learning

Modélisation, algorithmes, évaluation


Types d’apprentissages

Apprentissage supervisé.

Démarche Data Science

  • Classification et régression.
  • Evaluation de modèles et métriques d’évaluation.
  • Overfit et underfit.
  • Compromis biais-variance.

Apprentissage supervisé.

Algorithmes classiques

  • Régressions linéaire et logistique.
  • Support Vector Machine.
  • Arbre de décision.
  • Random Forest.

Apprentissage non supervisé

  • Définition.
  • Algorithmes classiques : K-Means et Clustering hiérarchique.
  • Couplage avec du supervisé.

Recommandation

Visualisation : la Dataviz


Pourquoi visualiser ?

  • Le pouvoir de la Data Visualisation.
  • Depuis le XIXe siècle.
  • Interpréter les modèles.
  • Comment visualiser ?
  • À ne pas faire.
  • Deux métriques pour une visualisation efficace.
  • Mémoire et choix du message.
  • Encodage et décodage.
  • Différents types de visualisation.

Outils et technologies

  • Outils de visualisation.
  • Statique vs Interactif.
  • Solutions open source vs. commerciales.

Démarche projet


Démarche globale

  • Une démarche globale.
  • Étude de faisabilité.

POC

  • Prototypage : le point de départ.
  • Quelle évaluation.

Industrialisation

  • Les grandes phases précédant l’industrialisation.
  • Motivations pour industrialiser.
  • Méthodologie pour industrialiser.
  • Automatiser la prise de décision.

Mettre en production un modèle

  • La problématique.
  • Model as Code.
  • Les promesses des APIs.

Facteurs clés / Facteurs de risque

  • Facteurs clés de succès d’un projet.
  • Facteurs de risque d’un projet.

Réussir sa transformation par la Donnée


Une organisation pour innover par la Donnée

  • Stratégie data pour définir une organisation.
  • Centralisation vs Décentralisation.
  • Interne vs externe.

DataLab

  • Le Data Lab, une cellule transverse.
  • Motiver et installer un Data Lab.
  • Rôles et responsabilités au sein d’un Data Lab.

Recrutement

  • Les profils types.
  • Quels cursus et compétences ?
  • Faire progresser ses équipes.
  • Motiver et fidéliser.

Facteurs de succès

  • Réussir la transformation par la Donnée.
  • S’insérer dans une démarche de transformation digitale.
  • Communiquer.
  • Obtenir des moyens.
  • Montrer des résultats rapidement et régulièrement.
  • Soutenir l’effort dans la durée.
  • Exemple d’un projet à succès.