Diplômé en 2016 d'un Master spécialisé en Statistiques et Analyse Décisionnelle de l'Université de Caen Normandie, j'apporte depuis plus de 8 ans mon expertise aux directions d'études dans la conception d'outils d'aide à la décision et l'implémentation de méthodes statistiques avancées, avec une spécialisation en Data Science.
En tant que consultant certifié en Blockchain, j'accompagne également les entreprises et les Institutions dans la gestion et le déploiement de projets digitaux basés sur la technologie Blockchain, ainsi que dans la conformité aux réglementations des actifs numériques.
Développement d’un système de reporting pour le suivi et l’analyse des performances des campagnes d'acquisition digitale.
Objectif : ● Création d'un reporting opérationnel et stratégique permettant de suivre les performances des campagnes marketing digitales à l'aide de KPI spécifiques.
Réalisations : ● Conception et implémentation d'un cube de données et d'un reporting industrialisé, capable de gérer des requêtes multi-outils, multi-dimensions, et multi-cibles.
● Suivi des performances des campagnes fil rouge et temps fort, en mesurant l'efficacité des leviers média depuis l'impression jusqu'à la conversion.
● Présentation consolidée des KPI pour la Direction sur une base mensuelle, trimestrielle et annuelle.
● Connaissance clients: Analyse des donnéees de parcours clients
Contexte : ● Intervention au sein de la DME (Direction Marché Européen), chargée de la gestion de l’importation et l'exportation de l’électricité en Europe.
Projet : ● Développement d’une application d’analyse de données et de détection d’anomalies pour les interconnexions aux frontières de la France.
Tâches réalisées : ● Cadrage du besoin métier ● Développement d’une fonctionnalité permettant l’envoi automatique de courriels aux experts concernés ● Développement de fonctionnalités complémentaires pour suivre différents KPI pour la surveillance des interconnexions ● Mise en production de l’application ● Utilisation de modèles permettant de prédire et produire des données jusqu’à J+1 ● Ingestion, traitement, nettoyage et correction de données
Institut National de la Statistique et des Etudes Economiques (INSEE)
Octobre 2021
à février 2023
Paris
France
Contexte : Intervention au sein du périmètre ESANE (Élaboration des statistiques annuelles d’entreprises) qui produit des statistiques structurelles d'entreprises, c'est-à-dire une photographie annuelle de la population des entreprises appartenant au système productif et de leurs principales caractéristiques.
Projet : Gestion du référentiel OCSANE (Outil de Coordination des Statistiques Annuelles des Entreprises.
Tâches réalisées : ● Développement d’applications de contrôle et de surveillance des données o Participation à la road-map applicative o Développement de batchs o Correction des anomalies o Migration des apps basées sur SAS vers R ● Elaboration de modèles statistiques pour l’analyse des données structurelles d’entreprises ● Elaboration de l'échantillonnage pour enquêtes envoyées aux entreprises ciblées ● Collecte, traitement, nettoyage et mise en forme de données
Contexte : SAUR est fournisseur d'eau potable et une entreprise de traitement des eaux usées pour les industries et les collectivités.
Projet : Développement d’un outil pour fiabiliser les données remontées par les agents intervenant sur le terrain, et faciliter la production de reportings.
Tâches réalisées : ● Renforcement des processus de collecte, de traitement et d’analyse des données ● Cadrage du besoin en discutant avec les différentes parties prenantes (agents de terrain, équipes métier, équipes IT) ● Participation à la road-map applicative ● Conceptualisation et mise en place de fonctionnalités complémentaires comme par exemple : o système de notification de relance lorsqu’une donnée incohérente ressort o niveaux de validation supplémentaires pour prévenir certaines erreurs récurrentes o développement de modèles de Machine Learning pour prédire le type d’erreurs qui allaient survenir ● Déploiement de l’outil et automatisation du lancement de l’ingestion et de la mise à jour des données ● Migration de services codés en R vers du Python ● Vérification de la cohérence des informations ● Suivi et gestion des projets d’exploitation ● Développement et production de reporting ● Rédaction de documentation
Outils utilisés : R, Python, SQL Server Management Studio, SQL Server Reporting Services (Report Builder), Excel - VBA
CONTEXTE : L’Observatoire du Financement du Logement est une étude qui permet de suivre l’évolution du marché du financement par emprunt des opérations immobilières réalisées par les ménages français. Cette enquête nationale est réalisée chaque année par CSA auprès des établissements prêteurs de crédit immobilier et les Banques.
ACTIONS : Compilation, exploitation et traitement des données statistiques Modélisation et segmentation du marché de l’immobilier Production des tableaux de bord et des rapports d’études.
CONTEXTE : Le restaurant McDonald's de Courseulle-Sur-Mer, après un an d’activité, cherche à obtenir un retour sur la satisfaction et la perception de ses clients. Ce projet permet donc de mesurer la satisfaction des clients et, à travers la construction de l'indicateur Net Promoter Score, segmenter la clientèle en trois groupe (les clients Promoteurs, Passifs et Détracteurs).
ACTIONS : Conception du projet et de questionnaire d'enquête Pilotage et supervision de la collecte de données. Analyse et traitement de données
RESULTATS : Identifier les attentes, les facteurs de satisfaction et d'insatisfaction des clients. Mesurer la satisfaction et les attentes des clients Expliquer leur fidélité selon les différents critères de satisfaction Ressortir la typologie des clients Mesurer l’importance des composantes, du service ou du produit dans la satisfaction globale
A travers les données de l’enquête organisée par BIOMASS, ce projet consistait à rechercher les facteurs pouvant influencer la consommation du bois en terme de quantité utilisée dans la région de Haute-Normandie. Il s’agit donc de trouver des facteurs susceptibles d’expliquer la consommation de l'énergie dans cette région et d’en faire une prédiction pour les communes de la même région qui n’ont pas été enquêtées.
ACTIONS :
Traitement, nettoyage et analyse exploratoire afin de déterminer les variables pour la modélisation (utilisation des techniques de Machine Learning)
Validation du modèle à travers des données d’une enquête menée par l’entréprise Biomasse. Prédiction et (Analyse multivariée : ACM, ACP, segmentation)
RESULTATS :
Trouver le meilleur modèle pouvant expliquer la consommation du bois : Mettre en valeur les facteurs ayant un impact « significatif » sur la quantité de bois utilisée
Prédire, à travers les données de l’INSEE, la quantité de bois consommée dans les autres Communes qui n’ont pas fait l’objet de cette enquête.
Cartographier les Communes par leur quantité de bois prédite.
L’étude réalisée en 2011 et 2012 dans les sous-préfectures de Markounda et Kabo visait à analyser les besoins humanitaires des habitants, principalement les populations déplacées et retournés, pour mettre en œuvre des actions facilitant leur retour et leur maintien. Cette étude avait pour objectifs de :
Estimation du nombre des déplacés et retournés
Détermination des caractéristiques sociodémographiques des déplacés et retournés
Appréciation des conditions de vie antérieures et actuelles des déplacés et retournés
Collecte de données générales sur les besoins prioritaires de protection et d’assistance des déplacés et retournés
Identification des mécanismes (capacités) d’adaptation des déplacés et retournés
Identification des perceptions des retournés par rapport à leur retour
Évaluation du niveau de cohésion sociale et de la situation psychosociale