Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Dickers AMOKO

Expert Data | Consultant Blockchain

Machine Learning,
Data Mining - Data Visualization
Econométrie
Statistique
Blockchain: Tokénisation - Tokénomics - DeFi - NFT
Dickers AMOKO
Permis de conduire
Chelles (77500) France
Situation professionnelle
Freelance
Ouvert aux opportunités
Présentation
Diplômé en 2016 d'un Master spécialisé en Statistiques et Analyse Décisionnelle de l'Université de Caen Normandie, j'apporte depuis plus de 10 ans mon expertise aux directions d'études dans la conception d'outils d'aide à la décision et l'implémentation de méthodes statistiques avancées, avec une spécialisation en Data Science.

En tant que consultant certifié en Blockchain, j'accompagne également les entreprises et les Institutions dans la gestion et le déploiement de projets digitaux basés sur la technologie Blockchain, ainsi que dans la conformité aux réglementations des actifs numériques.


https://certificate.bcdiploma.com/check/98F3EEAF037D8576BD1E016F8877AF2DA0F4205B1C0B356B99DCF4626ABA6FB6RkhHYTl2RlVRQWhPbGlYeTJzTXg3eStkM0FQR0V0L1ZQS0k5UDRFZStpdkZpNW13

Data Scientist

YUBURA
Depuis septembre 2025
  • Mission :
    Accompagner YUBORA dans l’analyse économique et la valorisation de la donnée issue de sa plateforme SaaS afin d’optimiser la stratégie de croissance, le pilotage financier et la compréhension comportementale de ses utilisateurs (entrepreneurs, indépendants, TPE/PME).
  • Objectif : 
    Optimiser les indicateurs de performance (MRR, churn, LTV, rentabilité client) et appuyer la décision produit et financière.
  • Réalisations :
    ● Extraction et modélisation des données (PostgreSQL / API Axonaut / Python–Pandas).
    Construction d’un modèle de prévision du MRR/ARR et du taux de churn basé sur des modèles de Machine Learning (régression, random forest).

    ● Analyse économétrique de la structure de coûts et de la rentabilité par segment client.
    Création d’un dashboard économique et analytique intégrant les KPIs clés :
    • Revenus récurrents, taux de croissance mensuel, marge opérationnelle.
    • Segmentation clients par secteur et taille d’entreprise.
    • Evolution du churn et de la lifetime value (LTV).

    ● Elaboration d’un modèle de pricing dynamique et simulation d’impact sur le revenu.

    ● Rédaction de notes économiques et recommandations pour la stratégie produit et commerciale.
  • Environnement technique: Python, R, Power BI, Excel, SQL, SaaS Yubora.
  • Mission:
    Développement d’un système de reporting pour le suivi et l’analyse des performances des campagnes d'acquisition digitale.
  • Objectif : 
    ● Création d'un reporting opérationnel et stratégique permettant de suivre les performances des campagnes marketing digitales à l'aide de KPI spécifiques.
  • Réalisations :
    ● Conception et industrialisation du reporting marketing : développement d’un cube de données et d’un système de reporting automatisé multi-outils et multi-dimensions, assurant une vision consolidée des performances des campagnes digitales.

    ● Suivi opérationnel et communication managériale : maintenance et supervision des Dashboards, consolidation et présentation des KPI à la Direction sur des bases mensuelle, trimestrielle et annuelle.

    ● Pilotage de la performance et mesure d’efficacité : suivi des campagnes « fil rouge » et « temps fort » en évaluant l’impact des leviers médias (impressions, clics, conversions) sur les objectifs d’acquisition et de relation client.

    ● Analyse et modélisation statistique : mise en place de modèles d’analyse pour mesurer l’impact des campagnes sur les entrées en relation web et agence, et identification des leviers de performance.

    ● Segmentation et optimisation marketing : définition et ciblage des audiences prospects via segmentation comportementale et tests A/B pour optimiser la conversion et la personnalisation des messages.

    ● Data management et gouvernance : évaluation des use cases data et recommandations sur les processus de gestion des données pour fiabiliser les analyses et le pilotage marketing.
  • Environnement technique: SAS, R, Dataiku, SQL, Teradata, Excel, PowerBI, VBA.
  • Contexte :
    ● Intervention au sein de la DME (Direction Marché Européen), chargée de la gestion de l’importation et l'exportation de l’électricité en Europe.
  • Projet :
    ● Développement d’une application d’analyse de données et de détection d’anomalies pour les interconnexions aux frontières de la France.
  • Tâches réalisées :
    ● Cadrage du besoin métier
    ● Développement d’une fonctionnalité permettant l’envoi automatique de courriels aux experts concernés
    ● Développement de fonctionnalités complémentaires pour suivre différents KPI pour la surveillance des interconnexions
    ● Mise en production de l’application
    ● Utilisation de modèles permettant de prédire et produire des données jusqu’à J+1
    ● Ingestion, traitement, nettoyage et correction de données
  • Outils utilisés : R, Rconnect, Shiny, SQL
  • Programme enseigné:
    • Statistique décisionnelle
    • Statistique inférentielle
    • Statistiques et applications
    • Modélisation Statistique & économétrie
    • Analyse et traitement de données sous R
  • Contexte :
    Intervention au sein du périmètre ESANE (Élaboration des statistiques annuelles d’entreprises) qui produit des statistiques structurelles d'entreprises, c'est-à-dire une photographie annuelle de la population des entreprises appartenant au système productif et de leurs principales caractéristiques.
  • Projet :
    Gestion du référentiel OCSANE (Outil de Coordination des Statistiques Annuelles des entreprises, production en mobilisant au maximum des données administratives complétées par des enquêtes statistiques ad hoc et évolutions des outils pour le suivi et la gestion du référentiel OCSANE.
  • Tâches réalisées :
    ● Développement d’applications de contrôle et de surveillance des données
    o Participation à la road-map applicative
    o Développement de batchs
    o Correction des anomalies
    o Migration des apps basées sur SAS vers R
    ● Elaboration de modèles statistiques pour l’analyse des données structurelles d’entreprises
    ● Elaboration de l'échantillonnage pour enquêtes envoyées aux entreprises ciblées
    ● Collecte, traitement, nettoyage et mise en forme de données
    • Environnement technique : SAS, R, SQL, Excel, DBeaver
  • Contexte :
    SAUR est fournisseur d'eau potable et une entreprise de traitement des eaux usées
    pour les industries et les collectivités.
  • Projet :
    Développement d’un outil pour fiabiliser les données remontées par les agents intervenant sur le terrain, et faciliter la production de reportings.
  • Tâches réalisées :
    ● Renforcement des processus de collecte, de traitement et d’analyse des données
    ● Cadrage du besoin en discutant avec les différentes parties prenantes (agents de terrain, équipes métier, équipes IT)
    ● Participation à la road-map applicative
    ● Conceptualisation et mise en place de fonctionnalités complémentaires comme par exemple :
    o système de notification de relance lorsqu’une donnée incohérente ressort
    o niveaux de validation supplémentaires pour prévenir certaines erreurs récurrentes
    o développement de modèles de Machine Learning pour prédire le type d’erreurs qui
    allaient survenir
    ● Déploiement de l’outil et automatisation du lancement de l’ingestion et de la mise à jour
    des données
    ● Migration de services codés en R vers du Python
    ● Vérification de la cohérence des informations
    ● Suivi et gestion des projets d’exploitation
    ● Développement et production de reporting
    ● Rédaction de documentation
  • Outils utilisés : R, Python, SQL Server Management Studio, SQL Server Reporting Services (Report Builder), Excel - VBA
  • CRM – SERVICE : Etudes du CRM, Connaissance Clients, Mesure de l’impact de la campagne marketing et le retour sur investissement
  • FNAC – : Mesure de l’impact des campagnes journées Adhérents et mesure du CA additionnel
  • Outils utilisés : R, SPSS Modeler, R
  • Manipulation, traitement et analyse des données statistiques,
  • Gestion de la performance et l’automatisation des solutions de Data Management,
  • Développement et production de dashboards
  • Production et réalisation des études statistiques.
  • Réalisation de cartographies pour visualiser les données et localiser les performances géographiques.
  • ENVIRONNEMENT TECHNIQUE :
     R
     Python
     SQL
     Qlik Sense
     Cartes & Données
     Excel - VBA
  • CONTEXTE :
    L’Observatoire du Financement du Logement est une étude qui permet de suivre l’évolution du marché du financement par emprunt des opérations immobilières réalisées par les ménages français. Cette enquête nationale est réalisée chaque année par CSA auprès des
    établissements prêteurs de crédit
    immobilier et les Banques.
  • ACTIONS :
     Compilation, exploitation et traitement des données statistiques
     Modélisation et segmentation du marché de l’immobilier
     Production des tableaux de bord et des rapports d’études.
  • ENVIRONNEMENT TECHNIQUE :
     SAS
     Cartes & Données
     Excel - VBA
  • CONTEXTE :
    Le restaurant McDonald's de Courseulle-Sur-Mer, après un an d’activité, cherche à obtenir un retour sur la satisfaction et la perception de ses clients. Ce projet permet donc de mesurer la satisfaction des clients et, à travers la construction de l'indicateur Net Promoter Score, segmenter la clientèle en trois groupe (les clients Promoteurs, Passifs et Détracteurs).
  • ACTIONS :
     Conception du projet et de questionnaire d'enquête
     Pilotage et supervision de la collecte de données.
     Analyse et traitement de données
  • RESULTATS :
     Identifier les attentes, les facteurs de satisfaction et d'insatisfaction des clients.
     Mesurer la satisfaction et les attentes des clients
     Expliquer leur fidélité selon les différents critères de satisfaction
     Ressortir la typologie des clients
     Mesurer l’importance des composantes, du service ou du produit dans la satisfaction globale
  • ENVIRONNEMENT TECHNIQUE :
     SAS,
     R,
     Excel,
     QR-Code
  • CONTEXTE :

    A travers les données de l’enquête organisée par BIOMASS, ce projet consistait à rechercher les facteurs pouvant influencer la consommation du bois en terme de quantité utilisée dans la région de Haute-Normandie. Il s’agit donc de trouver des facteurs susceptibles d’expliquer la consommation de l'énergie dans cette
    région et d’en faire une prédiction pour les communes de la même région qui n’ont pas été enquêtées.
  • ACTIONS :

     Traitement, nettoyage et analyse exploratoire afin de déterminer les
    variables pour la modélisation (utilisation des techniques de Machine Learning)

     Validation du modèle à travers des données d’une enquête menée par l’entréprise Biomasse. Prédiction et (Analyse multivariée : ACM, ACP, segmentation)
  • RESULTATS :

     Trouver le meilleur modèle pouvant expliquer la consommation du bois : Mettre en valeur les facteurs ayant un impact « significatif » sur la quantité de bois utilisée

     Prédire, à travers les données de l’INSEE, la quantité de bois consommée dans les autres Communes qui n’ont pas fait l’objet de cette enquête.

     Cartographier les Communes par leur quantité de bois prédite.
  • ENVIRONNEMENT TECHNIQUE :

     SAS
     R
  • Conception et réalisation des enquêtes
  • Traitement et exploitation des données
  • Automatisation du tableau de bord et reporting
  • Réalisation des Webreporting
  • ENVIRONNEMENT TECHNIQUE :
     Sphinx IQ
     Excel - VBA,
     R
  • Réalisation des enquêtes de satisfaction et des études de suivi et d'évaluation
  • Traitement et analyse des données statistiques
  • ENVIRONNEMENT TECHNIQUE :

     Net-Survey
     Survey Manager,
     Ethnos,
     Excel
  • Réalisation d'une enquête
  • Traitement et analyse des données
  • Etudes d'évaluation et de la satisfaction
  • ENVIRONNEMENT TECHNIQUE :

     SPHINX
     SPSS
  • L’étude réalisée en 2011 et 2012 dans les sous-préfectures de Markounda et Kabo visait à analyser les besoins humanitaires des habitants, principalement les populations déplacées et retournés, pour mettre en œuvre des actions facilitant leur retour et leur maintien. Cette étude avait pour objectifs de :

     Estimation du nombre des déplacés et retournés

     Détermination des caractéristiques sociodémographiques des déplacés et retournés

     Appréciation des conditions de vie antérieures et actuelles des déplacés et retournés

     Collecte de données générales sur les besoins prioritaires de protection et d’assistance des déplacés et retournés

     Identification des mécanismes (capacités) d’adaptation des déplacés et retournés

     Identification des perceptions des retournés par rapport à leur retour

     Évaluation du niveau de cohésion sociale et de la situation psychosociale
  • PROFILAGE des PERSONNES DEPLACEES INTERNES (PDIs)

    https://docplayer.fr/69153363-Echelle-appui-au-developpement-profilage-des-personnes-deplacees-internes-pdis-dans-la-sous-prefecture-de-markounda.html
  • ENVIRONNEMENT TECHNIQUE :
     CSPRO
     SPSS
     Excel
  • Machine Learning / Deep Learning
    Avancé
  • Modèle de régression et de prévision
    Expert
  • Econométrie et série temporelle ;
    Expert
  • Marketing quantitatif et prédictif ;
    Expert
  • Etudes Connaissance clients / Analyse multivariée :
    *ACM, ACP, AFC, Segmentation, typologie
    *Arbre de Décision, Scoring, Forêt aleatoire, Réseau de neurones
    *Analyse de données textuelles
    Expert
  • Enquête & sondage
    Expert
  • Informatique Décisionnelle
    Avancé
  • Data Visualisation
    *Automatisation des tâches (Reporting/tableau de bord)
    *Qlik Sense
    *Tableau Software
    *Sphinx IQ (Web reporting)
    Avancé
  • Python
    Avancé
  • R
    Avancé
  • SAS
    Avancé
  • SQL
    Avancé
  • SPSS
    Avancé
  • Qlik Sense
    Avancé
  • Système de Gestion de Base de Données (SGBD)
    Avancé
  • Tableau Software
    Avancé
  • Carte & Données
    Expert
  • Sphinx
  • HTML / PHP / CSS
    Avancé
  • Blockchain
    Bon niveau
  • Cryptomonnaie
    Bon niveau
  • Smart Contract
    Bon niveau
  • Solidity
    Intermédiaire
  • NFT
    Bon niveau
  • DeFi
    Bon niveau
  • Tokenisation
    Bon niveau
  • Tokenomics
    Bon niveau
  • Intégration facile au sein d'une équipe
    Avancé
  • Adaptation rapide
    Avancé
  • Force de proposition
    Avancé
  • Forte capacité d'analyse
    Avancé
  • Méthodique
    Avancé
  • Rigoureux

Consultant Blockchain

Alyra, l'école de Blockchain

Janvier 2024 à avril 2024
Mettre en œuvre des solutions numériques avec les technologies blockchain:

  • Évaluation de la pertinence et la plus value de l'emploi d'une technologie blockchain dans un secteur ou une activité professionnelle;

  • Réalisation d’une veille efficace garantissant la pérennité, notamment juridique, de leur projets blockchain;

  • Capacité de d'organisation et de leadership pour accompagner une équipe dans la création et la valorisation d'une solution ou d'un projet blockchain;

  • Maîtrise des spécificités techniques de la blockchain en réalisant des transactions et en analysant celles déjà enregistrées sur la blockchain.

Compétences : Blockchain • Cryptomonnaie • Smart Contract • Solidity • NFT • DeFi • Tokenisation • tokenomics

https://certificate.bcdiploma.com/check/3709ED29F0C161335CDC6C00DFEFAAA3B91C40F5AD0DB21C0F6090EC9571CB19TFN5aFZDVFJwNU9TdFVZQmgrRVRrWkRmQUtvdXNEZWE1bTllMGo2bmZZV1hLa3Va

Master Mathématique et Informatique Appliquées aux Sciences Sociales

Université de Caen

Septembre 2014 à septembre 2016
Formation multidisciplinaire (Etudes statistiques, Mathématiques de la décision, Sciences économiques et sociales et Informatique décisionnelle).
En savoir +

Licence Pro. Statistique Informatique Décisionnelle

IUT STID, Université de Pau et des Pays de l'Adour

Septembre 2012 à août 2013
Maîtrise des outils et des méthodes pour le pilotage de l’activité et la mesure de la performance : application des méthodes statistiques et informatiques permettant d’élaborer des indicateurs et des tableaux de bord à destination des acteurs de l'entreprise.
En savoir +

Diplôme de Technicien Supérieur de Statistique

Institut Sous-régional de Statistique et d'Economie Appliquée (ISSEA)

Octobre 2009 à septembre 2011
Utilisation des outils statistiques pour la préparation des décisions de nature économique ou sociale concernant la nation ou les entreprises.
En savoir +