cdo-en-2021

Retour sur le rôle de Chief Data Officer en 2021

Retour sur le rôle de Chief Data Officer en 2021

21 juin 2021

– 4 min de lecture

Maureen Delaloi

Senior Manager Digital Customer Experience

« La data actif essentiel et incontestable de nombreuses organisations ».

Il suffit de poursuivre cette phrase en citant 2 ou 3 chiffres clefs de grands cabinets de conseil en stratégie, et voilà l’argument d’autorité posé… Oui mais quand on a dit ça, hé bien, qu’est-ce qu’on en fait ?

« La data » est en effet transverse aux entités d’une organisation, source d’opportunités commerciales, d’innovation ou de relation client de qualité, mais elle est bien souvent jugée comme un sujet technique ou abstrait. Le rôle de CDO est encore récent dans de nombreuses organisations : il lui faut trouver sa place et la meilleure articulation avec les Métiers, la DSI, mais aussi la Direction Générale. Il y a donc un enjeu à ce que ce dernier asseye son rôle stratégique dans toute organisation qui veut gérer ses données comme des actifs stratégiques. Le Chief Data Officer a un rôle clef, transverse et à de multiples facettes pour exploiter pleinement le potentiel que représentent les données : compétences humaines, techniques et de leadership. Il doit incarner la transformation vers un mode d’organisation orienté données.

Constructeur de fondations stables

Partons du plus évident (mais pas forcément du plus simple !). Pour toute construction il faut des fondations stables, hé bien avec la data c’est pareil. Des « datas », objets parfois suspects et mal identifiés, sont stockées un peu partout dans les bases de données des entreprises, des Sharepoint collaboratifs ou des fichiers Excel sur le disque dur des collaborateurs… La clef sera dans un premier temps de maîtriser et de sécuriser ces données. Le CDO doit impulser cette dynamique, s’assurer que les données soient connues (recensement dans un data catalog par exemple), accessibles (stockage efficient ), de qualité (règle de gouvernance des données avec des data owners), conformes aux réglementations et à l’éthique (RGPD ou autre) et répondent à des cas d’usages simples et concrets (avant de vouloir faire de l’IA ne faut-il pas que les reporting opérationnels les plus basiques et indispensables soient bien accessibles par les bonnes personnes au bon moment et avec le bon niveau de qualité ?).

Le CDO : architecte et chef d’orchestre

Le Chief Data Officer doit être l’architecte (rôle opérationnel) et le chef d’orchestre (rôle stratégique) de ces projets de fondations en concertation avec les métiers et l’IT. Avec son équipe, il doit accompagner les métiers pour répondre aux usages à valeur et avancer de façon pragmatique. Rien ne sert de lancer 12 projets stratégiques sur la data en même temps : apporter des preuves concrètes en traitant de façon pertinente 2 ou 3 cas d’usages clefs pour améliorer les enjeux opérationnels et vous pouvez être certain que la dynamique métier autour de votre transformation data sera bien mieux lancée ! Il en est de même pour l’IT : il doit aussi soigner sa relation avec la DSI avec laquelle il doit travailler sur des solutions concrètes nécessaires à la mise en œuvre de sa vision data et des usages métiers. 

Le Chief Data Officer doit être fédérateur

Le CDO n’a pas nécessairement pour vocation à prendre en charge lui-même l’ensemble des sujets qui traitent de la donnée. Les métiers doivent être des acteurs de première ligne sur le sujet. Le CDO s’intègre régulièrement à un existant désordonné, où les sujets sont déjà plus ou moins traités, mais de façon dispersée. Il doit apporter la vision transverse tout en laissant de l’autonomie aux métiers. Dans la mesure où les équipes data se sont constituées et professionnalisées dans les grands groupes, l’enjeu se déplace aujourd’hui vers la capacité à faire travailler ensemble tous les départements de l’organisation. L’acculturation de l’entreprise et la formation des équipes sont au cœur des enjeux du CDO en 2021.

En résumé : le Chief Data Officer doit faire preuve de savoir-faire mais aussi de savoir-être. Il doit incarner la vision, adosser son action au sponsorship inconditionnel de la Direction Générale, tout en restant au contact des équipes métier et en travaillant avec bonne intelligence avec les équipes IT.

Chiefs Data Officers, si vous n’aviez qu’une idée à retenir de cet article : pour en tirer sa valeur, la data doit pouvoir être expliquée et comprise par ma grand-mère (et je précise que ma grand-mère n’est pas data scientist !) ; visez le pragmatisme et les sujets à valeur immédiate pour votre organisation. Cela fondera le socle indispensable de votre transformation data dans la durée : expériences, résultats concrets et crédibilité ! 

Les idées exposées ici sont peut-être évidentes pour certains, utiles pour d’autres ! En tout cas, chez Rhapsodies Conseil, au sein de notre équipe Transformation Data, nous essayons d’appliquer cela systématiquement, et nous pensons que c’est le minimum vital.

Parlons de votre projet !








    Les informations recueillies sur ce formulaire sont enregistrées pour pouvoir vous identifier et vous répondre. Plus d’informations concernant notre gestion des données sur notre page mention d’information.

    explicabilite-machine-learning

    Interprétez simplement vos modèles de Machine Learning

    Interprétez simplement vos modèles de Machine Learning

    17 juin 2021

    – 8 min de lecture

    Valentin Defour

    Consultant Senior Transformation Data

    A l’heure de l’omniprésence algorithmique dans une multitude de domaines de notre société, une commission européenne dédiée publiait, il y a un an déjà, un livre blanc mettant en lumière le concept d’IA de confiance. Si ce concept englobe une multitude de notions et d’axes de réflexion (prise en compte des biais, robustesse des algorithmes, respect de la privacy, …), nous nous intéresserons ici particulièrement à la transparence et l’explicabilité des systèmes d’IA. Dans cette optique et après un rappel des enjeux et challenges de l’explication des modèles, nous construirons un simple tableau de bord rassemblant les principales métriques d’explicabilité d’un modèle, à l’aide d’une librairie Python spécialisée : Explainer-Dashboard.

    Vous avez dit “explicabilité” ?

    L’IA Explicable est l’intelligence artificielle dans laquelle les résultats de la solution peuvent être compris par les humains. Cela contraste avec le concept de «boîte noire» où parfois même les concepteurs du modèle ne peuvent pas expliquer pourquoi il est arrivé à une prédiction spécifique.

    Le besoin d’explicabilité de ces algorithmes peut être motivé par différents facteurs :

    Quand on adresse cette problématique, il convient de définir les différents termes (étroitement liés) que l’on peut retrouver :

    Si l’on considère des travaux de chimie au lycée, une interprétabilité de cette expérience serait “on constate un précipité rouge”. De son côté, l’explicabilité de l’expérience nécessitera de plonger dans les formules des différents composants chimiques.

    Note : dans un souci de simplification, nous utiliserons largement le terme “explicabilité” dans la suite de cet article.

    Via l’explication d’un modèle, nous allons chercher à répondre à des questions telles que :

    Quelles sont les causes d’une décision ou prédiction donnée ?

    Quelle est l’incertitude inhérente au modèle ?

    Quelles informations supplémentaires sont disponibles pour la prise de décision finale ?

    Les objectifs de ces explications sont multiples, car dépendants des parties prenantes :

    Et concrètement ?

    Le caractère “explicable” d’une IA donnée va principalement dépendre de la méthode d’apprentissage associée. Les méthodes d’apprentissage sont structurées en deux groupes conduisant, selon leur type, à un modèle explicite ou à une boîte noire :

    Dans le cas d’un modèle explicite (linéaire, gaussien, binomial, arbres de décision,…), la décision qui en découle est nativement explicable. Sa complexité (principalement son nombre de paramètres) peut toutefois endommager son explicabilité ;

    La plupart des autres méthodes et algorithmes d’apprentissage (réseaux neuronaux, agrégation de modèles, KNN, SVM,…) sont considérés comme des boîtes noires avec néanmoins la possibilité de construire des indicateurs d’importance des variables.

    Lors du choix d’un modèle de Machine Learning, on parle alors du compromis Performance / Explicabilité.

    Récupérer les données et entraîner un modèle simple

    Pour cette démonstration, notre cas d’usage analytique sera de prédire, pour un individu donné, le risque d’occurrence d’une défaillance cardiaque en fonction de données de santé, genre, âge, vie professionnelle, …

    Si cette problématique ne revêt pas spécifiquement d’aspect éthique relatif à la transparence de l’algorithme utilisé, nous pouvons toutefois bien percevoir l’utilité de l’explicabilité d’un diagnostic de risque assisté par IA : collaboration facilitée avec l’expert métier (en l’occurrence, le médecin) et information plus concrète du patient, entre autres bénéfices.

    Le jeu de données éducatif utilisé est fourni par l’OMS et peut être téléchargé sur la plateforme de data science Kaggle :

    Il contient les données de 5110 personnes, réparties comme suit :

    Données :

    • Age du sujet ;
    • Genre du sujet ;
    • A déjà souffert d’hypertension (oui / non)
    • A déjà souffert de maladies cardiaques (oui / non)
    • Statut marital
    • Type d’emploi
    • Type de résidence (citadin, rural)
    • Niveau moyen sanguin de glucose
    • IMC
    • Fumeur (oui / non)

    Note : nous avons procédé à une simple préparation des données qu’il est possible de retrouver dans le notebook complet en bas de page.

    Pour la partie modélisation, nous utiliserons un modèle « baseline » de Random Forest. Pour éviter que notre modèle ne reflète seulement que la distribution des classes (très déséquilibrée dans notre cas, 95-5), nous avons ajouté des données “synthétiques” à la classe la moins représentée (i.e. les patients victimes de crises cardiaques) en utilisant l’algorithme SMOTE, pour atteindre une répartition équilibrée (50-50) :

    Notre modèle est prêt, nous pouvons à présent l’utiliser en input du dashboard !

    Création du dashboard

    Nous avons donc à disposition un modèle entraîné sur notre dataset et allons à présent construire notre tableau de bord d’interprétation de ce modèle.

    Pour ce faire, nous utilisons la librairie explainer-dashboard, qui s’installe directement via le package installer pip :


    pip install --upgrade explainerdashboard

    Une fois la librairie installée, nous pouvons l’importer et créer simplement une instance “Explainer” à l’aide des lignes suivantes :

    from explainerdashboard import ClassifierExplainer, ExplainerDashboard
    
    explainer = ClassifierExplainer(RF, X_test, y_test)
    
    db = ExplainerDashboard(explainer,
                           n_jobs = -1,
                            title="Heart Stroke Prediction Explainer"
                           )
    
    db.run(port=8050)

    Plusieurs modes d’exécution sont possibles (directement dans le notebook, dans un onglet séparé hébergé sur une IP locale, …) (plus d’informations sur les différents paramètres de la librairie dans sa documentation).

    Note : le dashboard nécessitera d’avoir installé la librairie de visualisation “Dash” pour fonctionner.

    Interprétation des différents indicateurs

    Le tableau de bord se présente sous la forme de différents onglets, qu’il est possible d’afficher / masquer via son paramétrage :

    Plongeons à présent dans les détails de chacun de ces onglets !

    Features Importance

    A l’instar de l’attribut feature_importances_ de notre modèle de Random Forest, cet onglet nous permet de visualiser, pour chaque colonne de notre dataset, le pouvoir de prédiction de chaque variable.

    L’importance des features a ici été calculée selon la méthode des valeurs de SHAP (acronyme de SHapley Additive exPlanations). Nous n’approfondirons pas ce concept dans cet article (voir rubrique “aller plus loin”).

    Ces scores d’importance peuvent permettre de :

    Dans l’exemple ci-dessous, on peut constater que :

    Classification Stats

    Cet onglet nous permet de visualiser les différentes métriques de performance de notre modèle de classification : matrice de confusion, listing des différents scores, courbes AUC, … Il sera utile en phase de paramétrage / optimisation du modèle pour avoir un aperçu rapide et complet de sa performance :

    Individual Predictions

    Cet onglet va nous permettre, pour un individu donné, de visualiser les 2 indicateurs principaux relatifs à la décision prise par le modèle :

    Le graphe des contributions : 

    La contribution d’un feature à une prédiction représente l’impact probabilistique sur la décision finale de la valeur de la donnée considérée.

    Suite à notre traitement du déséquilibre des classes, nous avons autant de sujets “sains” que de sujets “à risque” dans notre jeu de données d’apprentissage. Un estimateur aléatoire aura donc 50% de chances de trouver la bonne prédiction. Cette probabilité est donc la valeur “baseline” d’entrée dans notre graphe des contributions.

    Ensuite, viennent s’ajouter en vert sur le visuel les contributions des features pour lesquelles la valeur a fait pencher la décision vers un sujet “à risque”. Ces features et leur contribution amènent la décision à une probabilité de ~60% de risque.

    Puis, les features dont la contribution fait pencher la décision vers un sujet “sain” viennent s’ajouter (en rouge sur le graphe). On retrouve ici nos prédicteurs forts tels que l’âge ou encore l’IMC.

    On a donc :

    décision finale = 50% + probabilité(sain) + probabilité(à risque) = 5.08%

    > Le sujet est proposé comme sain par l’algorithme

    Le graphe des dépendances partielles :

    Ce visuel nous permet de visualiser la probabilité de risque en fonction de la variation d’une des features, en conservant la valeur des autres constantes. Dans l’exemple ci-dessus, on peut voir que pour l’individu considéré, augmenter son âge aura pour effet d’augmenter sa probabilité d’être détecté comme “à risque”, ce qui correspond bien au sens commun.

    What if Analysis

    Dans l’optique de l’onglet précédent, l’analyse “what if” nous permet de renseigner nous mêmes les valeurs des différents features et de calculer l’output du modèle pour le profil de patient renseigné :

    Il reprend par ailleurs les différents indicateurs présentés dans l’onglet précédent : graphe des contributions, dépendances partielles, …

    Features Dependance

    Cet onglet présente un graphe intéressant : la dépendance des features.

    Il nous renseigne sur la relation entre les valeurs de features et les valeurs de SHAP. Il permet ainsi d’étudier la relation générale entre la valeur des features et l’impact sur la prédiction.

    Dans notre exemple ci-dessus, le nuage de points nous apprend deux choses :

    Decision Trees

    Enfin, dans le cas où l’input du dashboard est un modèle à base d’arbres de décisions (gradient boosted trees, random forest, …), cet onglet sera utile pour visualiser le cheminement des décisions de la totalité des arbres du modèle.

    Dans l’exemple ci-dessous, nous considérons le 2712ème individu du jeu de données pour lequel 50 arbres ont été calculés via l’algorithme de Random Forest. Nous visualisons la matrice de décision de l’arbre n°13 :

    Ce tableau nous montre le cheminement de la décision, depuis une probabilité de ~50% (qui serait la prédiction d’un estimateur ne se basant que sur la moyenne observée sur le jeu de données). On peut constater que, pour cet individu et pour l’arbre de décision considéré :

    L’onglet nous propose également une fonctionnalité de visualisation des arbres via la librairie graphviz.

    L’étude des différents indicateurs présentés dans les onglets du dashboard nous a permis :

    L’étude de ces indicateurs doit être partie intégrante de tout projet d’IA actuel et futur

    L’explicabilité des modèles de Machine Learning, aujourd’hui considéré comme l’un des piliers d’une IA éthique, responsable et de confiance, représente un challenge important pour accroître la confiance de la société envers les algorithmes et la transparence de leurs décisions, mais également la conformité réglementaire des traitements en résultant.

    Dans notre cas d’étude, si la librairie explainer-dashboard est à l’initiative d’un particulier, on remarque une propension à l’éclosion de plusieurs frameworks et outils servant le mouvement “Fair AI”, dont plusieurs développés par des mastodontes du domaine. On peut citer le projet AIF360 lancé par IBM, une boîte à outils d’identification et de traitement des biais dans les jeux de données et algorithmes.

    Cette librairie est utile en phase de développement et d’échanges avec le métier mais peut toutefois ne pas suffire en industrialisation. Alors un dashboard “maison” sera nécessaire. Elle a toutefois un potentiel élevé de personnalisation qui lui permettra de répondre à de nombreux usages.

    Note : l’intégralité du notebook utilisé est disponible sur ce lien.



    Parlons de votre projet !








      Les informations recueillies sur ce formulaire sont enregistrées pour pouvoir vous identifier et vous répondre. Plus d’informations concernant notre gestion des données sur notre page mention d’information.

      Pour aller plus loin :

      principes-data-science-passer-du-metier-a-ux

      La data science, du besoin métier à l’UX : 4 principes clés

      La data science, du besoin métier à l’UX : 4 principes clés

      8 juin 2021

      – 6 min de lecture

      Jean-Baptiste Piccirillo

      Manager Transformation Data

      La data science est devenue un levier clé aujourd’hui, pour mettre les données au service de bénéfices et de problématiques métiers : Automatisation de tâches & de choix, Fourniture de nouveaux services « intelligents », Amélioration de l’expérience client, Recommandations, etc.

      C’est aussi une discipline qui passionne par son caractère particulièrement « innovant », encore aujourd’hui, mais qui génère des croyances sur ce qu’elle peut réellement apporter à une organisation. Certains dirigeants ont souvent donné trop de valeur intrinsèque à la discipline, s’attendant à des retours importants sur leurs investissements (data lake & armées de data scientist / engineers). 

      En réalité, la Data Science n’est qu’une technique qui a besoin de méthodologie et de discipline. A ce titre, elle nécessite au préalable de très bien définir les problèmes métiers à résoudre. Et quand bien même le problème est bien défini, et le modèle statistique pour y répondre performant, cela ne suffit pas encore. Le modèle doit être utilisable « en pratique » dans les processus métiers opérationnels, s’intégrer parfaitement dans l’expérience utilisateur, etc.


      Quels principes clés peut-on se proposer d’appliquer pour maximiser la valeur de cette capacité ? Essayons ici de donner quelques pistes. 

      Comprendre le métier : analyser les risques, les besoins d’optimisation, les nouvelles opportunités

      L’identification d’usages métier, qui nécessitent des méthodes d’analyse de données avancées, est une étape clé. Ces usages ne tombent souvent pas du ciel. Une démarche proactive avec les métiers est nécessaire pour les identifier. C’est d’autant plus vrai lorsque le métier est encore peu familiarisé avec les techniques de data science, et ce qu’il est possible d’en tirer concrètement. 

      C’est un travail de “business analysis”, dont la Data Science n’a absolument pas le luxe de se passer contrairement à ce qui est pratiqué parfois : Comment travaille le métier aujourd’hui ? Quels sont ses enjeux, ses drivers, ses axes d’innovation, ses axes d’optimisations des processus opérationnels en place, et quelles données sont manipulées aujourd’hui, comment et pour quoi faire ? Quel est le niveau de qualité de la donnée, manque-t-il des informations clés pour répondre aux problèmes quotidiens, ou pour innover ? etc. 

      Quand on est au clair sur toutes ces questions, on est prêt à identifier des usages concrets avec le métier, qui pourraient bénéficier de techniques d’analyse avancée.

      Comprendre l’usage et le système concerné : adopter le point de vue systémique !

      Imaginons que nous cherchons à prédire le flux de patients sur un jour donné dans un hôpital, afin d’adapter les ressources, les processus, les dispositifs pour limiter le temps d’attente. Il convient, avant de foncer tête baissée dans l’analyse des données, de comprendre l’ensemble de la problématique. Par exemple, les approches de « system thinking » peuvent être tout à fait adaptées pour que le data scientist s’assure de ne pas oublier de paramètres clés dans la dynamique du problème qu’il veut résoudre. Ainsi, il n’oubliera pas non plus des données clés pour son modèle (existantes ou dont il faudrait organiser la collecte à l’avenir pour améliorer le modèle).


      Ce type de représentation (ici : Causal loop diagram), peut permettre au métier de s’exprimer sur le processus, sur l’identification des variables clés, et de formuler ses intuitions sur les paramètres et les dynamiques en jeu qui peuvent influer sur la variable à prédire ! (ici les influences positives ou négatives entre les variables structurantes décrivant la dynamique du système). 

      Le diagramme ci-dessus n’est qu’un exemple de représentation systémique, on peut adopter d’autres types de représentation du système au besoin. L’important étant d’étendre la compréhension du système, qui peut nous amener à identifier des variables cachées (non intuitives a priori).

      Concrétiser un usage : prototyper au plus tôt avec le métier, dans son environnement de travail, au risque de rester éternellement au statut de POC !

      Une fois que le système est bien défini, et que les hypothèses et intuitions sont posées, il faut comprendre : comment le modèle analytique sera concrétisé en pratique, qui sera l’utilisateur final, quel est son environnement de travail actuel et comment on pourra intégrer les résultats d’un modèle statistique dans son travail quotidien. 

      Une technique simple et confortable pour le métier : faire un prototype rapide, même avec des fausses données pour commencer, des faux résultats de modèles statistiques. Bref, l’idée est rapidement de se projeter dans l’usage final de la manière la plus concrète possible, pour aider le métier à s’inscrire dans sa future expérience. Évidemment, nous ne resterons pas éternellement avec des fausses données.

      L’objectif est d’être tout à fait au clair, dès le départ, sur le produit fini que l’on veut atteindre, et de s’assurer que le métier le soit tout à fait (ce qui est loin d’être toujours le cas). Ensuite, nous pourrons pousser le prototype plus loin (des vrais données, des vraies conditions pour évaluer la performance, etc.).

      Cette méthode permet au data scientist de se mettre à la place de l’utilisateur final, et de mieux comprendre comment son modèle devra aider (est-ce qu’il doit apporter juste une classification, un niveau de probabilité, des informations contextuelles sur la décision prise par le modèle, est-ce qu’il doit favoriser le temps de réponse, l’explicabilité, la performance du modèle, etc.). Toutes ces questions trouvent rapidement une réponse quand on se projette dans le contexte d’usage final.

      Interagir par itération avec le business, éviter l’effet Kaggle

      Nous pouvons rencontrer parfois un comportement (compréhensible), qui est de vouloir faire le modèle le plus performant possible, à tout prix. On passe des heures et des jours en feature engineering, tuning du modèle, on tente toutes combinaisons possibles, on ajoute / teste des données exotiques (au cas où) qui ne sont pourtant pas identifiées en phase de “business analysis”. Je l’appellerai l’effet « Data Challenge » ou l’effet « KAGGLE*». 

      Et après avoir passé des jours enfermés dans sa grotte, on arrive tout fier devant le métier en annonçant une augmentation de 1% du score de performance du modèle, sans même avoir songé que 1% de moins pourrait tout à fait répondre aux exigences du métier…
      Comme on dit… « Le mieux est l’ennemi du bien ». Pour éviter cet effet tunnel qui peut être tentant pour l’analyste (qui veut annoncer le meilleur score à tout prix ou qui joue trop sur Kaggle*), des itérations les plus fréquentes possibles avec le métier sont clés. 

      Arrêtons-nous au bon moment ! Et cela vaut pour toutes les phases du projet. Commençons par chiffrer le système décrit en phase de business analyse, avec des données réelles, et itérons avec le métier sur cette base. Cela permet d’améliorer déjà la compréhension du problème du data scientist, et du métier concerné. Et cela a déjà une vraie valeur pour le métier ! Alors qu’aucun modèle statistique n’a été conçu pour le moment. 

      Si un modèle nécessite des données inexistantes, organisons la collecte de ces données avec le Chief data officer, dans le temps. Mais ne nous battons pas à vouloir faire un modèle avec des miettes, si nous savons que cela ne permettra pas d’être à la hauteur des attentes opérationnelles. 

      Le Data Scientist peut avoir aussi ce réflexe un peu étrange de dire « On va essayer, on va faire avec ce qu’on a et on verra ! » comme s’il croyait lui-même que son métier relève de l’incantation. 

      Evidemment, je ne fais là aucune généralité. Le rôle d’expert nous oblige à prendre nos responsabilités, et à dire « Non, après examen et quelques tests, je ne suis pas confiant du tout pour répondre à votre besoin avec les données qu’on a aujourd’hui ». Humilité, responsabilité et transparence, à chaque itération avec le métier, sont de mise.

      On trouve souvent ce risque de dérive dans la relation Expert vs Métier. Ne tombons pas dans le piège de jouer sur l’ignorance de l’autre pour se créer un travail inutile ! 

      Ces quelques principes sont peut-être évidents pour certains, utiles pour d’autres ! En tous les cas, chez Rhapsodies Conseil, au sein de notre équipe Transformation Data, nous essayons d’appliquer cela systématiquement, et nous pensons que c’est le minimum vital. 

      Pour nous, traiter un usage BI & Analytics, c’est le traiter dans son ensemble, de manière systémique ! Notre solution finale n’est pas un modèle statistique. Notre solution finale est potentiellement un modèle statistique, mais aussi une gouvernance adaptée pour avoir la qualité de données nécessaire, un modèle qui s’adapte à l’expérience utilisateur souhaitée (et pas l’inverse), et un suivi du ROI de l’usage analytique et de sa pertinence par rapport à la stratégie de l’entreprise.

      Parlons de votre projet !








        Les informations recueillies sur ce formulaire sont enregistrées pour pouvoir vous identifier et vous répondre. Plus d’informations concernant notre gestion des données sur notre page mention d’information.

        Paiements-de-compte-a-compte-en-proximite-Prerequis-et-interet

        Paiement de compte à compte en proximité – Prérequis et intérêt

        Paiement de compte à compte en proximité - Prérequis et intérêt

        2 juin 2021

        – 2 min de lecture

        Ikbel Snoussi

        Senior Manager Retail Payments

        J’ai eu le plaisir d’introduire la table ronde « Le futur du paiement de proximité », organisée par le groupe de travail Perspectives & Innovations du France Payment Forum. J’ai présenté une synthèse des différents éléments qui pourraient favoriser la construction de nouveaux parcours utilisateurs en proximité, à commencer par l’émergence et le développement des schemes de Real Time Payment 

        En effet, depuis le Zengin japonais lancé en 1973, les schemes de paiement en temps réel n’ont cessé de se développer et se généraliser avec une certaine accélération sur les dernières années. Les derniers en date étant le SCT Inst en Europe en 2017, la Malaisie et la Roumanie en 2019 et le Vietnam en 2020.

        Un environnement favorable

        Parmi ces initiatives, les transferts de compte à compte en proximité constituent une partie significative des cas d’usage. Une analyse comparative fait apparaître des similitudes en termes d’écosystème. En effet, au-delà de l’existence d’un scheme de real time payment, nous remarquons la présence de catalyseurs tels que :

        Pour quels bénéfices ?

        Toutefois, bien que ces catalyseurs favorisent indéniablement l’émergence de nouveaux usages, le véritable challenge reste celui de l’adhésion à la fois des consommateurs et des marchands. Pour cela, la nouvelle proposition de valeur devra résoudre un véritable pain point ou bien améliorer substantiellement un usage existant. Parmi les bénéfices attendus de la part des consommateurs, nous pouvons citer :

        Du côté des commerçants il sera important de :

        Comment s’y prendre ?

        Face à cet objectif de fluidification de l’expérience utilisateur, plusieurs approches sont envisageables. A titre d’exemple, le tableau récapitulatif présenté ci-dessous fait le parallèle entre le modèle du consortium Bizum, fruit de la coopération de 31 banques espagnoles, et celui de la FinTech (AISP/PISP) Vibe Pay.

        Bien que sensiblement différents en termes de scheme sous-jacent, de stratégie de couverture et de moyen, il est à noter que les deux modèles adressent les mêmes cas d’usage, à savoir le P2P, l’e-commerce et le paiement en proximité. De ce fait, le dernier challenge à relever, et non des moindres, sera de construire une expérience d’achat unifiée sans coutures

        Pour atteindre cet objectif, il est essentiel d’intégrer le paiement bien en amont lors de la conception de l’expérience utilisateur afin qu’il se fonde dans le parcours d’achat et non pas être un nième moyen de paiement qui arriverait en bout de chaîne.

        Les autres articles qui peuvent vous intéresser

        7-question-comparer-couts-solutions-paiement

        Solutions de Paiement – 7 questions pour comparer les coûts

        Solutions de Paiement - 7 questions pour comparer les coûts

        18 mai 2021

        – 3 min de lecture

        Outre l’offre bancaire classique, la France compte plus de 600 FinTechs, dont pas moins de 150 PayTechs. Bonne nouvelle au niveau de l’offre, mais comment s’y retrouver au moment du choix de solution de paiement, que l’on soit commerçant, marketplace, fournisseur de service en ligne, association…

        Les critères à prendre en compte sont multiples dans le choix de son PSP. Concentrons-nous ici sur le critère économique, autour de 7 questions visant à :

        1. Quel est le positionnement du PSP ?

        Derrière le check-out ou plus généralement l’ordre client, nombreux sont les intervenants dans la chaîne de paiement. Les stratégies fournisseurs varient largement :

        Le couplage Acceptation / Acquisition illustre cette problématique de périmètre, avec ses conséquences directes sur l’analyse des coûts : 

        2. Quelle est votre maîtrise de vos volumes d’opérations de paiement ? 

        « La prévision est difficile surtout lorsqu’elle concerne l’avenir… ». Au moment du choix d’une solution de paiement, il peut être difficile d’évaluer les volumes d’opérations, leur répartition par moyen de paiement

        S’ils sont bien maîtrisés, les propositions plus détaillées (jusqu’à 25 paramètres recensés dans notre grille d’analyse) pourront permettre d’optimiser les coûts, au prix d’un engagement dans la durée, de minima de volumes, de conditions de modification et de sortie….

        Dans l’autre cas, les propositions plus flexibles et plus intégrées seront plus adaptées à un modèle économique à prouver.

        3. Quelle palette de moyens de paiement ?

        couts des moyens de paiement

        Les nouveaux PSP se sont d’abord développés sur le modèle de la carte, en tant que moyen de paiement privilégié des clients, en ligne et en magasin.

        Les autres moyens de paiement (Virement, Prélèvement…) ont depuis commencé à percer, notamment pour des raisons de coût à la transaction.

        Le Virement Instantané va contribuer à élargir cette palette, en concurrence directe avec la carte, à la fois au niveau des coûts, mais aussi pour des paiements supérieurs aux plafonds cartes.

        Au niveau de la comparaison des coûts, les PSP proposant ces différents moyens de paiement bénéficieront de coûts moyens inférieurs aux pure-players de la carte.

        4. Faut-il prévoir des coûts complémentaires pour les retries, rejets, chargebacks, reporting… ?

        Au-delà du traitement nominal des opérations, il est important d’intégrer aussi les cas d’exception (trop nombreux d’ailleurs, pour être qualifiés d’exceptions…). 

        Là encore, les PSP se distinguent entre :

        5. Quel impact sur la fraude et les charges internes ?

        La fraude intervient dans la comparaison économique des PSP à 2 niveaux :

        Outre la fraude, d’autres postes de charge interne sont touchés par le choix du PSP :

        6. Encaissement direct ou reversement ?

        Au-delà des coûts de transaction, les offres des PSP peuvent aussi impacter la trésorerie. Deux modèles coexistent :

        7. Quels coûts de mise en œuvre de la solution de paiement ?

        cout mise en oeuvre solution de paiement

        Au-delà des coûts de fonctionnement traités plus haut, les coûts de mise en œuvre peuvent aussi varier :

        En conclusion, la multiplication des PSP a apporté une plus grande richesse des services de paiement. Elle a aussi rendu plus complexe la comparaison des offres, au moment du choix du Prestataire de Services de Paiement.

        Rien que sur le critère des coûts, la comparaison nécessite de prendre en compte le modèle économique du PSP, sa position dans la chaîne de bout en bout, la palette de moyens de paiement supportés, la fraude, les optimisations possibles sur les charges internes et les opportunités des solutions de digitalisation dans l’entreprise…

        En rappelant toutefois que l’équation économique repose avant tout sur le taux de transformation client et que la fluidité du parcours de paiement proposé par le PSP précède la question du coût !

        Alors, rendez-vous sur nos prochains articles sur le choix des solutions de paiement pour éclairer l’ensemble de ces critères.

        Les autres articles qui peuvent vous intéresser

        Comment-booster-puissance-dapprentissage-grace-aux-Neurosciences

        Comment booster votre puissance d’apprentissage grâce aux neurosciences ?

        Comment booster votre puissance d'apprentissage grâce aux neurosciences ?

        4 mai 2021

        – 7 min de lecture

        Jérôme Lesage

        Manager Organisation Apprenante & Leadership Agile

        La science au service de notre cerveau

        À travers cet article, je vous invite à une introduction au vaste monde des neurosciences et à la compréhension des mécanismes d’apprentissage de notre cerveau. Ces mécanismes sont d’autant plus complexes, qu’outre la compréhension de l’apprentissage et de l’attention, la mémorisation, les émotions et la motivation sont, parmi d’autres, des facteurs prédominants à prendre en compte dans l’apprentissage de nouvelles informations.

        Quand on évoque le cerveau, beaucoup de mythes et de croyances accumulés au fil des temps ressurgissent. 

        Parmi les plus connus : 

        Ce n’est qu’un échantillon des nombreuses croyances que l’on peut trouver facilement sur internet. Nombreux de ces mythes ont été cassés par l’essor des neurosciences (science du cerveau) qui a pour objectif de mieux comprendre le fonctionnement de notre cerveau.
        Les neurosciences n’ont pas seulement permis la déconstruction de mythes, mais nous éclairent sur le fonctionnement de notre cerveau et permettent la mise en lumière des mécanismes d’apprentissage et d’en tirer des leçons pédagogiques.
        Ces études révèlent que le cerveau est doté d’un immense appétit d’apprentissage mais que ses capacités d’assimilation sont limitées et vite dépassées. 
        Lors d’un nouvel apprentissage, l’avant du cerveau, cortex préfrontal qui commande les opérations, se mobilise fortement. L’attention d’un débutant est fortement sollicitée par sa mémoire de travail et elle diminue très vite.  
        Au fil des répétitions, l’apprentissage va s’automatiser et demander de moins en moins d’énergie. L’activité neuronale se déplace progressivement de l’avant vers l’arrière du cerveau où se situe les automatismes. Le cerveau exécutif ainsi libéré devient disponible pour un nouvel apprentissage. 

        Cette capacité d’apprentissage est donc limitée :

        1. Par notre énergie dépensée à se concentrer sur un nouveau sujet.
        2. Par le temps d’apprentissage nécessaire pour basculer l’activité neuronale de l’avant à l’arrière de notre cerveau. Autrement dit, rendre ce nouvel apprentissage un automatisme que le cerveau va pouvoir gérer en tâche de fond. 

        Un bon exemple, que j’ai repris de l’ouvrage Neuro Learning, est celui de l’apprentissage de la conduite. Lors des premières leçons, l’élève a besoin de beaucoup de concentration pour se focaliser sur la route tout en apprenant à manipuler les commandes. Au fur et à mesure des heures accumulées, des automatismes se créent. L’attention se porte principalement sur la route et la gestion des commandes se fait de manière instinctive, sans besoin d’y réfléchir. Cela marque le passage de l’utilisation principale de l’avant du cerveau vers l’arrière, siège de l’automatisme, qui caractérise le stade de l’expert. 
        Pour aller plus loin dans la compréhension des modes d’apprentissage, vous pouvez vous tourner vers les travaux de Barbara Oakley, célèbre professeure américaine d’ingénierie à l’Université d’Oakland et à l’Université McMaster, dont les cours en ligne sur l’apprentissage font partie des cours de MOOC les plus populaires au monde. 
        Il est donc important de bien comprendre les mécanismes d’apprentissage de notre cerveau pour en optimiser la quantité d’information retenue et sa durée dans le temps.  
        Voici 8 astuces pour aider votre cerveau : 

        1. Esprit sain dans un corps sain

        esprit sain dans corps sain

        Notre capacité d’apprentissage est directement liée à notre condition physique. L’apprentissage de nouvelles connaissances demande de la concentration et donc de l’énergie pour maintenir cette concentration au maximum dans le temps. Il est donc primordial d’avoir une bonne hygiène de vie. 
        Garder une bonne condition physique, se reposer en respectant ses rythmes de sommeil, avoir une alimentation saine et équilibrée sont autant de facteurs qui faciliteront l’apprentissage. Bougez, sortez, faites du sport, ces activités vous permettront d’avoir un corps énergique et en bonne santé.

        Astuce : pourquoi ne pas utiliser le temps gagné dans les transports grâce au télétravail pour rechausser vos baskets ou ressortir votre tablier de cuisinier ? 

        2. Se mettre en condition pour apprendre 

        Lors d’une phase d’apprentissage, le cerveau n’est pas capable de se concentrer sur plusieurs choses à la fois. Il ne fait que d’aller et venir entre les différentes tâches à accomplir ce qui demande une grande source d’énergie. Pour maximiser un apprentissage, il est primordial de se mettre dans de bonnes conditions : 

        Astuces :

        • Ne pas hésiter à s’isoler dans une salle de réunion pour travailler sur un sujet. Pourquoi ne pas vous aménager un espace bureau au lieu de vous répandre sur la table du salon ? 
        • Quitte à regarder les réseaux sociaux, prenez un moment dédié à cette activité et assouvissez ce besoin. Cela aura pour effet de libérer votre esprit et de focaliser votre attention sur la prochaine tâche à accomplir. 
        • Désactiver les notifications sur votre ordinateur et/ou de votre smartphone. 

        3. Alléger votre cerveau 

        alleger votre cerveau

        Astuce :  Gardez du temps pour faire des pauses et gérer l’imprévu, et restez réaliste sur les tâches à accomplir pour ne pas être démoralisé en fin de journée en voyant la longue liste de tâches remise au lendemain.

        4. Être attentif à vos humeurs 

        Émotions et motivations sont étroitement liées. Un certain niveau de stress favorise la performance mais les effets s’inversent au-delà d’un seuil et l’impact devient néfaste. Les émotions négatives nous font focaliser sur les détails, diminue notre capacité d’exploration et inhibe partiellement, voir totalement, notre capacité de raisonnement.

        En cas de menace, l’information va directement déclencher la réaction automatique de stress (fuite, attaque, ou sidération). Ce phénomène inhibe le système exécutif et est toujours prioritaire puisqu’il assure notre survie. Mais il a pour effet de rendre l’information inaccessible au raisonnement et donc à l’apprentissage. 
        À l’inverse, les émotions positives ont pour effet l’élargissement de la pensée et du comportement, favorisant la curiosité, l’apprentissage et la créativité.  
        Il est donc impératif de réguler ses émotions en limitant l’induction d’émotions négatives et en favorisant les émotions positives. 

        Astuces : 

        5. Adapter votre rythme de travail aux capacités de votre cerveau

        Votre cerveau a besoin d’énergie mais également de temps pour apprendre. Il est important de prendre un rythme d’apprentissage en adéquation avec votre cerveau. 
        Les neurosciences nous apprennent que la clef est dans la répétition. 

        La loi de Hebb a démontré que pour chaque nouvelle tâche apprise, une nouvelle trace (réseau de neurones connectés) est créée dans notre cerveau. Cette nouvelle trace est fragile et demande à être rapidement réactivée pour avoir une chance d’être conservée. Il est donc primordial de revenir fréquemment sur des notions apprises pour les ancrer dans notre cerveau. 

        Astuce :  Ancrer les concepts en les retravaillant de manière régulière. Vous pouvez par exemple suivre un schéma de répétition par espacement croissant : 

        6. Chercher le fameux Eureka 

        Qui n’a jamais eu ce moment de grâce en trouvant la solution à un problème sous la douche ou lors de sa séance de sport. 

        Lorsque l’on est confronté à un problème, nous restons souvent focalisés sur celui-ci sans prendre le temps de lever la tête. Or, cette pratique n’est pas le moins du monde efficace car elle ne laisse pas le temps au cerveau de travailler sur le problème. 

        Lorsque l’on prend une pause et que l’on arrête de se pencher sur la résolution d’un problème, notre cerveau reste actif et continue d’analyser la problématique en tâche de fond. C’est un processus non conscient. Il va chercher à relier le problème à des évènements déjà vécus et faire des associations auxquels nous n’aurions pas encore réfléchi.

        cherchez le fameux eureka

        Astuce :  Lorsque vous bloquez sur un problème depuis plus d’1h, sortez faire un tour ou penchez-vous sur une tâche que vous aimez réaliser et dont vous avez l’habitude. Cette tâche sera facile à réaliser par votre cerveau et celui-ci pourra continuer à travailler sur votre problématique sans que vous en eussiez l’impression. 

        7. Réaliser du fractionné plutôt que de traiter en bloc 

        Aussi nommé « interleaving », il a été démontré que passer à un autre sujet et revenir un peu plus tard au premier consolide la mémoire à long terme. Même si cela peut perturber la mémorisation à court terme, le fait de découper un sujet laisse du temps au cerveau pour travailler de manière non consciente entre deux apprentissages et donc de créer des liens pour en favoriser l’ancrage. 

        Le fait de revenir sur le sujet permettra également le besoin de répétition déjà évoqué.

        Astuce :  

        8. Retenir de l’information n’est pas suffisant pour s’en souvenir 

        Retenir de l’information n’est pas suffisant pour s’en souvenir

        Il nous est tous arrivé de ne pas se souvenir du nom d’un chanteur et de retrouver son nom en entendant sa voix ou le début de son prénom. 
        Pour restituer une information, il faut bien évidemment l’avoir assimilée mais également être capable de la retrouver. On peut ainsi comparer notre mémoire à une bibliothèque. Si celle-ci n’est pas structurée, il nous sera très compliqué de retrouver un ouvrage précis. C’est pour cela que nous avons besoin de structurer les informations pour mieux les retrouver par la suite. 
        Astuce : Lors de l’apprentissage d’une nouvelle information, attachez-vous à : 

        Cet article n’est qu’un très bref aperçu de ce que nous apporte les Neurosciences.  Si celui-ci vous a plu et que vous voulez en savoir plus sur notre cerveau et les modes d’apprentissages, je vous conseille le livre Neuro Learning, principale source de cet article, qui vous permettra d’approfondir les concepts cités dans cet article, et de vous plonger dans les travaux de Barbara Oakley en commençant par la vidéo de son TEDx Learning how to learn qui je l’espère vous permettra de mieux apprendre à apprendre.



        Sources :

        Les autres articles qui peuvent vous intéresser