La data science est devenue un levier clé aujourd’hui, pour mettre les données au service de bénéfices et de problématiques métiers : Automatisation de tâches & de choix, Fourniture de nouveaux services « intelligents », Amélioration de l’expérience client, Recommandations, etc.
C’est aussi une discipline qui passionne par son caractère particulièrement « innovant », encore aujourd’hui, mais qui génère des croyances sur ce qu’elle peut réellement apporter à une organisation. Certains dirigeants ont souvent donné trop de valeur intrinsèque à la discipline, s’attendant à des retours importants sur leurs investissements (data lake & armées de data scientist / engineers).
En réalité, la Data Science n’est qu’une technique qui a besoin de méthodologie et de discipline. A ce titre, elle nécessite au préalable de très bien définir les problèmes métiers à résoudre. Et quand bien même le problème est bien défini, et le modèle statistique pour y répondre performant, cela ne suffit pas encore. Le modèle doit être utilisable « en pratique » dans les processus métiers opérationnels, s’intégrer parfaitement dans l’expérience utilisateur, etc.
Quels principes clés peut-on se proposer d’appliquer pour maximiser la valeur de cette capacité ? Essayons ici de donner quelques pistes.
Comprendre le métier : analyser les risques, les besoins d’optimisation, les nouvelles opportunités
L’identification d’usages métier, qui nécessitent des méthodes d’analyse de données avancées, est une étape clé. Ces usages ne tombent souvent pas du ciel. Une démarche proactive avec les métiers est nécessaire pour les identifier. C’est d’autant plus vrai lorsque le métier est encore peu familiarisé avec les techniques de data science, et ce qu’il est possible d’en tirer concrètement.
C’est un travail de “business analysis”, dont la Data Science n’a absolument pas le luxe de se passer contrairement à ce qui est pratiqué parfois : Comment travaille le métier aujourd’hui ? Quels sont ses enjeux, ses drivers, ses axes d’innovation, ses axes d’optimisations des processus opérationnels en place, et quelles données sont manipulées aujourd’hui, comment et pour quoi faire ? Quel est le niveau de qualité de la donnée, manque-t-il des informations clés pour répondre aux problèmes quotidiens, ou pour innover ? etc.
Quand on est au clair sur toutes ces questions, on est prêt à identifier des usages concrets avec le métier, qui pourraient bénéficier de techniques d’analyse avancée.
Comprendre l’usage et le système concerné : adopter le point de vue systémique !
Imaginons que nous cherchons à prédire le flux de patients sur un jour donné dans un hôpital, afin d’adapter les ressources, les processus, les dispositifs pour limiter le temps d’attente. Il convient, avant de foncer tête baissée dans l’analyse des données, de comprendre l’ensemble de la problématique. Par exemple, les approches de « system thinking » peuvent être tout à fait adaptées pour que le data scientist s’assure de ne pas oublier de paramètres clés dans la dynamique du problème qu’il veut résoudre. Ainsi, il n’oubliera pas non plus des données clés pour son modèle (existantes ou dont il faudrait organiser la collecte à l’avenir pour améliorer le modèle).
Ce type de représentation (ici : Causal loop diagram), peut permettre au métier de s’exprimer sur le processus, sur l’identification des variables clés, et de formuler ses intuitions sur les paramètres et les dynamiques en jeu qui peuvent influer sur la variable à prédire ! (ici les influences positives ou négatives entre les variables structurantes décrivant la dynamique du système).
Le diagramme ci-dessus n’est qu’un exemple de représentation systémique, on peut adopter d’autres types de représentation du système au besoin. L’important étant d’étendre la compréhension du système, qui peut nous amener à identifier des variables cachées (non intuitives a priori).
Concrétiser un usage : prototyper au plus tôt avec le métier, dans son environnement de travail, au risque de rester éternellement au statut de POC !
Une fois que le système est bien défini, et que les hypothèses et intuitions sont posées, il faut comprendre : comment le modèle analytique sera concrétisé en pratique, qui sera l’utilisateur final, quel est son environnement de travail actuel et comment on pourra intégrer les résultats d’un modèle statistique dans son travail quotidien.
Une technique simple et confortable pour le métier : faire un prototype rapide, même avec des fausses données pour commencer, des faux résultats de modèles statistiques. Bref, l’idée est rapidement de se projeter dans l’usage final de la manière la plus concrète possible, pour aider le métier à s’inscrire dans sa future expérience. Évidemment, nous ne resterons pas éternellement avec des fausses données.
L’objectif est d’être tout à fait au clair, dès le départ, sur le produit fini que l’on veut atteindre, et de s’assurer que le métier le soit tout à fait (ce qui est loin d’être toujours le cas). Ensuite, nous pourrons pousser le prototype plus loin (des vrais données, des vraies conditions pour évaluer la performance, etc.).
Cette méthode permet au data scientist de se mettre à la place de l’utilisateur final, et de mieux comprendre comment son modèle devra aider (est-ce qu’il doit apporter juste une classification, un niveau de probabilité, des informations contextuelles sur la décision prise par le modèle, est-ce qu’il doit favoriser le temps de réponse, l’explicabilité, la performance du modèle, etc.). Toutes ces questions trouvent rapidement une réponse quand on se projette dans le contexte d’usage final.
Interagir par itération avec le business, éviter l’effet Kaggle
Nous pouvons rencontrer parfois un comportement (compréhensible), qui est de vouloir faire le modèle le plus performant possible, à tout prix. On passe des heures et des jours en feature engineering, tuning du modèle, on tente toutes combinaisons possibles, on ajoute / teste des données exotiques (au cas où) qui ne sont pourtant pas identifiées en phase de “business analysis”. Je l’appellerai l’effet « Data Challenge » ou l’effet « KAGGLE*».
Et après avoir passé des jours enfermés dans sa grotte, on arrive tout fier devant le métier en annonçant une augmentation de 1% du score de performance du modèle, sans même avoir songé que 1% de moins pourrait tout à fait répondre aux exigences du métier… Comme on dit… « Le mieux est l’ennemi du bien ». Pour éviter cet effet tunnel qui peut être tentant pour l’analyste (qui veut annoncer le meilleur score à tout prix ou qui joue trop sur Kaggle*), des itérations les plus fréquentes possibles avec le métier sont clés.
Arrêtons-nous au bon moment ! Et cela vaut pour toutes les phases du projet. Commençons par chiffrer le système décrit en phase de business analyse, avec des données réelles, et itérons avec le métier sur cette base. Cela permet d’améliorer déjà la compréhension du problème du data scientist, et du métier concerné. Et cela a déjà une vraie valeur pour le métier ! Alors qu’aucun modèle statistique n’a été conçu pour le moment.
Si un modèle nécessite des données inexistantes, organisons la collecte de ces données avec le Chief data officer, dans le temps. Mais ne nous battons pas à vouloir faire un modèle avec des miettes, si nous savons que cela ne permettra pas d’être à la hauteur des attentes opérationnelles.
Le Data Scientist peut avoir aussi ce réflexe un peu étrange de dire « On va essayer, on va faire avec ce qu’on a et on verra ! » comme s’il croyait lui-même que son métier relève de l’incantation.
Evidemment, je ne fais là aucune généralité. Le rôle d’expert nous oblige à prendre nos responsabilités, et à dire « Non, après examen et quelques tests, je ne suis pas confiant du tout pour répondre à votre besoin avec les données qu’on a aujourd’hui ». Humilité, responsabilité et transparence, à chaque itération avec le métier, sont de mise.
On trouve souvent ce risque de dérive dans la relation Expert vs Métier. Ne tombons pas dans le piège de jouer sur l’ignorance de l’autre pour se créer un travail inutile !
Ces quelques principes sont peut-être évidents pour certains, utiles pour d’autres ! En tous les cas, chez Rhapsodies Conseil, au sein de notre équipe Transformation Data, nous essayons d’appliquer cela systématiquement, et nous pensons que c’est le minimum vital.
Pour éviter de faire perdre du temps à nos clients (et de l’argent), nous commençons nos missions BI & Analytics, systématiquement avec une « micro mission » préliminaire qui nous permet de valider la réelle valeur & la faisabilité de l’innovation recherchée (avec toutes les parties prenantes, en faisant des analyses flash des données…) avant d’aller plus loin !
Nous considérons que dans tout projet de Data Science, le prototype métier, tel que décrit dans l’article, est obligatoire. Nous proposons systématiquement un prototypage métier, toujours dans le soucis de bien projeter la valeur attendue pour le métier !
Nous allons plus loin sur la solution que l’analyse avancée des données. Notre expertise globale sur la transformation data, nous permet y compris sur des missions BI & Analytics, de ne pas hésiter à relever si pertinents des axes clés d’amélioration sur la gouvernance de certaines données, l’organisation, la data quality, la stratégie data long terme de l’organisation ou la culture data de l’entreprise, qui pourraient être profitables ou indispensables à l’usage traité.
Pour nous, traiter un usage BI & Analytics, c’est le traiter dans son ensemble, de manière systémique ! Notre solution finale n’est pas un modèle statistique. Notre solution finale est potentiellement un modèle statistique, mais aussi une gouvernance adaptée pour avoir la qualité de données nécessaire, un modèle qui s’adapte à l’expérience utilisateur souhaitée (et pas l’inverse), et un suivi du ROI de l’usage analytique et de sa pertinence par rapport à la stratégie de l’entreprise.
J’ai eu le plaisir d’introduire la table ronde « Le futur du paiement de proximité », organisée par le groupe de travail Perspectives & Innovations du France Payment Forum. J’ai présenté une synthèse des différents éléments qui pourraient favoriser la construction de nouveaux parcours utilisateurs en proximité, à commencer par l’émergence et le développement des schemes de Real Time Payment
En effet, depuis le Zengin japonais lancé en 1973, les schemes de paiement en temps réel n’ont cessé de se développer et se généraliser avec une certaine accélération sur les dernières années. Les derniers en date étant le SCT Inst en Europe en 2017, la Malaisie et la Roumanie en 2019 et le Vietnam en 2020.
Un environnement favorable
Parmi ces initiatives, les transferts de compte à compte en proximité constituent une partie significative des cas d’usage. Une analyse comparative fait apparaître des similitudes en termes d’écosystème. En effet, au-delà de l’existence d’un scheme de real time payment, nous remarquons la présence de catalyseurs tels que :
le Request to Pay sous toutes ses formes, du simple lien de paiement pré-renseigné au modèle 4 coins tel que celui développé par l’EPC
les alias afin de fluidifier la gestion des identités numériques ; pour simplifier l’expérience d’achat, les alias permettent de ne pas avoir à renseigner son IBAN ou bien celui du commerçant
les QR codes, qu’ils soient dynamiques ou non
Des API ouvertes qui favorisent les interactions entre les acteurs de l’écosystème et la construction d’expériences d’achat de plus en plus pertinentes pour des niches jusque-là non/mal servies
Les Soft POS qui démocratisent l’accès à l’expérience de paiement digital en proximité en permettant à de petits commerçants de transformer leurs smartphones ou tablettes en terminaux de paiement simplement en téléchargeant une application
Pour quels bénéfices ?
Toutefois, bien que ces catalyseurs favorisent indéniablement l’émergence de nouveaux usages, le véritable challenge reste celui de l’adhésion à la fois des consommateurs et des marchands. Pour cela, la nouvelle proposition de valeur devra résoudre un véritable pain point ou bien améliorer substantiellement un usage existant. Parmi les bénéfices attendus de la part des consommateurs, nous pouvons citer :
Régler de gros achats sans être limité par les plafonds de paiement de la carte
Améliorer la confidentialité et la sécurité des opérations en n’ayant plus à communiquer ni son PAN ni son IBAN
Disposer d’un mode de paiement alternatif pour répondre à des usages de niches
Bénéficier d’une expérience de paiement plus fluide…
Du côté des commerçants il sera important de :
Co-construire un modèle économique complémentaire qui prenne en compte les spécificités du nouveau cas d’usage et son panier moyen
Minimiser la fraude et les impayés liés aux autres moyens de paiement (chèques, carte…) et apporter une garantie d’irrévocabilité
Faciliter l’accès aux paiements digitaux à travers de nouveaux modèles d’acceptation qui minimisent les frais de mise en place
Faciliter l’automatisation de la réconciliation des paiements et le cas échéant fluidifier les opérations de remboursement…
Comment s’y prendre ?
Face à cet objectif de fluidification de l’expérience utilisateur, plusieurs approches sont envisageables. A titre d’exemple, le tableau récapitulatif présenté ci-dessous fait le parallèle entre le modèle du consortium Bizum, fruit de la coopération de 31 banques espagnoles, et celui de la FinTech (AISP/PISP) Vibe Pay.
Bien que sensiblement différents en termes de scheme sous-jacent, de stratégie de couverture et de moyen, il est à noter que les deux modèles adressent les mêmes cas d’usage, à savoir le P2P, l’e-commerce et le paiement en proximité. De ce fait, le dernier challenge à relever, et non des moindres, sera de construire une expérience d’achat unifiée sans coutures.
Pour atteindre cet objectif, il est essentiel d’intégrer le paiement bien en amont lors de la conception de l’expérience utilisateur afin qu’il se fonde dans le parcours d’achat et non pas être un nième moyen de paiement qui arriverait en bout de chaîne.
Outre l’offre bancaire classique, la France compte plus de 600 FinTechs, dont pas moins de 150 PayTechs. Bonne nouvelle au niveau de l’offre, mais comment s’y retrouver au moment du choix de solution de paiement, que l’on soit commerçant, marketplace, fournisseur de service en ligne, association…
Les critères à prendre en compte sont multiples dans le choix de son PSP. Concentrons-nous ici sur le critère économique, autour de 7 questions visant à :
Evaluer les coûts des solutions de paiement
Et s’assurer que la comparaison s’applique à des prestations comparables…
1. Quel est le positionnement du PSP ?
Derrière le check-out ou plus généralement l’ordre client, nombreux sont les intervenants dans la chaîne de paiement. Les stratégies fournisseurs varient largement :
De l’orientation one-stop-shop, intégrant des partenaires pour apporter une solution plus complète au client,
A un positionnement de spécialiste, sur un maillon de la chaîne…
Le couplage Acceptation / Acquisition illustre cette problématique de périmètre, avec ses conséquences directes sur l’analyse des coûts :
Acceptation ET Acquisition (one-stop-shop) Certains PSP proposent une prestation intégrant acceptation et acquisition. Ils s’appuient sur leurs partenaires pour l’acquisition, sélectionnés pour raisons d’appartenance au même groupe financier ou dans le cadre de négociations tarifaires massifiées.
Acceptation seule D’autres permettent au client de choisir son acquéreur. La solution de paiement intervient dans ce cas en tant que passerelle technique, routant les flux vers l’acquéreur retenu par le client. Cette configuration permet au client de conserver / renforcer sa relation avec son acquéreur, auquel il peut avoir confié d’autres prestations et négocié des conditions particulières, notamment sur les transactions On-Us…
2. Quelle est votre maîtrise de vos volumes d’opérations de paiement ?
« La prévision est difficile surtout lorsqu’elle concerne l’avenir… ». Au moment du choix d’une solution de paiement, il peut être difficile d’évaluer les volumes d’opérations, leur répartition par moyen de paiement…
S’ils sont bien maîtrisés, les propositions plus détaillées (jusqu’à 25 paramètres recensés dans notre grille d’analyse) pourront permettre d’optimiser les coûts, au prix d’un engagement dans la durée, de minima de volumes, de conditions de modification et de sortie….
Dans l’autre cas, les propositions plus flexibles et plus intégrées seront plus adaptées à un modèle économique à prouver.
3. Quelle palette de moyens de paiement ?
Les nouveaux PSP se sont d’abord développés sur le modèle de la carte, en tant que moyen de paiement privilégié des clients, en ligne et en magasin.
Les autres moyens de paiement (Virement, Prélèvement…) ont depuis commencé à percer, notamment pour des raisons de coût à la transaction.
Le Virement Instantané va contribuer à élargir cette palette, en concurrence directe avec la carte, à la fois au niveau des coûts, mais aussi pour des paiements supérieurs aux plafonds cartes.
Au niveau de la comparaison des coûts, les PSP proposant ces différents moyens de paiement bénéficieront de coûts moyens inférieurs aux pure-players de la carte.
4. Faut-il prévoir des coûts complémentaires pour les retries, rejets, chargebacks, reporting… ?
Au-delà du traitement nominal des opérations, il est important d’intégrer aussi les cas d’exception (trop nombreux d’ailleurs, pour être qualifiés d’exceptions…).
Là encore, les PSP se distinguent entre :
Ceux qui considèrent ces services comme indissociables du paiement ; dans une logique de cas d’usage (vision client) familière aux FinTechs, il est naturel d’intégrer ces services dans l’offre globale, sans surcoût / option spécifique ;
Ceux qui les considèrent comme des services supplémentaires, dans une vision orientée fournisseur, considérant la rentabilité de chaque service qu’il propose et les coûts externes (interbancaire, schemes…) générés par chacun.
5. Quel impact sur la fraude et les charges internes ?
La fraude intervient dans la comparaison économique des PSP à 2 niveaux :
D’abord dans l’efficacité de la gestion du risque que le PSP peut proposer, avec une performance à évaluer en matière de faux positifs / négatifs et dans la gestion de l’authentification forte (mode frictionless…). L’enjeu se mesure directement dans la perte de Chiffre d’Affaires et le montant des impayés.
Ensuite, dans les moyens mis en œuvre pour la gestion des litiges et la relance pour impayé. Le service peut être proposé par le PSP ou assuré en interne par le Client, à prendre en compte dans la comparaison des coûts.
Outre la fraude, d’autres postes de charge interne sont touchés par le choix du PSP :
Réconciliation & Reporting : les ressources dédiées au rapprochement des commandes et des règlements dépendent fortement de la qualité du reporting fourni par le PSP ;
Traçabilité : la capacité offerte par un PSP d’accéder directement au statut d’un paiement dans la chaîne de traitement permet d’éviter les multiples échanges téléphoniques… ;
Gestion des retries : la délégation au PSP de la représentation des paiements en échec peut libérer des ressources au sein de l’entreprise. Au-delà de l’existant, les opportunités d’optimisation ne manquent pas, dans la digitalisation des processus internes, comme la gestion des factures fournisseurs, la gestion des salaires… les fournisseurs spécialisés se développent en complément des éditeurs de solutions de comptabilité, paie… Le choix du PSP peut impacter ce potentiel d’optimisation, selon sa capacité à s’interfacer avec ces solutions, via ses API et les partenariats noués avec ces fournisseurs spécialisés.
6. Encaissement direct ou reversement ?
Au-delà des coûts de transaction, les offres des PSP peuvent aussi impacter la trésorerie. Deux modèles coexistent :
Encaissement direct : Le client reçoit directement les fonds sur son compte ;
Reversement : Les fonds sont collectés par le PSP, qui les reverse au Client selon des conditions de fréquence, montant minimum…, avec des délais jusqu’à 30 jours…
7. Quels coûts de mise en œuvre de la solution de paiement ?
Au-delà des coûts de fonctionnement traités plus haut, les coûts de mise en œuvre peuvent aussi varier :
Les principales solutions du marché (CMS e-commerce) proposent des extensions ou plug-ins, à télécharger par le client, avec un support léger pour le paramétrage. Les coûts de projet sont négligeables dans ce cas.
Dans d’autres cas, le déploiement donne lieu à un véritable projet, avec les ressources mobilisées côté client, auxquelles peuvent éventuellement s’ajouter des frais d’installation (set-up) facturés par le PSP.
En conclusion, la multiplication des PSP a apporté une plus grande richesse des services de paiement. Elle a aussi rendu plus complexe la comparaison des offres, au moment du choix du Prestataire de Services de Paiement.
Rien que sur le critère des coûts, la comparaison nécessite de prendre en compte le modèle économique du PSP, sa position dans la chaîne de bout en bout, la palette de moyens de paiement supportés, la fraude, les optimisations possibles sur les charges internes et les opportunités des solutions de digitalisation dans l’entreprise…
En rappelant toutefois que l’équation économique repose avant tout sur le taux de transformation client et que la fluidité du parcours de paiement proposé par le PSP précède la question du coût !
Alors, rendez-vous sur nos prochains articles sur le choix des solutions de paiement pour éclairer l’ensemble de ces critères.
À travers cet article, je vous invite à une introduction au vaste monde des neurosciences et à la compréhension des mécanismes d’apprentissage de notre cerveau. Ces mécanismes sont d’autant plus complexes, qu’outre la compréhension de l’apprentissage et de l’attention, la mémorisation, les émotions et la motivation sont, parmi d’autres, des facteurs prédominants à prendre en compte dans l’apprentissage de nouvelles informations.
Quand on évoque le cerveau, beaucoup de mythes et de croyances accumulés au fil des temps ressurgissent.
Parmi les plus connus :
Nous n’utilisons que 10% de notre cerveau. C’est faux, grâce aux progrès dans l’imagerie médicale, on sait maintenant que nous utilisons la totalité des ressources de notre cerveau.
Nous ne pouvons plus apprendre à partir d’un certain âge. C’est également faux, Le cerveau crée des neurones tout au long de notre vie et l’homme est neurologiquement programmé pour apprendre toute sa vie. L’apprentissage sera juste plus long et moins facile du fait de la plasticité des neurones (ou autrement dit la capacité de notre cerveau à se remodeler) qui est plus intense dans la petite enfance.
Nous avons un unique cerveau. Ce n’est pas totalement vrai. L’être humain n’a pas un, ni deux, mais bien trois cerveaux :
Un cerveau dans notre tête (100 milliards de neurones) ;
Un cerveau dans notre cœur (40.000 neurones) pour réguler celui-ci ;
Un cerveau dans notre ventre dit cerveau viscéral (200 millions de neurones) pour contrôler le système digestif. Note : si on s’en tient à la définition officielle de ce qu’est un cerveau, nous avons bien un seul cerveau. Il n’y a pas à proprement parler de cerveau au niveau du ventre ou du cœur. Il s’agit de systèmes nerveux autonomes directement reliés à notre cerveau et capables de produire des hormones et des neurotransmetteurs, tels que la dopamine ou la sérotonine. Ils sont également le siège de certaines de nos émotions, d’où les expressions « avoir le cœur serré » ou avoir la « peur au ventre ».
Écouter Mozart enfant rend plus intelligent. C’est toujours faux, Ce mythe est apparu dans les années 70 suite à une étude ayant aboutie à des résultats erronés. Même si la musique adoucit les mœurs, écouter Mozart ne rend malheureusement pas plus intelligent.
Ce n’est qu’un échantillon des nombreuses croyances que l’on peut trouver facilement sur internet. Nombreux de ces mythes ont été cassés par l’essor des neurosciences (science du cerveau) qui a pour objectif de mieux comprendre le fonctionnement de notre cerveau. Les neurosciences n’ont pas seulement permis la déconstruction de mythes, mais nous éclairent sur le fonctionnement de notre cerveau et permettent la mise en lumière des mécanismes d’apprentissage et d’en tirer des leçons pédagogiques. Ces études révèlent que le cerveau est doté d’un immense appétit d’apprentissage mais que ses capacités d’assimilation sont limitées et vite dépassées. Lors d’un nouvel apprentissage, l’avant du cerveau, cortex préfrontal qui commande les opérations, se mobilise fortement. L’attention d’un débutant est fortement sollicitée par sa mémoire de travail et elle diminue très vite. Au fil des répétitions, l’apprentissage va s’automatiser et demander de moins en moins d’énergie. L’activité neuronale se déplace progressivement de l’avant vers l’arrière du cerveau où se situe les automatismes. Le cerveau exécutif ainsi libéré devient disponible pour un nouvel apprentissage.
Cette capacité d’apprentissage est donc limitée :
Par notre énergie dépensée à se concentrer sur un nouveau sujet.
Par le temps d’apprentissage nécessaire pour basculer l’activité neuronale de l’avant à l’arrière de notre cerveau. Autrement dit, rendre ce nouvel apprentissage un automatisme que le cerveau va pouvoir gérer en tâche de fond.
Un bon exemple, que j’ai repris de l’ouvrage Neuro Learning, est celui de l’apprentissage de la conduite. Lors des premières leçons, l’élève a besoin de beaucoup de concentration pour se focaliser sur la route tout en apprenant à manipuler les commandes. Au fur et à mesure des heures accumulées, des automatismes se créent. L’attention se porte principalement sur la route et la gestion des commandes se fait de manière instinctive, sans besoin d’y réfléchir. Cela marque le passage de l’utilisation principale de l’avant du cerveau vers l’arrière, siège de l’automatisme, qui caractérise le stade de l’expert. Pour aller plus loin dans la compréhension des modes d’apprentissage, vous pouvez vous tourner vers les travaux de Barbara Oakley, célèbre professeure américaine d’ingénierie à l’Université d’Oakland et à l’Université McMaster, dont les cours en ligne sur l’apprentissage font partie des cours de MOOC les plus populaires au monde. Il est donc important de bien comprendre les mécanismes d’apprentissage de notre cerveau pour en optimiser la quantité d’information retenue et sa durée dans le temps. Voici 8 astuces pour aider votre cerveau :
1. Esprit sain dans un corps sain
Notre capacité d’apprentissage est directement liée à notre condition physique. L’apprentissage de nouvelles connaissances demande de la concentration et donc de l’énergie pour maintenir cette concentration au maximum dans le temps. Il est donc primordial d’avoir une bonne hygiène de vie. Garder une bonne condition physique, se reposer en respectant ses rythmes de sommeil, avoir une alimentation saine et équilibrée sont autant de facteurs qui faciliteront l’apprentissage. Bougez, sortez, faites du sport, ces activités vous permettront d’avoir un corps énergique et en bonne santé.
Astuce : pourquoi ne pas utiliser le temps gagné dans les transports grâce au télétravail pour rechausser vos baskets ou ressortir votre tablier de cuisinier ?
2. Se mettre en condition pour apprendre
Lors d’une phase d’apprentissage, le cerveau n’est pas capable de se concentrer sur plusieurs choses à la fois. Il ne fait que d’aller et venir entre les différentes tâches à accomplir ce qui demande une grande source d’énergie. Pour maximiser un apprentissage, il est primordial de se mettre dans de bonnes conditions :
S’assurer de ne pas être dérangé
Avoir un espace dédié au travail
Éviter les distractions (télévision, réseaux sociaux, emails, …)
Astuces :
Ne pas hésiter à s’isoler dans une salle de réunion pour travailler sur un sujet. Pourquoi ne pas vous aménager un espace bureau au lieu de vous répandre sur la table du salon ?
Quitte à regarder les réseaux sociaux, prenez un moment dédié à cette activité et assouvissez ce besoin. Cela aura pour effet de libérer votre esprit et de focaliser votre attention sur la prochaine tâche à accomplir.
Désactiver les notifications sur votre ordinateur et/ou de votre smartphone.
3. Alléger votre cerveau
Organisez votre temps et votre journée vous permettra d’alléger votre charge mentale.
Commencez celle-ci en listant les tâches par ordre de priorité en commençant par les tâches les plus pénibles. Votre énergie étant plus importante en début de journée, vous optimiserez ainsi votre capacité à traiter un plus grand nombre de sujets avec une meilleure efficacité.
Deuxième effet positif, commencez par les tâches difficiles pour terminer par les tâches plus faciles permettra de maintenir votre enthousiasme tout au long de la journée.
Astuce : Gardez du temps pour faire des pauses et gérer l’imprévu, et restez réaliste sur les tâches à accomplir pour ne pas être démoralisé en fin de journée en voyant la longue liste de tâches remise au lendemain.
4. Être attentif à vos humeurs
Émotions et motivations sont étroitement liées. Un certain niveau de stress favorise la performance mais les effets s’inversent au-delà d’un seuil et l’impact devient néfaste. Les émotions négatives nous font focaliser sur les détails, diminue notre capacité d’exploration et inhibe partiellement, voir totalement, notre capacité de raisonnement.
En cas de menace, l’information va directement déclencher la réaction automatique de stress (fuite, attaque, ou sidération). Ce phénomène inhibe le système exécutif et est toujours prioritaire puisqu’il assure notre survie. Mais il a pour effet de rendre l’information inaccessible au raisonnement et donc à l’apprentissage. À l’inverse, les émotions positives ont pour effet l’élargissement de la pensée et du comportement, favorisant la curiosité, l’apprentissage et la créativité. Il est donc impératif de réguler ses émotions en limitant l’induction d’émotions négatives et en favorisant les émotions positives.
Astuces :
Prêter une attention particulière à votre cadre de vie. Un manque de sommeil répété, l’exposition à un fort stress ou à une source de stress de façon prolongée va avoir un impact sur votre humeur et donc votre apprentissage.
Accueillir l’erreur. La peur de se tromper bloque souvent l’apprentissage car vécu comme un échec. Souvenez-vous que le cerveau apprend par essai-erreur. En d’autres mots, essayer, se tromper et corriger son erreur de manière répété est la meilleure façon d’apprendre.
Accepter de ne pas comprendre. Rencontrer des difficultés est totalement normal et fait partie du processus d’apprentissage. De plus, les mécanismes que vous allez mettre en place pour surmonter votre incompréhension permettront un meilleur apprentissage in fine.
5. Adapter votre rythme de travail aux capacités de votre cerveau
Votre cerveau a besoin d’énergie mais également de temps pour apprendre. Il est important de prendre un rythme d’apprentissage en adéquation avec votre cerveau. Les neurosciences nous apprennent que la clef est dans la répétition.
La loi de Hebb a démontré que pour chaque nouvelle tâche apprise, une nouvelle trace (réseau de neurones connectés) est créée dans notre cerveau. Cette nouvelle trace est fragile et demande à être rapidement réactivée pour avoir une chance d’être conservée. Il est donc primordial de revenir fréquemment sur des notions apprises pour les ancrer dans notre cerveau.
Astuce : Ancrer les concepts en les retravaillant de manière régulière. Vous pouvez par exemple suivre un schéma de répétition par espacement croissant :
Immédiatement après l’apprentissage
Dans les 24h
Deux ou trois jours d’affilés
Une semaine après
Un mois après
Six mois après
Etc …
6. Chercher le fameux Eureka
Qui n’a jamais eu ce moment de grâce en trouvant la solution à un problème sous la douche ou lors de sa séance de sport.
Lorsque l’on est confronté à un problème, nous restons souvent focalisés sur celui-ci sans prendre le temps de lever la tête. Or, cette pratique n’est pas le moins du monde efficace car elle ne laisse pas le temps au cerveau de travailler sur le problème.
Lorsque l’on prend une pause et que l’on arrête de se pencher sur la résolution d’un problème, notre cerveau reste actif et continue d’analyser la problématique en tâche de fond. C’est un processus non conscient. Il va chercher à relier le problème à des évènements déjà vécus et faire des associations auxquels nous n’aurions pas encore réfléchi.
Astuce : Lorsque vous bloquez sur un problème depuis plus d’1h, sortez faire un tour ou penchez-vous sur une tâche que vous aimez réaliser et dont vous avez l’habitude. Cette tâche sera facile à réaliser par votre cerveau et celui-ci pourra continuer à travailler sur votre problématique sans que vous en eussiez l’impression.
7. Réaliser du fractionné plutôt que de traiter en bloc
Aussi nommé « interleaving », il a été démontré que passer à un autre sujet et revenir un peu plus tard au premier consolide la mémoire à long terme. Même si cela peut perturber la mémorisation à court terme, le fait de découper un sujet laisse du temps au cerveau pour travailler de manière non consciente entre deux apprentissages et donc de créer des liens pour en favoriser l’ancrage.
Le fait de revenir sur le sujet permettra également le besoin de répétition déjà évoqué.
Astuce :
Pourquoi ne pas arrêter de lire d’une traite votre dernier livre sur un sujet technique mais plutôt de lire en parallèle deux bouquins ce qui permettra de fractionner votre apprentissage.
Et si vous adoptiez la méthode Pomodoro en alternant périodes d’apprentissage et temps de pauses pour à la fois alterner les sujets et prendre le temps de mieux assimiler.
8. Retenir de l’information n’est pas suffisant pour s’en souvenir
Il nous est tous arrivé de ne pas se souvenir du nom d’un chanteur et de retrouver son nom en entendant sa voix ou le début de son prénom. Pour restituer une information, il faut bien évidemment l’avoir assimilée mais également être capable de la retrouver. On peut ainsi comparer notre mémoire à une bibliothèque. Si celle-ci n’est pas structurée, il nous sera très compliqué de retrouver un ouvrage précis. C’est pour cela que nous avons besoin de structurer les informations pour mieux les retrouver par la suite. Astuce : Lors de l’apprentissage d’une nouvelle information, attachez-vous à :
La remettre dans son contexte pour lui donner du sens
Solliciter une multitude d’associations mentales
Rechercher une métaphore ou une analogie
La relier à des notions déjà solidement intégrées
Cet article n’est qu’un très bref aperçu de ce que nous apporte les Neurosciences. Si celui-ci vous a plu et que vous voulez en savoir plus sur notre cerveau et les modes d’apprentissages, je vous conseille le livre Neuro Learning, principale source de cet article, qui vous permettra d’approfondir les concepts cités dans cet article, et de vous plonger dans les travaux de Barbara Oakley en commençant par la vidéo de son TEDx Learning how to learnqui je l’espère vous permettra de mieux apprendre à apprendre.
Dans un monde où les ruptures stratégiques, technologiques ou sanitaires s’accélèrent, les stratégies sont mises à rude épreuve. Ces stratégies intègrent de plus en plus de composantes digitales dans une logique où les business models ne sont plus « simplement » supportés par l’IT mais où c’est l’IT qui réinvente les business models. Aujourd’hui l’IT devient le business.
Imaginer et concevoir des innovations de valeur à fort contenu digital ne suffit plus car il est nécessaire d’organiser une mise en œuvre de l’IT à même de répondre avec flexibilité et rapidité aux enjeux tout en assurant sécurité et résilience des opérations IT. Dans ce contexte, il devient plus délicat de traduire ces nouvelles exigences du Run en capacités opérationnelles. Et sauf à vouloir se prendre les pieds dans le tapis , je ne recommande absolument pas de se « jeter » sur la construction d’organisations cibles avant d’avoir compris pour qui et comment ces organisations doivent créer et délivrer de la valeur.
Tout le monde a une stratégie avant de se prendre un direct en pleine face.
Mike Tyson
Sur la base de mon expérience de conseil, j’ai ainsi souhaité partager dans ce billet une solution relativement élégante pour adresser cet enjeu. Il s’agit d’adapter le modèle opérationnel du Run en créant un modèle opérationnel cible (TOM) qui intègre les différents changements nécessaires au modèle existant afin de traduire les nouvelles exigences du Run en capacités opérationnelles. Ce billet aborde ainsi 3 points :
Qu’est ce qu’un modèle opérationnel et quels étaient jusqu’à présent les principaux modèles opérationnels pour les activités de Run ?
Quelles sont les principales tendances qui poussent à adapter le modèle opérationnel du Run ?
Quand et comment procéder pour adapter le modèle opérationnel du Run ? Quelles sont les nouvelles tendances en matière de modèles opérationnels du Run ?
1. Le modèle opérationnel du RUN
Un modèle opérationnel fait le pont entre stratégie et exécution et décrit comment l’organisation va créer et délivrer la valeur. On peut définir un modèle opérationnel à l’échelle d’une entreprise toute entière, d’une business unit ou même d’une fonction (ex. la DSI) ou encore une sous-fonction (ex. le Run de la DSI). Comme il n’y a pas de définition vraiment standard, je vous propose 3 illustrations que j’ai adopté et qui permettent chacune d’aborder le modèle opérationnel sous un angle différent.
Illustration n°1 : si vous êtes familier avec le business model canvas de Alex Osterwalder et Yves Pigneur, on peut déjà considérer que le modèle opérationnel se positionne comme le back-end du business model en intégrant les activités clés, les ressources clés ainsi que les partenaires/partenariats clés.
Illustration n°2 : d’autres à l’instar de Andrew Campbell de l’université d’Ashbridge tentent de populariser l’operating model canvas en agençant avec plus de détails le back-end de l’illustration n°1
Ce qui est intéressant dans ce modèle, outre la mention des Locations (lieux géographiques d’exécution) et de Information (structures et flux d’information), c’est l’apparition des Value Delivery Chains censées traduire la logique des chaînes de valeur nécessaires au delivery des propositions de valeur. De mon point de vue, cette notion est fondamentale à tout modèle opérationnel.
Illustration n°3: enfin, j’ai aussi dans mon attirail une autre façon de représenter les modèles opérationnels que j’ai peaufiné au fil du temps et à laquelle je tiens beaucoup.
Ce qui est intéressant dans ce modèle est la prise en compte de l’axe culture (organisation informelle et l’humain) qui rappelle que les opérations s’exécutent souvent sur la base d’habitudes de collaboration, de valeurs et de soft-skills spécifiques et ce indépendamment des structures organisationnelles et des processus. L’autre point fondamental est l’introduction de la gouvernance qui représente le système nerveux du modèle opérationnel et sa clé de voûte.
C’est donc en s’appuyant sur un certain nombre de modélisations que l’on se forge à la fois des convictions et des outils pour adapter les modèles opérationnels et plus spécifiquement dans ma pratique : les modèles opérationnels du Run.
Afin d’être plus spécifique et encore à titre d’illustration, je schématise ci-dessous les 2 modèles opérationnels du Run beaucoup rencontrés ces dernières années.
Le modèle des silos technologiques
L’organisation par silos technologiques n’a plus vraiment cours aujourd’hui car elle présente un certain nombre de challenges et inconvénients commentés dans l’illustration ci-dessus.
Le modèle PLAN-BUILD-RUN avec un RUN orienté par activité
Ce modèle opérationnel de Run intégré dans le modèle Plan-Build-Run de la DSI fait la part belle aux activités. Il organise en effet les opérations IT en usines qui regroupent les activités par niveaux d’interventions (N0 – Hébergement, N1 – Exploitation, N2 – Administration, N3 – Expertise) quelles que soient les technologies et métiers concernés. A l’instar des modèles déployés par les grands prestataires, ce modèle vise le plus souvent à industrialiser les opérations en déployant des processus standards ITIL. L’inconvénient majeur de ce modèle est de reléguer le Run en bout de chaîne, sclérosant ainsi toute la chaîne de delivery et ne favorisant ainsi pas l’agilité.
Certaines déclinaisons récentes de ce modèle tentent de fluidifier davantage la chaîne de Build pour conduire à des modèles un peu différents qui distinguent la gestion des socles techniques de celle des services.
Sur ces bases, on a pu voir se dessiner des modèles d’organisations détaillées ressemblants au schéma ci-dessous.
Alors disons le tout de suite, aucun de ces modèles n’est la panacée mais tous ont un intérêt pour exécuter les activités de Run. Il est donc important de capitaliser sur l’expérience des différents modèles et comprendre valeur et utilisation des briques de bases. C’est ainsi que l’on disposera de bonnes bases pour entamer une phase de réflexion et de conception quand il s’agira d’adapter le modèle opérationnel du Run aux nouveaux enjeux. Et justement comme nous allons le voir dans la prochaine section les raisons de changer sont multiples et souvent impérieuses.
2) Tendances d’évolution et d’adaptation des modèles opérationnels du RUN
Comme je le mentionnais en introduction, l’IT est aujourd’hui au coeur du business et les DSI doivent faire face (quand ce ne sont pas les Chief Digital Officer) à de nombreux impératifs pour rendre possible / faciliter la transformation du business et des métiers.
Au-delà de ces impératifs, s’ajoutent plus classiquement les demandes de réduction de coûts et des risques ainsi que le besoin de transparence accrue. Evidemment, et pour finir, on peut trouver les nombreuses tendances technologiques actuelles et à verniret qui sont autant d’opportunités/leviers de transformation.
Ces impératifs pressurisent les modèles opérationnels en place et les tendances technologiques mettent le plus souvent en évidence l’impréparation et l’inadéquation des capacités d’IT Management. C’est donc sur ces bases que les organisations de type DSI doivent se réinventer en adoptant des modèles opérationnels plus adaptés.
3) Quand et comment adapter le modèle opérationnel du run ? quelles pistes d’évolution ?
Avant de s’engager dans un projet d’adaptation du modèle opérationnel du Run, il est nécessaire de bien cadrer les raisons qui poussent à changer et définir un tant soit peu les modalités du projet d’adaptation de TOM. Généralement cela passe par un cadrage stratégique permettant d’établir les éléments structurants du projet d’adaptation du modèle opérationnel :
Objectifs du projet d’adaptation
Évaluation des bénéfices attendus, impacts et facteurs de risques
Définir les meilleures options organisationnelles pour mener le projet d’adaptation
Éclairer la prise de décision
L’élément le plus important et difficile étant l’évaluation des bénéfices attendus et des impacts à anticiper. Sans révéler de secrets, c’est le plus souvent un timing particulier sous tendu par des forts enjeux / opportunités qui incite à se lancer dans l’adaptation d’un modèle opérationnel et ce principalement dans 4 situations types :
Vous démarrez quelque chose de totalement nouveau
Vous changez de stratégie
Vous avez des problèmes de performance
Vous mettez en oeuvre un changement majeur
Dans le contexte d’une DSI et des implications sur le Run, il peut s’agir de plusieurs structures qui fusionnent / se rapprochent avec chacune une organisation de Run; d’un programme structurant de modernisation IT, d’une globalisation des opérations IT pour delivrer des services IT à l’ensemble des pays d’une entreprise, ou encore d’une transformation agile de l’entreprise et/ou de la DSI.
Ensuite vient le travail à proprement parler sur la définition du TOM. La description détaillée d’une méthodologie ne rentre pas dans le cadre de ce billet mais néanmoins je recommande de toujours démarrer par la définition de la Value Chain Map ou chaîne de valeur permettant de délivrer la proposition de valeur attendue / en ligne avec la stratégie à exécuter. A titre d’illustration, ci-dessous la chaîne de valeur que l’on pourrait trouver dans une DSI classique
Cette étape, n’est pas facile car si – par exemple – on souhaitait redéfinir cette chaîne de valeur, il pourrait être difficile de choisir la meilleure manière de la segmenter l’offre de service et de définir l’enchaînement des différents macro-processus créateur de valeur. En général, il faudra choisir de segmenter les chaînes de valeur par type de clients internes/externes ou par besoin clients ou par pays ou par produits/services ou bien encore par technologies (l’exemple du modèle opérationnel par silos technologiques).
Dans tous les cas, il ne faut absolument pas jouer aux apprentis sorciers et improviser : une bonne dose d’analyse et de pragmatisme est nécessaire mais on peut aussi s’inspirer de tendances très actuelles (quoique peu documentées) dans la définition de modèles opérationnels adaptés aux enjeux décrits dans la section n°2.
Une piste qui me paraît intéressante étant de s’inspirer du standard IT4IT de l’Open Group qui propose un début de modèle opérationnel organisé autour d’une chaîne de valeur et de Value Streams spécifiques à L’IT à l’instar de certains domaines métiers qui ont développé des Value Streams maintenant connues comme : make-to-order, order-to-cash,…)
Ainsi le point de départ IT4IT se compose des Value Streams suivantes qui sont orientées besoins client et remplacent avantageusement la classique segmentation Plan, Build, Deliver, Run et sont de nature à casser un fonctionnement en silos peu propice à l’agilité. Ce découpage est d’ailleurs la clé pour évoluer vers un modèle où le Build est beaucoup moins prépondérant et est remplacé par une logique de Broker/Intégrateur/Orchestrateur.
Ce rôle de Broker/Integrateur/Orchestrateur sera principalement mis en oeuvre au travers des capabilities de la value stream « Request to Fulfill » qui seront en charge de cataloguer, mettre en oeuvre et suivre l’usage des différents services standards.
Les impacts de cette nouvelle « value chain » sur le Run sont structurants. Le Run ne sera plus isolé en bout de chaîne et participera aux autres value streams dans une logique de collaboration avec les autres parties prenantes. C’est cette logique d’agilité qui s’affranchit des frontières organisationnelles qui sera propice à la construction de modèles opérationnels Digital Ready intégrant nativement des mécanismes opérationnels comme DevOps et FinOps par exemple.
Une fois la colonne vertébrale de la value chain définie, on peut s’attaquer – sans dogmatisme – aux autres éléments (partenaires, géographies, modèle d’organisation ou capabilities map, culture,..) en fonction de leur importance dans la stratégie et des enjeux de valeur à délivrer.
En guise de conclusion
Voilà pour ce petit tour d’horizon de l’adaptation des modèles opérationnels DSI pour traduire les nouvelles exigences du Run en capacités opérationnelles. Pour conclure, il faut retenir que le modèle opérationnel n’est que le Blueprint de l’organisation cible et que cette logique s’inscrit dans une démarche plus globale de transformation
En attendant, de démarrer vos projets d’adaptation, vous pouvez toujours évaluer si votre modèle opérationnel (qu’il soit formellement défini ou pas) permet de délivrer la bonne valeur aux bons clients (internes ou externes).
Transformation de l’entreprise : tout le monde doit être focalisé sur la réalisation des bénéfices
Transformation de l’entreprise : tout le monde doit être focalisé sur la réalisation des bénéfices
Historiquement les entreprises qui investissent dans des programmes et projets de transformation, définissent leurs réussites d’après leurs livrables et leurs tenues des engagements. Ce postulat centré sur la qualité des productions et des méthodes mises en œuvre ne correspond plus aux exigences de l’environnement actuel des entreprises.
La transformation des organisations est d’abord une question d’obtention de bénéfices
Professionnels de la transformation des entreprises, nous sommes amenés à intervenir pour accompagner nos clients dans la définition, le pilotage et la réalisation de leurs plans de transformation. Nous nous proposons dans une série d’articles à venir de vous faire découvrir comment tous les acteurs, tout au long de la chaîne de transformation, sont des acteurs de leur création de valeur.
Dans un contexte incertain, se concentrer sur l’essentiel
Historiquement les entreprises qui investissent dans des programmes et projets de transformation, définissent leurs réussites d’après leurs livrables et leurs tenues des engagements. Ce postulat centré sur la qualité des productions et des méthodes mises en œuvre ne correspond plus aux exigences de l’environnement actuel des entreprises. Celui-ci est de plus en plus volatile, incertain, complexe et ambigu, on dit qu’il est VUCA. Le fait est que la pertinence de l’activité économique des entreprises tient encore plus qu’avant de la cohérence de leur offre de produits et services à satisfaire les attentes de leurs clients. Ce sont donc les propositions et réponses faites aux clients qui déterminent l’avenir des organisations.
En ce sens, les projets et programmes doivent se définir et être jugés sur le niveau de bénéfices qu’ils permettent de réaliser par l’entreprise. Si la notion de valeur est souvent citée lorsque l’on évoque les nouveaux modèles de gestion de projets et d’organisation, c’est justement qu’elle représente l’unité élémentaire de la réalisation des bénéfices.
Les bénéfices : tout le monde en a une définition, suivant l’étape de la transformation
Avant de poursuivre, arrêtons-nous sur la notion de bénéfice. Dans l’entreprise sa définition est aussi variable que la définition de la « qualité », qui n’a cessé d’évoluer ces dernières décennies. Pour comprendre la difficulté à définir ce qu’est un bénéfice, il faut reprendre la métaphore des aveugles et de l’éléphant reprise par Henry Mintzberg (Safari en pays stratégie) :
Nous sommes des aveugles et la définition de la stratégie est notre éléphant. Puisqu’aucun de nous n’a une vision complète de la bête, chacun en perçoit une partie ou une autre et reste dans l’ignorance du reste.
Nous n’obtiendrons pas un éléphant en ajoutant les différentes parties. Un éléphant est plus que ça. Pour appréhender la totalité nous devons en comprendre les composants. C’est pour cela que nous vous proposons de vous partager notre vision commune de la réalisation des bénéfices, par rapport à 4 grands domaines d’expertise significatifs pour réussir une transformation.
Cadrage de la transformation (1/4)
L’élaboration du budget annuel des SI, la planification des projets (plan annuel), voire le « schéma directeur du SI » conduisent régulièrement l’entreprise à s’interroger sur les transformations à opérer et les montants à leur octroyer. Ces dernières années, ces opérations ont gagné en réalisme et sont devenues plus pragmatiques, plus opérationnelles : des projets aux résultats tangibles, sur des engagements à horizons de temps plus courts, avec des ressources allouées sur une base trimestrielle dans certains cas. La crise sanitaire n’a fait qu’accentuer ce trait en rendant les décisions plus incertaines et les budgets plus minces.
Quels bénéfices rechercher dans la situation actuelle : privilégier les pistes pour s’adapter rapidement ? Investir sur le Legacy comme garant de la pérennité du fonctionnement de l’entreprise ? Poursuivre l’investissement en R&D pour préparer la sortie de crise ? et comment ? sur quelles hypothèses ?
Ce que l’on peut faire de plus lors de ces opérations pour rendre la démarche plus efficace :
Organiser la transformation comme un « véhicule du changement » pour mobiliser l’entreprise à tous les niveaux et la rendre capable d’exécuter les transformations dans un environnement incertain
S’appuyer sur un cadrage stratégique rapide pour prendre des décisions en connaissance de cause et savoir quels bénéfices rechercher
Project portfolio management (2/4)
L’activité PMO-PPM est devenue une charnière entre les différents niveaux de l’organisation. La gestion de portefeuille au plus haut de l’entreprise en lien avec la direction générale et les directions fonctionnelles, tend à évoluer en une fonction à part entière de l’organisation. Elle est mandatée pour assurer l’alignement du portefeuille des projets à la stratégie et optimiser la valeur apportée par les investissements engagés pour ses clients (« customer centric »). Du fait de ce nouveau positionnement, ses activités et son rôle changent : elle devient un pivot d’optimisation de la réalisation des bénéfices entre sponsors et projets (et programmes).
Ce changement entraîne toute une série de questions :
Comment sont redéfinies les relations du PMO-PPM en aval, pour développer plus d’impact sur les projets et en amont pour contribuer aux prises de décisions stratégiques ?
Comment tirer parti des supports existant, et notamment l’instruction des Business Case et leur suivi dans le temps ?
Enfin quelles sont les capacités nouvelles dont l’équipe PMO doit se doter pour devenir le gardien des promesses de résultats et de la pertinence des investissements accordés par la direction ? Et ce même longtemps après la fin des projets toujours au service de la stratégie mise à jour.
Maîtriser les transformations complexes (3/4)
Rapidité des évolutions technologiques, fort contexte concurrentiel et mondialisation s’imposent aux entreprises : des transformations de leur système d’information et de leurs organisations sont plus fréquentes et plus complexes. Pour développer ou conserver son leadership, il faut réussir à maximiser la réalisation des bénéfices attendus des projets quelle que soit leur taille, pour les clients internes et pour les clients finaux.
Les projets de transformation constituent des leviers essentiels pour délivrer les capacités nécessaires à cette réalisation des bénéfices (ex. un upgrade d’un outil de CRM qui permet de renforcer le lien avec les clients, un nouveau parcours client et de nouveaux modes de fonctionnement qui permettent d’augmenter la compétitivité, etc.). Ils reprennent à leur charge les espoirs de bénéfices identifiés dans le plan stratégique, pour les concrétiser.
La 1ère étape de la concrétisation des bénéfices passe par la production d’un Business Case qui permet principalement de valider la « rentabilité » du projet en se projetant sur ses conditions de réussite :
Quels sont les résultats alignés sur les bénéfices attendus nécessaires à la maîtrise et à la réussite du projet ?
Quels sont les facteurs clés de réussite du projet ?
Comment réunir les conditions nécessaires à la réussite du projet ?
Comment le Business case (argumentation des bénéfices) et l’analyse d’impacts associée doivent-ils être suivi par le Sponsor et le chef de projet au fur et à mesure de l’avancement du projet quel que soit la méthode appliquée ?
Comment doter le projet d’une conduite du changement adaptable à son contexte ?
Accompagner le changement (4/4)
La conduite du changement pour sa part, adresse les facteurs humains qui conditionnent les capacités organisationnelles en œuvrant sur le niveau de mobilisation, les relations et les conduites collaboratives, les compétences, le type de management et les pratiques professionnelles, voire la culture de l’entreprise.
À tout moment d’une transformation, elle permet d’identifier les impacts, d’évaluer et d’anticiper les « hauteurs de marche » que devront franchir les collaborateurs et leurs entités. C’est-à-dire qu’elle permet d’évaluer les efforts individuels et collectifs pour réaliser les bénéfices attendus des parties prenantes du changement tant internes qu’externes.
La conduite du changement partage, par des actions de communication « passive » auprès des collaborateurs, les bénéfices du projet et la vision cible, afin de les préparer aux changements. Ensuite par des outils de transformation « actifs », elle cherchera à les rendre acteurs des changements.
Plus qu’une activité de fin de projet, la conduite du changement est une préoccupation constante pour qu’un projet réussisse :
Comment s’assurer que le triptyque habituel « collaborateurs – organisation – outils » sera correctement aligné pour permettre d’obtenir les bénéfices de la transformation ?
Comment garantir que les collaborateurs contribuent au projet, plutôt que de le freiner ?
Comment optimiser les bénéfices par l’action des collaborateurs ?
Comme on vient de l’évoquer, la notion de bénéfices est présente tout au long du cycle des transformations, car c’est autour de cette finalité que l’on peut mobiliser toutes les parties prenantes d’une transformation. C’est pourquoi chez Rhapsodies Conseil nous considérons comme essentiel de piloter les bénéfices comme moyen de maîtriser et d’optimiser les transformations. Nous vous retrouverons dans les prochaines publications pour développer tous les aspects de ce sujet.
Chez Rhapsodies, nous sommes tous focalisés sur la réalisation des bénéfices lorsque nous intervenons chez nos clients.