Il y a quelques jours de cela, nous avons abordé le préambule du Mobile Money en Afrique. Dans ce nouvel article, nous allons désormais nous consacrer au second volet: la genèse de ce moyen de paiement très répandu en Afrique Sub-saharienne.
Un cercle vertueux pourrait se définir comme « une boucle de rétroaction positive dont l’effet est jugé souhaitable ».
En des termes plus simples : un opérateur Mobile Money à pour objectif de
Développer des services financiers,
Rendre accessible ces services depuis un téléphone portable,
Et, simplifier les opérations quotidiennes d’achat et de paiement des utilisateurs finaux.
Bill Price & David Jaffe, abordent la notion clé de la « Valeur Ajoutée » finale dans leur ouvrage « Objectif Client » (2015). Et si vous ne l’avez pas déjà lu, permettez-moi de vous conseiller de vous attarder sur le concept du #Me2B.
En Occident, l’ère du « penser client à chaque étape de la conception d’un produit ou d’un service » continue de gagner en importance.
Sur le continent africain, les réalités économiques, technologiques et business demandent des actions pragmatiques depuis toujours. Sacré challenge, n’est-ce-pas ?
Pour l’image, si vous cherchez à vous documenter sur l’adoption des NTIC en Afrique Sub Saharienne, vous tomberez sans doute sur des anecdotes autour du téléphone portable, des taxi-phones, des fraudes au crédit de communication …
Mais comment le Mobile Money a-t-il trouvé sa place dans tout cela ?
Premièrement, il est clé de souligner qu’en SSA, le Mobile Money repose sur un triptyque qui me semble crucial. C’est un service accessible depuis un téléphone portable développé
Pour les populations africaines (principales rurales mais aussi urbaines),
Par des entreprises africaines,
Sur le continent africain.
Pour le comprendre, il faut donc changer d’optique et plutôt essayer de comprendre les codes de ce continent.
Deuxièmement, le terreau du Mobile Money se trouvait dans ce qu’était les quotidiens de beaucoup de populations africaines :
L’absence de confiance dans le système bancaire : où va mon argent ? Comment le récupérer ?…
Le manque d’explication de la valeur ajoutée amenée par le système bancaire : épargner ? Pour quoi faire si j’ai besoin de mon argent chaque jour et à chaque instant sur le marché ? Pour payer mon gardien ? Pour payer mon taxi-moto ?
La qualité de l’éducation financière : l’accès à l’éducation scolaire tend à se démocratiser mais n’est malheureusement pas encore généralisée. Alors comment l’éducation financière pourrait-elle l’être ?
Le maillage terrain des établissements bancaires : savez vous combien cela coûte de construire, administrer et entretenir une agence ? Cher ! Alors comment ouvrir un compte sans agence bancaire de proximité à moins de 3h de route de chez moi ?
La complexité des formalités administratives : savez vous combien il était cher et compliqué d’obtenir des papiers d’identité ?
Mobile Money, une opportunité ?
Face à tout cela, une opportunité s’est créée : le Mobile Money. Finie la paperasse administrative et bonjour une procédure simplifiée d’ouverture de compte. Un formulaire rempli et signé + une pièce d’identité + un numéro de téléphone donnent désormais accès à une galaxie de services financiers.
⚠️ Pour info : #MonKalpé au Sénégal ou #mPesa au Kenya sont les dénominations marketing et/ou commerciales données aux services de Mobile Money. Ce, pour parler aux populations, leur expliquer et les rassurer ! Depuis un #FeaturePhone (ex: #Nokia 3310 ou #Tecno) ou, via les premiers #Smartphones (#iPhone, #Infinix…), tant que le terminal capte un réseau téléphonique en EDGE, le Mobile Money est accessible, utilisable et sécurisé.
EDGE ? Cela veut dire qu’internet n’est pas nécessaire ! Si vous pouvez appeler et/ou envoyer un SMS, alors le service Mobile Money est accessible ! Pas besoin de #3G ni de #4G ou de #9G.
Pourquoi le réseau téléphonique ? Car pour accéder à son porte-monnaie électronique, un utilisateur devra saisir sur son clavier de téléphone une séquence. Un menu s’affiche alors sur son écran : il s’agit d’un menu #USSD (Unstructured Supplementary Service Data).
Pour les plus de 30 ans arrivés jusqu’ici, je vous demanderai de vous rappeler l’époque de la Mobicarte Orange ! Vous vous souvenez de ce que vous deviez faire après avoir gratté votre carte ? Appeler un numéro ou taper un code USSD !
ET OUI : en occident aussi nous utilisions (et utilisons parfois encore !) la technologie USSD.
Deux éléments ont aidé (et aident encore !) le Mobile Money à se développer :
Le réseau téléphonique : sa qualité et la couverture d’une géographie étant les composantes nécessaires au bon fonctionnement de l’USSD
Le réseau de distribution : à la différence des comptes bancaires, ouvrir un compte Mobile Money peut se faire n’importe où (via une agence ou un point de vente agréé – via formulaire papier ou depuis un téléphone portable!). Un processus qui prend moins de 3 minutes !
Une technologie fascinante et pragmatique au service des besoins quotidiens. Outre la perception de ce système, des chiffres concrets viennent appuyer son développement et son importance dans la sous région.
Dans le prochain article (Part 2 de la Genèse Mobile Money) nous reviendrons sur quelques-uns de ces KPIs et commencerons à étalonner les services clés !
La dataviz périodique est une publication qui a pour objectif de mettre en évidence les bonnes pratiques et les écueils à éviter en matière de data visualisation (aussi appelée dataviz). A chaque publication, nous vous proposons de décrypter un nouveau sujet et un exemple de dataviz pour comprendre les ficelles de la réussite en datavisualisation.
Dans cette édition, nous aborderons le thème des biais de perception en dataviz et nous verrons comment les limiter en prenant exemple sur une publication du Monde : lien vers la dataviz.
Visuel extrait de l’article du Monde présenté en introduction (lien vers l’article)
Si vous souhaitez aborder un sujet complexe, comme celui du Monde qui s’attache à expliquer le positionnement des députés par rapport à la majorité de l’Assemblée nationale, il est nécessaire de porter une attention particulière au type de graphique utilisé.
Une pratique courante est de proposer une vision moyennée d’un phénomène mesurable sur un groupe (e.g. individus, produits) séparé en catégories (e.g. taille, lieu) en utilisant un graphique en barre. Ce type de visuel a l’avantage de comparer les sujets simplement et de donner l’impression de pouvoir appréhender la réalité d’un coup d’œil.
Or ce n’est qu’une impression. La plupart du temps, nous ne nous rendons pas compte du biais de perception qu’induisent les graphiques en barre en gommant les disparités présentes au sein de chaque catégorie (ou barre du graphique).
Dans son article publié sur Data Visualisation Society, Eli Holder explique l’importance de réintroduire de la dispersion dans la dataviz afin de ne pas créer ou confirmer des stéréotypes. [1]
Le stéréotype est une tendance naturelle, souvent inconsciente, qui consiste à penser aux individus en termes d’appartenance à leur groupe social. C’est une façon pratique et utile de réduire la complexité du monde qui nous entoure. Par exemple, au moment de visiter une ville que nous ne connaissons pas, nous pouvons nous adresser à un officier de police ou à un chauffeur de taxi pour demander notre direction, en partant du présupposé que ces personnes seront à même de détenir l’information. [2]
Cependant, il n’est pas opportun d’encourager cette tendance naturelle quand nous concevons des dataviz, en particulier quand le sujet est complexe et appelle une prise de décision éclairée et réfléchie.
Dans le cas du sujet traité par le Monde, il aurait été possible de représenter l’adhésion au texte de la majorité non pas par député mais par parti politique. Or une représentation en graphique en barre du taux d’adhésion moyen des parlementaires par parti politique aurait renvoyé une illusion de similarité au sein des différents partis et aurait amené mécaniquement le lecteur à penser (cf schéma ci-dessous) : « Le parti politique A vote davantage en faveur des textes portés par la majorité que le parti politique C. Donc tous les députés du parti politique A sont plus proches de la majorité que tous les députés du parti politique C. »
Schéma illustratif réalisé à partir de données fictives (toute ressemblance avec des éléments réels serait fortuite)
Pour casser ces biais de perception, il est possible d’introduire de la dispersion dans nos dataviz et ainsi mieux refléter la complexité de la réalité. Des visuels tels que le nuage de point (Scatter Plot) ou le Jitter Plot sont de bonnes alternatives aux graphiques en barre ou histogrammes.
Dans la dataviz du Monde, le nuage de points a été judicieusement choisi pour montrer le positionnement de chaque député. Cette représentation permet par ailleurs de croiser le taux d’adhésion des députés avec leur niveau de participation aux scrutins étudiés. Cela permet de calculer un indice de proximité plus complet et d’éclairer le sujet avec un nouvel axe d’analyse.
Le lecteur est alors moins tenté de confondre le positionnement des députés avec celui des partis politiques pour le comprendre, et donc moins enclins à faire des préjugés.
Visuel extrait de l’article du Monde présenté en introduction (lien vers l’article)
En définitive, nous observons à travers l’exemple du Monde, qu’il est parfois nécessaire d’introduire de la dispersion dans les représentations visuelles pour traiter un sujet complexe.
Les nuages de points et autres diagrammes de dispersion, permettent au lecteur d’appréhender un phénomène à la maille la plus fine et de limiter la création ou l’entretien de stéréotypes. Le lecteur est alors plus à-même de prendre du recul par rapport au sujet traité et de développer un point de vue éclairé quant au phénomène étudié.
De manière plus générale, Eli Holder propose d’élargir notre conception de la “bonne dataviz” et d’aller au-delà de la représentation claire, accessible et esthétique. Il est nécessaire de prendre en compte sa responsabilité, en tant que créateur de dataviz, vis-à-vis de son public et du sujet traité. Il est essentiel de porter une attention particulière aux visuels choisis pour minimiser les interprétations inexactes, et par extension, la création de stéréotypes.
Cet article est le troisième d’une série présentant les évolutions des rôles des différents architectes dans la nouvelle version 6 du framework SAFe.
Après avoir étudié le System Architect et le Solution Architect, rencontrons l’Enterprise Architect ! Avant de rentrer dans le vif du sujet, nous souhaitions vous faire part de nos impressions quant aux évolutions du rôle de l’Enterprise Architect.
Dans les versions précédentes, le rôle de l’architecte d’entreprise n’était pas très détaillé. Il était clair que celui-ci intervenait dans la définition de la stratégie et aidait à mettre en adéquation les évolutions du système d’information avec celles du métier de l’entreprise, mais cela s’arrêtait là.
Dans cette nouvelle version, le framework contient beaucoup plus de détails sur les responsabilités de l’architecte d’entreprise. Celui-ci gagne ses lettres de noblesse et récupère dans sa bannette des sujets qu’il aurait toujours dû avoir (par exemple la rationalisation du portefeuille technologique). Son rôle n’est plus dans la pure stratégie décorrélée du terrain, il devient plus concret.
En revanche, il a aussi tout un lot d’activités nouvelles, que nous détaillerons dans la suite, et qui nous font dire qu’il faut avoir les épaules très larges pour occuper ce poste. L’architecte d’entreprise semble être partout à la fois, il est devenu une sorte de couteau-suisse ou d’architecte tout terrain si vous me passez l’expression.
Serait-il devenu l’architecte de l’entreprise ? Celui qui cumule bon nombre de responsabilités et qui collabore très largement avec l’ensemble de l’entreprise ? C’est ce que nous allons découvrir dans la suite !
De nouvelles responsabilités : De la définition de la stratégie, aux mains dans le code.
L’entreprise Architect s’est ainsi beaucoup musclé au passage de la version 5 vers la version 6 du framework Safe. Il est certes toujours responsable, au mot près, de la stratégie. Mais d’un rôle de facilitateur semi-passif (« Collaborating », « Assisting », « Helping », « Participating », etc…), il bascule vers un rôle de prescripteur. Un regard critique dirait qu’il retrouve ses prérogatives naturelles… Ainsi les différents (et nouveaux) rôles définis par le framework Safe sont :
Aligning Business and Technical Strategies
Coeur de métier de l’entreprise architect, son rôle est avant tout d’aligner l’architecture avec la stratégie IT, le tout en partageant ainsi sa vision et la stratégie business. Il identifie également les value streams à mettre en place, entretient ses relations avec les différentes équipes et va même jusqu’à participer aux démos.
Establish the Portfolio’s Intentional Architecture
Il s’agit là de définir une architecture cible avec des technologies cibles, des patterns d’architecture, le tout en synchronisant toutes les équipes ensemble. Fait marquant, l’apparition de la démarche inverse de Conway, consistant à définir une architecture, puis à calquer l’organisation sur cette architecture. Le contraire de ce qui est fait en général somme toute. L’architecte d’entreprise devient donc le responsable de la définition de l’organisation des équipes, ce qui en soit est un gros shift!
Rationalizing the Technology Portfolio
Le grand classique de l’architecture d’entreprise. On mutualise, on réduit les coûts, on réduit la complexité, etc…
Fostering Innovative Ideas and Technologies
Le titre est presque trompeur. Il s’agit surtout de permettre d’avoir un environnement technologique moderne et “propre”, en supprimant les technologies obsolètes, apporter du support aux environnements de développements, mais aussi en alignant les choix technologiques avec les business models pressentis.
Guiding Enabler Epics
Il est epic owner sur les initiatives d’architecture, et participe aux réunions safe pour s’assurer du bon alignement des équipes.
L’architecte d’entreprise reprend donc son rôle d’architecte d’entreprise, du métier aux développeurs, en passant par l’organisation des équipes. Par contre, son rôle est beaucoup plus étendu que dans la version 5, se retrouvant ainsi au milieu de nombreux acteurs.
Un accent mis sur la collaboration : D’une tour d’ivoire à un lean-agile leader
En effet, dans la version précédente de Safe, l’architecte d’entreprise était vu comme gravitant surtout dans les hautes sphères et ne collaborait qu’avec les autres architectes et des acteurs de haut niveau ou très transverses (Lean Portfolio Management, Agile Program Management Office, et le Lean-Agile Center of Excellence par exemple).
Il était supposé maintenir des relations avec les personnes de chaque Train mais ses activités quotidiennes ne s’y prêtaient guère. A présent que son périmètre s’étend considérablement, il sera amené à croiser des acteurs beaucoup plus nombreux. Il intervient comme proxy des acteurs business et doit être capable de porter la vision et la stratégie business auprès des différentes parties prenantes.
Il participe également à tous les événements en lien avec les enablers epics et aura donc l’occasion d’interagir avec les acteurs opérationnels des différents Trains.
Ses responsabilités étant également plus distinctes de celles des autres architectes, leur complémentarité est d’autant plus mise en évidence. Une collaboration efficace entre l’Entreprise Architect, le Solution Architect et le System Architect garantit l’alignement.
Enfin, l’Entreprise Architect doit incarner le Lead Agile Leader par excellence. Il mentore les équipes agiles, contribue à la mise en place de nouveaux modes de fonctionnement, et montre l’exemple en continuant à apprendre et à évoluer. Une forme de super héros inspirant tout le monde sur son passage, facile non ?
Si ces sujets vous intéressent…
Pour plus d’informations sur ces sujets et sur le rôle d’architecte dans un environnement agile, n’hésitez pas à aller voir notre série d’articles sur l’architecture et l’agilité.
Les articles 4 et 6 peuvent en particulier se révéler utiles :
Dans l’article 6, intitulé “Les 7 formations de l’Architecte Agile”, nous avions évoqué le besoin de formation SAFE pour l’architecte, et nous avions également parlé de la posture de coach de l’architecte via la process communication et la PNL.
Parmi la littérature conseillée par le framework Safe, on ne peut que vous conseiller le fameux livre “Team Topologies” qui évoque le rapprochement des équipes technologies et business :
Le Mobile Money Pan-africain est un exemple en matière d’expérience client et une référence dans l’industrie du paiement. Mais… Écrire dessus demande tout de même une rapide introduction – que vous soyez aficionados du paiement ou pas !
Cette technologie et lesservices financiers qu’elle apporte mettent en exergue combien l’adaptabilité et la réactivité sont importantes.
Je souhaite donc profiter de ces mots pour préciser quelques points qui me semblent essentiels :
📚 Le continent Africain est source d’apprentissages car il demande à chacun, chaque jour, d’apprendre à désapprendre ;
🔍 « One size does not fit all » et cela n’arrivera jamais car le continent d’hier n’est pas le continent de demain !
Mobile Money, de quoi s’agit-il ?
Mais… qu’est ce que le Mobile Money ? Réponse compliquée car service aux multiples facettes. Essayons d’en faire une équation simple :
Concrètement : oubliez votrecarte bancaire ou les virements bancaires.
Maintenant, imaginez 2 secondes pouvoir utiliser votre numéro de téléphone, et votre téléphone portable (#Nokia3310 ou #iPhone14) comme un compte épargne non rémunéré (à date) et comme un moyen de paiement. Un rêve ? Non ! Une réalité.
C’est le quotidien d’au-moins 1.35 Milliards d’utilisateurs enregistrés (oui oui, vous avez bien lu) dont 605 Millions uniquement en Afrique Sub-saharienne (GSMA – SOTIR, 2022).
Le Mobile Money, service pour les populations avant tout
Grâce à leurs téléphones portables, les populations africaines peuvent
Déposer et Retirer de l’argent à toute heure du jour et de la nuit – 24/7 ;
Transférer instantanément de l’argent à leurs proches (de manière domestique, inter-régionale et internationale) ;
Acheter du crédit de communication et de la data internet (oubliez vos forfaits payés tous les mois chez Orange (France) ou AT&T (US)) ;
Régler un achat en supermarché ou en ligne ;
Payer une taxe administrative ou gouvernementale…
Savez-vous où réside la beauté de ces services selon moi ? Dans leur approche pragmatique et orientée client. Ils apportent, autant que possible et toujours dans une démarche orientée utilisateur, une véritable valeur ajoutée. Chaque type de service a son importance et sa définition propre :
Approvisionner son compte Mobile Money est un dépôt (#CashIn) ;
L’envoi d’argent sur un compte utilisateur tiers est un transfert d’argent (#P2P) ;
Un transfert se distingue d’un paiement marchand (#MerchantPayment) ;
Un paiement marchand est à ne pas confondre avec un paiement administratif (#G2C , #C2G ou #G2B).
Un petit dernier ? Le paiement en masse (#Bulkpayment). KESAKO ?!
Ensemble, nous allons découvrir un monde que beaucoup de personnes n’ont pas encore eu la chance de voir. Le Mobile Money est la conjugaison de questions ethnologiques, sociologiques, marketing, financières et réglementaires.
Que vous soyez simplement curieux(se) ou intéressé(e), j’espère qu’à la fin de cette série de 5 articles vous serez convaincu(e) du côté alternatif aux systèmes traditionnels de paiement que représente le Mobile Money pour les acteurs locaux: utilisateurs, marchands…
Un petit indice sur le prochain article ? Genèse.
A propos de l’expertise Retail Payment chez Rhapsodies Conseil : nous accompagnons nos partenaires marchands locaux et globaux à construire et à optimiser leur(s) infrastructure(s) de paiement. De la gestion de leurs opérations quotidiennes à la définition de leurs stratégies de paiement globales (omnicanal, multi-PSP, lutte contre la fraude, orchestration, etc.), les compétences de nos experts paiements sont là pour vous aider à optimiser vos processus de paiement et à améliorer l’expérience de vos clients finaux.
“Application Integration” est un ajout récent au catalogue de services de la plateforme Cloud Google (GCP). Il s’agit d’une solution d’iPaaS (Integration Platform as a Service), composée par Google sur la base de ses Services Managés pour offrir des fonctionnalités que nous retrouvons traditionnellement dans les solutions d’intégration pure players (#Boomi #MulesoftAnypoint #Snaplogic, …) (bibliothèque de connecteurs techniques/applicatifs, environnement de développement, mappings, …).
Quelles sont les caractéristiques du service “Application Integration” ?
Sous quelle forme se présente le service et comment s’intègre-t-il avec les autres technologies de la plateforme GCP ?
Interface de la plateforme et modèle de déploiement
La plateforme permet de concevoir graphiquement les flux d’intégration entre applications à l’aide :
des déclencheurs d’un traitement à effectuer (« triggers »),
des opérations de mapping et traitements techniques (« tasks »),
des conditions d’exécution de ces opérations et les contrôles d’embranchements conditionnels (« forks » et « joins »).
“Application Integration” est un service full managé de Google Cloud Platform. Pour l’heure un déploiement en mode hybride ou On-Prem n’est pas possible.
Modèle de facturation par typologies de connecteurs
Le service comprend une bibliothèque de connecteurs technologiques / applicatifs permettant de s’interfacer avec différentes applications, composants de l’écosystème Google ou tiers (progiciels du marché, bases de données open source, systèmes de messaging…).
Ces « Integration Connectors » fonctionnent sur un modèle de paiement à l’usage, selon différentes modalités. Ainsi la facturation s’effectue en fonction des éléments suivants :
Le nombre de nœuds de connexion utilisés
Un connecteur provisionne un nœud à la création d’une connexion, ce dernier va traiter les transactions. Un accroissement du nombre de transactions entraînera ainsi une augmentation du nombre de nœuds provisionnés. Ceci en fonction du nombre de transactions traitées par seconde et de la bande passante réseau utilisée par la connexion
Le nombre de nœuds actifs mesuré par minute sera facturé, et un nœud est facturé pour au moins une minute.
La facturation liée à la provision de nœuds diffère selon 2 catégories de connecteurs :
Les connecteurs pour des services Google (BigQuery, Pub/Sub et Spanner…)
Les deux premiers nœuds de connexion provisionnés sont gratuits.
Chaque nœud suivant est facturé 0,35 $ par heure.
Les connecteurs pour l’interfaçage avec des applications tierces (ServiceNow, Salesforce…)
Chaque nœud est facturé 0,70 $ par heure.
Les quantités de données traitées par les connexions
Les quantité de données mesurées incluent les requêtes et les réponses
L’utilisation gratuite inclut 20 Go de données traités par les connexions par mois
Chaque Go supplémentaire est facturé à 10 $ par Go
La version de connecteur actuellement proposée
Les connecteurs en « Preview », ne comportant pas toutes les fonctionnalités prévues, n’étant pas rattachées à un assistance et un contrat de service, ne sont pas facturés
Les connecteurs en « disponibilité générale », couverts par un contrat de service et incluant une assistance sont facturés à l’usage.
A titre d’exemple, on peut donc distinguer les connecteurs suivants :
AlloyDB, BigQuery ou encore Pub/Sub – pour des services Google et en disponibilité générale
Cloud Storage et Cloud Spanner – pour des services Google et actuellement en Preview
MongoDB, Snowflake, ServiceNow, etc. – pour des applications autres et en disponibilité générale
Zendesk, Splunk ou encore ElasticSearch, etc. – pour des applications autres et en Preview
Intégration avec des outils/environnements de développement tiers
Comme évoqué précédemment, la plateforme fournit une interface graphique pour construire des flux d’intégration en Drag & Drop, mais il est également possible d’intégrer des traitements spécifiques supplémentaires.
Google Cloud Functions est un service de la plateforme GCP permettant de créer des fonctions déclenchées sur évènement.
La « Cloud Function Task » permet d’interagir avec des Cloud Functions crées sur GCP (seul l’environnement d’exécution Python est supporté par le service Application Integration pour l’implémentation des fonctions).
L’exécution de la Cloud Function sera intégrée à la séquence d’exécution du flux d’intégration sur Application Integration.
Automatisation de parties de workflow de développement de flux
Duet AI est un service Google proposant un assistant virtuel, intégré à l’interface d’”Application Integration”. L’assistant est ainsi intégré dans le workflow de développement du flux d’intégration, suggérant un mapping à l’aide d’inputs en langage naturel, sur l’intégration à implémenter :
Inputs : traitements à réaliser, applications source et cible, event qui déclenche une opération, etc.
Outputs :
Production d’un mapping par défaut,
Production de document de spécifications et de cas de test fonctionnels.
En point notable, nous remarquons qu’”Application Integration” est avant toute chose une solution full GCP. Pas d’hybridation, cette modalité d’instanciation à date n’est dévolue qu’à APIGEE dans le catalogue de GCP sur les briques d’intégration.
La solution Apigee est-elle pour autant le point d’entrée unique d’une architecture hybride ? C’est en tout cas l’impression que cela nous donne à date.
Néanmoins, nous saluons l’effort de Google d’aller sur le marché de l’iPaaS, sans offre équivalente sur le marché des clouders Azure / AWS. Ces derniers proposent à ce stade, à couverture fonctionnelle comparable en matière d’intégration, des services / modules distincts plutôt qu’un applicatif packagé (logic apps, lambda, step functions…).
“Application Integration” parviendra-t-il à détourner la clientèle des solutions iPaaS pure players ? Nul doute que les actuels clients GCP s’interrogeront.
Dans les pays anglo-saxons, les certifications professionnelles sont très prisées. Qu’en est-il de ces formations certifiantes dans le domaine de la gestion de projet en France ?
Nous observons que ce marché s’est fortement développé ces dix dernières années. Dans les faits, les éditeurs profitent en France d’une demande soutenue pour ces formations subventionnées (avec les CPF et fonds des OPCA). Ainsi, les éditeurs des certifications et les centres de formation partenaires y ont trouvé une opportunité de croissance facile de leurs activités. Un récent inventaire auprès de 6 éditeurs majeurs (GPM, IPMA, PMI, APM, AACEI, APMG) révèle que près de 80 certifications sont possibles rien qu’en gestion de projet.
Force est de constater qu’un phénomène de dérive commerciale des formations professionnelles s’est installé et nous rapproche du modèle Anglo-Saxon. Que l’on soit consultant ou futur collaborateur en cours de recrutement, il devient indispensable d’afficher des certificats et autres badges pour que son profil soit remarqué ou du moins digne de confiance. Cette dérive en est presque à un stade viral. Plus les consultants et recrues veulent se démarquer, plus ils en demandent ; et plus les clients et employeurs en voient passer et en découvrent de nouveaux, plus ils s’y attachent.
A cet effet purement commercial, d’autres effets s’ajoutent. Le foisonnement des formations certifiantes, basées sur des modèles et cadres de pratiques, touche aussi aux dimensions marketing, cognitive, et reconnaissance des actions de formation professionnelle.
Dimension marketing : Les éditeurs essentiellement à l’international ne se sont pas arrêtés à la promotion d’une offre large de certificats, vecteur de différenciation et de visibilité sur les réseaux professionnels. C’est ainsi que des majors comme ISO, PMI, Axelos, IPMA, APM, Isaca, Open Group, ISC2, et autres éditeurs logiciels font œuvre de créativité, en proposant leur système de fidélisation le plus « addictif ». Comme la validité des certifications est limitée dans le temps, les nouvelles qualifications acquises doivent être maintenues. C’est pour cela que les éditeurs proposent des renouvellements par adhésion annuelle et l’acquisition de PDU* pour certains. Or ces actualisations ne démontrent que le maintien des connaissances. Elles ne proposent rien concernant leur mise en pratique effective.
Plus récemment, vous l’avez peut-être constaté, la nouvelle tendance est aux micro-certifications (micro-credentials). Les éditeurs, sous couvert d’apporter plus de flexibilité aux parcours de formation professionnelle continue, suggèrent de fractionner les programmes longs de formation en développement de compétences. Cela apporte des conséquences : détourner l’effort d’investir le temps nécessaire à l’acquisition d’un corpus complet ou au contraire de pousser à de la consommation compulsive de micro-certifications. C’est un autre travers observé à l’étranger, certains se laissant emporter à cumuler les certifications comme une liste à la Prévert. A se demander quand ces candidats trouvent le temps de les appliquer dans leur travail. C’est un point qui questionne l’intérêt pédagogique de cette forme d’actions de formation au regard des arguments marketing utilisés.
Dimension cognitive : Pour nous Français, le principe de certification des éditeurs anglo-saxon, nous amène toujours à devoir nous focaliser sur la compréhension de l’anglais avant celle des contenus. Même si les formations sont faites en français, l’évaluation par QCM se termine toujours en une séance de bachotage pour réussir l’examen qui accorde la certification. Cet autre point, questionne la réalité de l’acquisition des connaissances (Fondation) et dans une moindre mesure de la capacité à leur mise en pratique (Practionner).
Dimension reconnaissance : Bien souvent, la mise en scène des modalités d’examens est sécurisée par le recours à des organismes tiers de confiance comme CERTyou. Les éditeurs les plus en vue ne laissent aucune place à la fraude, même depuis chez soi. C’est l’argument de crédibilité qu’ils mettent en avant pour nourrir la relation de confiance entre un consultant et son client ou un candidat et son recruteur. Mais en France, contrairement à l’international, nous sélectionnons essentiellement les profils d’après les diplômes issus de la formation initiale. Dans le cadre de la formation continue, les certifications professionnelles restent peu voire non reconnues selon les secteurs d’activités. Est-ce par méconnaissance de ce qu’elles représentent et de ce qu’elles démontrent ou parceque le marché français est critique vis-à-vis des deux biais précédents ?
Aujourd’hui, de plus en plus de voix s’élèvent parmi les personnalités reconnues dans le monde de la Gestion de projet pour dire que le modèle actuel n’est pas adapté. Trop de temps de formation en classe axée sur l’acquisition de connaissances avec des examens qui se concentrent sur les informations apprises et pas assez de temps d’apprentissage en situation de travail. Cela questionne la nécessité de formations étalées dans le temps pour apprendre à résoudre les problèmes lorsqu’ils surviennent. C’est ce que l’on observe presque exclusivement en formation sur les approches Agile.
Source : Pexels
En conclusion, il ne faut donc pas se laisser aveugler par le discours des éditeurs et des centres de formation. Il importe que chacun interroge son projet, challenge ce que l’on attend de l’obtention d’une certification et/ou d’une micro-certification avant de se lancer. Est-ce seulement acquérir un nouveau corpus de connaissance ou faire la démonstration d’une expérience déjà visible sur son CV ? Autrement, il existe d’autres formes plus économiques, modulables et appliquées comme les MOOC ou encore des conférences en ligne. Même si l’investissement temps est plus élevé. La question reste alors de savoir comment sont reconnues les attestations délivrées par les producteurs de ces formations.
*PDU : Professional Development Units. Un PDU est une unité de mesure utilisée pour quantifier les activités de formation et de service professionnel approuvées et correspondent à des blocs temporels d’une heure consacrés à l’apprentissage, à l’enseignement ou au volontariat.