agilite-source-de-valeur-dans-gestion-de-transformation

L’introduction de l’agilité : source de valeur en gestion des transformations

L’introduction de l’agilité : source de valeur en gestion des transformations

10 février 2022

– 11 min de lecture

Karl Berard

Consultant Pilotage Projets & Produits

De plus en plus les Responsables de la gestion de portefeuille de projets œuvrent à maximiser la « Valeur » des projets inscrits dans leur portefeuille. Ils disposent depuis la montée en force de l’agilité à l’échelle, de plusieurs techniques issues des approches Lean et Agile. Dans ce nouvel épisode, il s’agit d’associer certaines de ces modalités aux différents facteurs de la gestion des transformations à même de faciliter la création de valeur des projets à mener.

Précédemment nous avons parcouru les différentes acceptions attachées à la notion de « Valeur » rencontrées dans l’entreprise. Puis nous avons tenté de reconnaître les dimensions de la « création de valeur » considérées en gestion des transformations que les professionnels des projets ont à charge de maximiser. Cette fois, continuons l’exercice de clarification en nous intéressant aux leviers de la valeur à la main des PMOs en charge de portefeuille de projets.

En préambule, il est bon de rappeler les domaines de la sphère d’influence du PMO quel que soit son niveau d’intervention dans l’organisation : 

L’alignement stratégique des projets : « FAIRE LES BONS PROJETS »

La maximisation des résultats des projets : « BIEN FAIRE LES PROJETS »

L’optimisation de l’usage des ressources engagées : « LES BONS MOYENS POUR FAIRE LES PROJETS »

Pour ce faire, les PMOs peuvent puiser dans différentes approches, démarches et référentiels de pratiques qui permettent d’impacter les organisations autant sur la valeur qu’elles apportent à leurs clients que sur les moyens par lesquels elles fournissent cette valeur. Parmi elles, l’agilité connue pour apporter aux organisations des capacités à générer plus de valeur en plaçant la satisfaction du client au centre des préoccupations, tout en faisant en sorte de s’adapter aux changements de son environnement. Nous allons voir comment cette approche est en mesure de faciliter l’action des PMOs.

A l’international plus qu’en France, il est reconnu que le PMO n’est pas qu’un comptable de la valeur qui résulte des portefeuilles de projets mais celui attendu pour impacter positivement l’organisation dans la création de valeur issue des transformations sous sa responsabilité. Il dispose pour cela, de plusieurs leviers pour y parvenir qu’il met en œuvre au travers de son dispositif de gouvernance et de pilotage des transformations de l’entreprise. Dans ce domaine de gestion, la confusion actuelle provient de la multitude d’actions possibles face aux différents leviers de la valeur des transformations sur lesquelles agir.

La valeur des transformations par la gestion des flux de valeur pour un meilleur alignement stratégique du portefeuille

La performance ne peut se réduire au seul plan économique. Elle se définit comme la mise en perspective de la valeur produite par rapport à toutes les ressources consommées, y compris celle du temps. Aussi la valeur qui en est déduite, n’est pas l’ultime indicateur de la réussite d’un projet. Car même si son potentiel est créé tout au long du projet, c’est plus souvent bien après l’achèvement du projet qu’elle est constatée. En conséquence, l’essentiel de la valeur des projets provient de leur bon alignement stratégique, comme levier d’impacts sur les nouvelles capacités organisationnelles à mettre en place pour accroître la valeur commerciale ou opérationnelle de l’entreprise. On entend fréquemment que l’alignement stratégique recouvre plusieurs dimensions de mise en cohérence regroupées selon deux axes. 

Les dimensions de la mise en cohérence verticale couvrent la déclinaison de la stratégie dans l’entreprise :

  • La stratégie de l’entreprise ;
  • La conception de l’organisation ;
  • La stratégie de développement technologique ;
  • L’infrastructure et le processus des systèmes d’information. 

Les dimensions de la mise en cohérence horizontale traitent son intégration à la fois stratégique et fonctionnelle entre les domaines internes, à chaque niveau de la déclinaison de la stratégie et leurs adhérences externes :

La mise en place de la cohérence entre la stratégie générale et la stratégie de développement technologique se pose aussi de façon dynamique. Il est maintenant fréquent que la stratégie d’une organisation change et que le système d’information et son portefeuille de projets ne se retrouvent plus alignés. C’est pour cette raison qu’un modèle d’alignement stratégique dynamique est devenu nécessaire. L’approche agile appliquée à la gestion de portefeuille de projets y apporte plusieurs éléments de réponse.

L’articulation entre la stratégie et l’exécution des travaux ainsi obtenue, permet de livrer le meilleur compromis de résultats attendus pour la période, dans la limite des moyens accordés aux flux de valeur. L’un des effets connexes du traitement systémique de la valeur est de rompre les silos organisationnels en résolvant des frictions entre équipes et des gâchis de ressources mal affectées.

La valeur des transformations par le pilotage des indicateurs pour une visibilité accrue sur les impacts des transformations

Dans le contexte du modèle de gestion traditionnelle de portefeuille de projets, la valeur est évaluée à l’achèvement des projets à travers le respect des engagements pris. Elle est déterminée selon des pratiques de calculs centrées sur le Triangle d’or de la gestion de projets (Coût, Qualité, Délais). Ici, la Valeur tend à provenir de la conformité de la progression du projet vis-à-vis de sa planification. La raison en est que l’accord de financement du projet présuppose l’acquisition de sa valeur. C’est ce postulat qui focalise tous les acteurs des projets à vouloir rester en conformité avec les engagements pris et ses livrables. Cette conception de mesure de la valeur des projets est en fin de compte un trompe l’œil, puisqu’elle s’appuie sur des mesures à postériori qui ne sont pas comparées aux résultats effectivement délivrés aux clients et usagers. Qui d’entre vous n’a pas été témoin d’une célébration de fin de projet dont les fonctionnalités n’ont pas été ou que partiellement utilisées sans satisfaire ses utilisateurs ?

Il est nécessaire de revisiter les mesures et la responsabilisation des contributeurs impliqués dans la création de valeur des projets d’un portefeuille. La progression de la réalisation des bénéfices effectivement obtenus par l’entreprise dépend d’un changement de référentiel d’observation et des métriques utilisées qui passent par :

Pour y parvenir, la pensée Lean propose plutôt de se focaliser sur la progression du travail en référence à la Théorie des Contraintes. Pour les PMOs cela signifie d’observer la fluidité des travaux pour s’assurer du flux continue des livraisons, apportant ainsi une contribution plus soutenue de valeur pour les métiers, les équipes projets et l’organisation dans son ensemble. L’analyse de ces flux permet aux équipes de comprendre leurs limites de capacité, faciliter l’identification des problèmes, et aider à se focaliser sur la remise à flot du travail. Pour ce faire, une économie autour des résultats métiers apportés par les projets doit être interrogée :

Tous ces éléments associés à la notion de flux de valeur aident les PMOs à engager les actions propres à stabiliser, accroître, accélérer le flux des travaux. Ils touchent à la fois à des aspects opérationnels, processus et performances. Ils servent aussi de support d’évaluation de leur impact selon trois perspectives. 

La valeur des transformations par la qualité des livrables et la maximisation de la valeur d’usage dans la conception des produits et services

Par construction, la gestion du portefeuille nécessite l’approbation de l’engagement des travaux par les principales parties prenantes de l’organisation. La demande de travail proposée est ainsi ouverte à un examen minutieux des résultats annoncés, car les chefs de projet savent que tout travail approuvé dans un domaine, supprime le financement d’un travail potentiel dans un autre domaine. La Direction, en tant que responsable de l’équilibre des contraintes (budget, calendrier, ressources, risques) au sein de son Domaine, a la responsabilité d’approuver et de faire exécuter le travail ayant le compromis Priorité (Time to Market – Valeur – Risque) le plus favorable. Le PMO est là pour l’assister dans la préparation de ces décisions. Il agit à la fois en facilitant l’obtention des résultats attachés aux engagements pris par les tandems sponsor – chef de projets et en étant vigilant sur les dispositions nécessaires à la réalisation des bénéfices qui en découlent. 

L’approche agile propose parmi ces apports, deux concepts d’incrémentation des livraisons aux métiers, qui constituent un facteur essentiel à la réduction du risque d’échec des projets au sens de la création de la valeur métiers.

Si Frank Robinson a introduit en 2001 le concept du MVP (Minimum Viable Product) considéré comme le résultat du processus du développement en parallèle du produit et des clients. Il reste réservé à la création de produits et de services. Il assure que 20% des fonctionnalités permettent d’atteindre 80% de la satisfaction des clients comme une adaptation du principe de Pareto qui se base sur la loi suivante : 80 % des effets sont le produit de 20 % des causes.

Al Shalloway pour sa part, a introduit presque dans le même temps, le concept du MBI (Minimum Business Increment). L’incrément de valeur commerciale minimal est utilisé dans le cas où les clients ou le produit existent déjà et que l’on souhaite améliorer l’offre existante. Le MBI définit ainsi, une ligne directrice et une orientation commune au sein de toutes les équipes de l’entreprise. Les travaux de définition, d’implémentation et de mise en service sont concentrés sur la livraison d’un incrément à forte valeur ajoutée, dans un temps donné. Il permet ainsi de séquencer la liste des travaux en se basant sur la réalisation de valeur comme critère de base. Il n’est plus question de priorisation des besoins selon l’importance aux yeux du client final, mais de la priorisation des projets dans le « pipe » selon leur valeur. A l’instar d’un besoin, un projet peut être accéléré, mis à l’écart, voire même abandonné. Ceci n’est pas obligatoirement un signe d’échec, et permet au contraire d’éviter le gaspillage des ressources ou certains projets déficitaires/en retards.

En surveillant la cohérence des MVP et MBI, le PMO participe à l’augmentation de la valeur des résultats délivrés par les projets et produits au portefeuille. Il peut être celui qui introduit la mise en œuvre de ces pratiques de sélection des travaux, celui qui sécurise la réalisation des bénéfices attendus des métiers et en communique les éléments aux acteurs concernés. La double temporalité des processus de planification et de livraison du portefeuille lui fournit des critères suffisants d’une évaluation cohérente de la valeur des travaux. Ceci simplifie la comparaison du travail sur une base plus juste et permet aussi de s’assurer que le travail autorisé est valorisé, aligné et équilibré au sein du portefeuille des projets.

La valeur des transformations par l’adéquation entre les besoins en compétences et le développement des collaborateurs

Les compétences mobilisées sur les projets ont toujours été tirées par une recherche d’adéquation des effectifs d’après leur disponibilité et profil plus que par leur implication. Au fil du temps les notions d’engagement, de responsabilité, de performance collective et de leadership sont devenues des facteurs parmi les plus importants dans la réussite des projets. Les directions ont encore pour habitude de perpétuer à leur façon, culture et éthique héritées des spécificités de leurs activités et de leur histoire, sans identifier si elles reposent sur des « softskills » qu’ils leur faut faire évoluer. L’un des effets de ce manque de considération, s’observe chez les collaborateurs en perte de sens individuelle qui résulte à la fois d’un ressenti de manque de visibilité sur la finalité des travaux, d’autonomie dans l’organisation du travail (répartition, planification), d’expériences mobilisées et de perspectives d’évolution dans ses métiers.

Sans être en responsabilité envers les parties prenantes du portefeuille, Les PMOs d’une direction ou d’un domaine occupent un rôle central de facilitateur et de mise en relation des personnes. Avec ce positionnement, ils sont devenus les mieux placés pour développer l’état d’esprit (mindset) et les comportements propices à l’engagement nécessaire au sein de leur organisation. Ils peuvent y contribuer en libérant les freins aux actions transversales, en réduisant les obstacles par la promotion de la transparence et le partage des retours d’expérience utiles. Pour les y aider, les principes du management 3.0 définis par Jurgen Appelo dans son livre Management for Happiness, apportent des outils propres à maintenir les collaborateurs créatifs et motivés. Parmi les effets reconnus on trouve : 

  • Dynamiser les personnes ;
  • Responsabiliser les équipes ;
  • Aligner les contraintes ;
  • Développer les compétences ;
  • Développer les structures ;
  • Améliorer le tout. (ou comment articuler changements et amélioration continue)

Les PM Officers agissent directement sur le modèle Matriciel pour en faire une organisation plus organique, vecteur d’autonomie dans le choix des compétences nécessaires au développement des profils. En intervenant transversalement par un ensemble de pratiques et leur cohérence, ils développent l’unité, la complémentarité pour fluidifier les échanges et les prises de décisions éclairées (risques à réduire, adhérences entre projets, maturité de l’organisation des équipes, gestion du temps). Le décloisonnement des équipes au sein de leur direction et de l’entreprise a pour effet de diminuer les coûts systémiques qui relèvent de la coordination. Les équipes bénéficient d’une dynamique de responsabilisation. Laquelle apporte aux projets la mobilisation des ressources individuelles les plus adéquates (cognitives, comportementales, managériales) dans un collectif focalisé sur les résultats visés par les projets.

La valeur des transformations par les capacités organisationnelles propre à faciliter l’adaptation de l’organisation et des projets

Les pratiques de gestion prédictive auxquelles nous sommes habitués sont devenues impuissantes devant l’amplification de l’incertitude sur la planification des projets qui augmente toujours plus le risque agrégé des portefeuilles. Les dispositifs et pratiques de gouvernance, de travail et des technologies à disposition sont pour cela caractéristiques du modèle d’organisation hiérarchique, fonctionnel et prédictif qui prédomine. Ce modèle n’est plus en mesure de faire progresser la maturité de l’entreprise face aux nouveaux déterminants de sa création de valeur. Ceux dont nous sommes les plus familiers touchent aux Conditions du marché, au Cadre réglementaire, aux Avancés de la recherche académique et aux standards industriels. Tandis que ceux propres à l’organisation relèvent des considérations financières, sociales et culturelles, de l’environnement physique de travail et du maintien des capacités opérationnelles.

Parmi les acteurs des directions intermédiaires en charge de faire face à ces déterminants internes, il revient au PMO à travers les projets au portefeuille de favoriser la création de la bonne valeur, au bon moment, pour le bon public. A lui d’agir sur les facteurs organisationnels à même de faciliter les flux de valeur issus de ses activités, touchant à la sélection des travaux à mener, à l’engagement des ressources au sens large et à fédérer les équipes autour d’objectifs communs.

Pour arriver à progresser de nouveau, les approches agiles et leurs dérivés apportent beaucoup d’éléments prompts à faciliter la création de valeur organisationnelle en question. Cependant, celles-ci exigent d’appréhender tout ou partie d’un nouveau système de gestion qui se traduit entre autres par des changements vers un environnement plus transparent (nous l’avons évoqué précédemment), et la mentalité du « tester, apprendre et s’adapter ». Que l’on évolue vers une approche hybride comme le promeut le modèle Discipline Agile de Scott W Ambler, ou une autre d’Agilité à l’échelle inspirée du modèle SAFe de Dean Leffingwell, ils comportent tous un ensemble d’exigences applicables à la gestion de portefeuille Agile dont certaines ont déjà été abordées :

Les PMOs ont pour terrain de jeu celui de la conduite des transformations. Si cet espace est à la mesure des impacts qu’ils peuvent y faire ; c’est le résultat de leurs actions de gestion qui permet d’aboutir au constat que le portefeuille des projets crée plus de valeur que la somme de ses éléments. Leur travail sur les facteurs de valeur organisationnels contribue à faciliter l’adaptabilité, la flexibilité, l’intégration, la communication, et le traitement des données des projets. Ils participent au développement de nouvelles capacités organisationnelles qui résultent d’une rigueur dans l’amélioration continue des pratiques. C‘est ainsi que le PMI (Project Management Institute) reconnais plusieurs de ces apports :

Pour résumer ce long propos, nous savons maintenant comment un PMO devient progressivement l’acteur des organisations, apte à accroître la valeur des transformations. Il peut s’appuyer sur les approches Lean-Agile et ce à plus d’un titre : 

Pour faciliter l’adaptation des capacités organisationnelles de transformation, il se réfère à un modèle d’hybridation du travail et des rôles dans l’organisation en tant que vecteur d’adoption des valeurs et principes agiles, avant même les pratiques applicables à la gestion de portefeuille.

Les Leviers de création de valeur de la gestion des transformations

Le thème du prochain et dernier épisode de cette série sur la valeur des transformations, sera l’opportunité de comprendre : comment se définit la valeur d’un portefeuille au regard des enjeux de la société au sens large ? Comment s’articulent les priorités des transformations au travers des flux de ressources étendus aux champs écologique et social ? Et enfin, comment envisager de piloter la valeur des transformations au travers du prisme de la performance globale ?

offre-ITSM

Notre offre IT Service Management

Notre offre IT Service Management

1 décembre 2021

– 1 min de lecture

Louis Rondot

Vos enjeux

Nos offres

Définir la stratégie ESM

*ESM = Enterprise Service Management (ITSM/ ITAM/ ITOM/ PPM…)

Optimiser les processus

Rationaliser l’usage des outils

Pilotage de la mise en oeuvre

Des bénéfices clés pour votre organisation

Les autres qui peuvent vous intéresser

norme-iso-20022

Norme ISO 20022 : Comment s’y adapter quand on est métier compliance ?

Norme ISO 20022 : Comment s’y adapter quand on est métier compliance ?

17 novembre 2021

– 6 min de lecture

Olivier Ribeiro

Consultant Retail Payments

Échange de flux financiers, transferts internationaux, nouvelle structuration de données, règles, outils. Tout est dit.

Comment s’adapter à ce changement quand notre métier est de surveiller le caractère licite de millions d’opérations, qui plus est sur une variété de sous-jacents ?

Migration ISO 20022 et métier compliance, quèsaco ?

La société SWIFT administre la norme ISO 20022. A ce titre, elle publie les guidelines qu’il convient de respecter dans le cadre des échanges de flux.

ISO 20022 est une norme régissant les échanges de données entre institutions financières.

C’est logiquement que SWIFT endosse le rôle d’administrateur car c’est cette même société qui fournit la solution de messagerie du même nom. Autrement dit, SWIFT donne le LA sur la structure des données de paiements.

La messagerie SWIFT permet d’échanger les instructions de transfert de fonds :

La migration concerne ces deux types de transfert : de gros montants en EUR pour Target2 ou les opérations internationales pour le correspondant banking (CBK).

Les processus de conformité sont essentiels. Le changement de format ne doit pas dégrader les niveaux de conformité. Pour assurer cette continuité, appliquer la migration ISO20022 nécessitera de bien identifier les travaux d’évolution à promouvoir…

De quoi parlons-nous exactement ? Comme évoqué plus haut, la migration concerne plusieurs périmètres.

Le premier T2/T2S, du système Target2, commence dès novembre 2021. Certains établissements parlent même de Big Bang.

Le second périmètre concerne les flux internationaux. Swift déploie le format MX, implémentant la norme ISO 20022, avec pour échéance Novembre 2025..

Les participants directs à Target 2 ont commencé les phases de tests de place pour être prêts en novembre 2022. Tout ne sera pas pour autant conforme à la cible à cette date, en raison des impacts dans les systèmes pour alimenter les nouvelles structures de données : en particulier un mode « like for like » pourra être toléré jusqu’à novembre 2025 sur les adresses, qui ne peuvent être simplement restructurées à partir des seuls messages MT actuels.

Les équipes métier sont directement concernées par ce changement de norme. C’est en particulier le cas des équipes Compliance.

Quels sont les impacts du changement ISO 20022 pour la compliance ?

La démarche d’étude d’impacts et des actions peuvent se mener sous 3 axes :

1. Les impacts du changement ISO 20022 sur les données

Construire la table de concordance entre le format historique et le format cible

Construire la table de concordance entre le format historique et le format cible permettra d’établir le socle pour assurer le maintien du service.

De quelles données ai-je besoin aujourd’hui pour alimenter mes indicateurs ?

Où se situeront mes données demain ?

Le schéma fonctionnel pour les transactions internationales, lui, ne changera pas. Le circuit des messages d’instruction des ordres de paiements pour compte propre ou pour compte des clients de l’établissement s’opère de la manière suivante :

Exemple de messages édités lors d’un flux de paiement

L’exploitation des données de paiements est dépendante des éléments permis par la norme. 

Les champs significatifs d’un message MT 103 (message de paiement) aux yeux de la conformité sont structurés de la manière suivante :

S’approprier les innovations

Comme nous pouvons le voir ci-dessus, le contenu des messages à l’ancien format ne fait pas mention de tous les acteurs impliqués dans la transaction.

La norme ISO 20022 apporte une réponse, avec l’ajout de nouvelles données relatives aux bénéficiaires effectifs et aux émetteurs originaux. Le message MT s’appellera demain Pacs 008 comme le montre le schéma suivant : 

Mention des acteurs dans un paiement par type de message

Organigramme paiement

Cet apport est précisément une réponse de conformité à la suite du scandale des Panama Papers de 2016, où la fraude s’effectuait notamment par le biais de virements ne mentionnant pas les émetteurs et bénéficiaires effectifs.

Les innovations seront dorénavant développées à partir du format MX. Parmi celles-ci, nous pouvons évoquer l’utilisation d’un nouvel encodage pour ces flux financiers, UTF-8 qui élargit le panel d’alphabets utilisables. 

A titre d’illustration sur une transaction internationale, les noms peuvent être altérés lorsqu’ils passent d’un système de caractères tel que le japonais à notre alphabet latin, comme l’illustre l’exemple ci-dessous :

Avec l’utilisation de l’ISO 20022 et l’adaptation de la chaîne de communication entre les applications, de nouveaux alphabets sont disponibles de bout en bout. Cela permettra d’améliorer la surveillance des flux.

On peut prendre par exemple des personnes portant des noms différents selon les transcriptions alphabétiques résidentes dans des pays disposant d’alphabets différents.

D’autres innovations sont envisageables, hors conformité, comme l’automatisation des réponses de SWIFT GPI et l’uniformisation des plateformes du système TARGET.

Ces innovations au niveau Compliance devront toutefois tenir compte des réglementations locales (paradis fiscaux, …) qui pourraient minimiser l’usage de certaines balises, sous couvert de confidentialité… ISO 20022 est une norme permettant d’améliorer l’efficacité de la conformité, mais ne peut pas fonctionner dans ce but toute seule, sans l’aval des régulateurs des pays dans lesquels elle opère.

2. Les impacts du changement ISO 20022 sur les indicateurs

L’objectif de la conformité est de détecter les transactions illicites.

Aujourd’hui, cette mission requiert des revues manuelles. Les traitements urgents sur l’analyse des faux-positifs et la détection des faux négatifs monopolisent un nombre important de ressources.

Comment optimiser ces actions ? Comment détecter les transactions illicites ?

Les données alimentent les indicateurs de compliance. Modifier les données source a un impact sur la fiabilité des indicateurs.

Construire ou mettre à jour la matrice des indicateurs

Les indicateurs de Sécurité Financière servant à la LCB-FT, au KYC et au respect des Sanctions et Embargos ont besoin d’être organisés (comme l’illustre l’exemple de matrice d’indicateurs ci-dessous) :

Pour plus d’informations : https://www.swift.com/fr/node/307786

Les indicateurs génèrent des alertes sur la base de la détection de données contenues dans les messages de paiement. Aussi, l’efficacité de la Sécurité Financière ne repose pas uniquement sur les indicateurs mais sur la qualité des données sur lesquelles ils s’appuient pour émettre leurs alertes ou non. D’où la pertinence d’avoir une bonne adhérence entre les indicateurs d’une part, et les données normées ISO 20022 de l’autre.

Construire ou mettre à jour la matrice d’applicabilité

Il convient d’appliquer la conformité selon le métier et les normes de la filiale afin de s’assurer de l’optimisation des coûts et du temps nécessaires à l’application de la conformité.

Il y a des enjeux de priorité différents. Concernant la conformité, la priorité n°1 est de ne pas être en situation de non-conformité. Les éléments restants ne sont pas bloquants, mais peuvent en effet augmenter les coûts et le coefficient d’exploitation.

3. Les impacts du changement ISO 20022 sur les applications

Le capot du moteur d’échange des établissements financiers sera ouvert pour faire évoluer le Core Banking System (CBS) et ses applications en adhérence. Parmi ces applications figurent celles du métier Compliance.

Analyser le schéma d’architecture applicative et fonctionnelle

Cependant, afin de profiter du potentiel de la nouvelle norme, la variété des outils servant à la conformité tend vers la nécessité d’une stratégie adaptée à leurs usages.

Ceux-ci communiquent avec des formats différents, comme l’illustre le schéma ci-contre à titre d’exemple. Cela rend chaque mise à jour et connexion complexe, nécessitant du temps et de l’expertise.

Étudier l’impact des changements de formats permet d’identifier les éléments des messages de paiement se retrouvant dans les outils.

Les applications de filtrage analysent les données du Core Banking System. Ces données peuvent être utilisées par d’autres applications.

Évaluer le niveau de transcodage dans les applications et les pivots

La communication se fait entre des applications fonctionnant avec des langages de programmation différents, générant des impacts de retranscription.

Dans beaucoup de cas, des pivots de transcodification ont été mis en place pour permettre le transfert de données entre les applications.

Bien évaluer la qualité de transcodage entre les applications et les pivots permettra de faire des choix face au chiffrage des évolutions.

Le CBS est le garant des informations. Les autres applications ne peuvent pas évoluer sans lui. Les CBS auront donc à leur charge de migrer en premier au nouveau format afin de pouvoir alimenter les TMS (Transaction Monitoring System). La présence de la conformité est donc essentielle dans un projet de migration.

L’ISO 20022 s’impose aux systèmes d’échanges internationaux. Les institutions financières pourront bénéficier de nouvelles données efficaces dans le cadre de la conformité. Toutefois, cette migration nécessite des travaux pour les exploiter :

Si vous n’avez pas encore été impliqué en tant que métier Compliance, c’est le moment !

Les autres articles qui peuvent vous intéresser

evolution-du-controle-de-gestion

Evolution du contrôleur de gestion : de l’âge de Pierre à aujourd’hui

Evolution du contrôleur de gestion : de l'âge de Pierre à aujourd'hui

30 septembre 2021

– 5 min de lecture

Nathalie Tigne

Je vous propose une analogie sur l’évolution de l’Homme préhistorique et la métamorphose du métier de contrôleur de gestion depuis son origine à aujourd’hui.

Au cours de mes 20 ans d’expériences professionnelles en Finance, j’ai vu le métier de contrôleur de gestion progresser dans le chemin de la création de valeur et de l’accompagnement des métiers et des opérations sur des enjeux financiers et de performance.

Alors parfois le contrôleur de gestion suscite une certaine suspicion de la part de ses interlocuteurs : Vient-il nous couper les budgets ? Sa vision financière ne va-t-elle pas s’opposer à la vision opérationnelle ? Qui mieux que les opérationnels sont susceptibles de fiabiliser des forecasts ?

Ma conviction est qu’à deux on est plus forts et que c’est la combinaison des 2 mondes Finance & Opérations qui fait et fera la force du Contrôleur de gestion de demain. Alors oui, le contrôle de gestion est une fonction dite « support » dans les organisations et il n’est pas au coeur du réacteur mais c’est un allié incontournable pour sécuriser la stratégie de l’entreprise.

L’âge de pierre & la production taylorienne : le contrôleur budgétaire

Le Contrôleur de gestion homo habilis

Le Contrôleur de gestion Homo habilis (homme adroit) est considéré comme le premier représentant de l’espèce des Contrôleurs de gestion. 

Il est apparu il y a environ 100 ans, d’abord aux Etats-Unis puis ensuite en Europe en fonction des besoins des entreprises et de l’évolution du monde technique et économique avec les analyses de Taylor (1905) sur le contrôle de productivité, les recherches de Gantt (1915) sur les charges de structure et les choix de General Motors (1923) et de Saint-Gobain (1935) pour des structures par division.

A l’époque, il ne s’appelait pas encore Contrôleur de gestion, mais il apprenait déjà à s’occuper des activités de production, et à contrôler un certain nombre de tâches déléguées à la tribu.

Jusqu’au début des années 60, il vivait dans des abris parfois rudimentaires inspirés du modèle des premières firmes industrielles américaines. Afin de protéger la production contre d’éventuels prédateurs, il avait adopté les règles de vie et de gestion taylorienne fondée sur 4 principes :

Il fut le premier à se servir d’outils simples (monofaces) qu’il taillait autour du système de pilotage pour pouvoir mesurer et contrôler la productivité industrielle et en particulier la productivité du travail direct.

Nomade et premier bipède, il se déplaçait sur ses deux jambes Objectifs-Moyens pour aller chercher sa nourriture en réalisant de courtes distances, mais en mettant à disposition tout au long du chemin des informations et des éléments permettant de mesurer le chemin parcouru et les résultats.

Il vivait en petit groupe dans une structure hiérarchique découpée verticalement en centres de responsabilités.

Il se nourrissait essentiellement de gestion de la production et du processus de planification, dans un objectif de productivité et de rationalisation.

Le contrôleur de gestion Homo habilis est donc un contemporain des industries dites de « l’âge de pierre et de la production taylorienne ». Il pratiquait alors le contrôle budgétaire.

L’âge du feu et de l’expertise financière : le contrôleur de gestion

Le Contrôleur de gestion Homo erectus 

Le contrôleur de gestion Homo erectus (homme debout) est un grand voyageur.

Il se déplace et est confronté dans le temps, à l’augmentation de la concurrence et à la globalisation de l’économie.

Il apparaît dans les années 60 et commence sa longue mutation en apprenant à vivre aux côtés d’autres tribus émergentes avec lesquelles il s’installe à proximité des lacs et des rivières :

  1. Dans la décennie 60 : la tribu Commerce née de l’augmentation de la concurrence et de la globalisation de l’économie.
    Il y apprend que tailler la pierre et produire ne sont plus les seuls maîtres mots : il faut, pour lui, adopter une démarche mercatique (l’inverse de celle du producteur de l’âge de pierre de production) pour connaître et répondre aux exigences de son marché avant de produire les biens. Ses outils ne sont plus monofaces mais deviennent bifaces ; lui imposant alors la nécessité d’être flexible dans les choix de production et de diversifier ses produits. 
  2. Dans la décennie 70, la tribu Ressources humaines née de la prise en compte de l’individu et de son rôle clef dans la tribu.
    Durant cette période, le bien être des bipèdes de la production sont mis au cœur des organisations et du système de production. Les abris rudimentaires ne suffisent plus : ils font place à des huttes faites de branches ou d’ossements d’animaux recouvertes de peaux de sorte à ce que chacun s’y sente bien.
  3. Dans la décennie 80, la tribu Finance, à laquelle le Contrôleur de gestion Homo erectus va tout naturellement venir se rattacher.
    Il apprend à maîtriser le feu et assure ainsi la performance financière de la tribu qui apparaît alors comme prioritaire. La performance va permettre aux premiers hommes : d’éloigner les prédateurs, d’être rentable, de fiabiliser et challenger les forecasts et de pérenniser ainsi la survie de l’espèce. 
  4. Dans  les années 90, une ère avec une approche systémique apparaît : mettant en évidence les influences réciproques, multiples et permanentes des 4 tribus (Production – Commerce – Finance – Ressources Humaines). 
    La découverte des interdépendances entre tribus et la nécessité de mettre la stratégie au cœur de ses réflexions lui permettent de chasser des animaux plus gros et de se positionner naturellement comme un fédérateur capable d’intégrer toutes les variables de gestion opérationnelles et de faire le lien entre toutes les tribus.

Doté d’une capacité crânienne de 850 à plus de 1000 cm3 et d’une tête osseuse caractéristique : une mâchoire puissante, un prognathisme marqué, des os épais, un front assez bas, pas de menton, un bourrelet sus-orbitaire et une carène sagittale plus ou moins marquée, il a amélioré les techniques de taille en réalisant ses premiers bifaces. Ses outils révèlent l’existence de comportements nouveaux dans la lignée des contrôleurs de gestion : l’élaboration d’outils, une forte adaptation des outils aux conditions locales et aux besoins humains, le développement de modèles parmi lesquels nous retiendrons : 

La maîtrise du feu et des outils informatiques vont favoriser et conforter le Contrôleur de gestion Homo erectus dans son positionnement transverse, faire de lui un acteur privilégié et central dans l’organisation, lui donner sa légitimité d’expert du pilotage de la performance économique.

L’âge de la pierre polie et de la création de valeur : le Business partner

Le Contrôleur de gestion Homo sapiens

Il y un peu plus de 20 ans les premiers Contrôleurs de gestion Homo Sapiens (homme savant) font leur apparition dans un environnement turbulent dans lequel le rythme du changement s’accélère, le cycle de vie des produits se réduit et les transactions se complexifient.

Ils sont les précurseurs directs du contrôleur de gestion moderne de demain.

Ils commencent à cultiver la mise en place de KPI adaptés aux nouveaux objectifs stratégiques de leur communauté ; à savoir la recherche de flexibilité, de réactivité et d’innovation. 

C’est surtout dans le domaine de l’art de s’adapter à l’innovation et à l’augmentation exponentielle des données qu’il se distingue de ses ancêtres : 

Les contrôleurs de gestion Homo sapiens font parfois face aux réticences de certains membres de la tribu qui ne croient pas en leur valeur ajoutée.
Pour contourner ces obstacles, un rattachement à une nouvelle tribu se développe parfois.
Le contrôle de gestion n’est plus intégralement rattaché à la tribu Direction financière, mais chaque tribu métier possède son propre contrôleur de gestion : on a ainsi un contrôle de gestion commercial, un contrôle de gestion industriel, un contrôle de gestion du système d’information…

Ils s’y sédentarisent et habitent dans les villages avec les métiers où ils ne sont plus considérés comme l’œil de Moscou et ont accès aux informations opérationnelles. Dans certaines tribus, ce sont des ingénieurs qui sont formés à la gestion qui occupent ces postes. Ils sont parfois jugés plus pertinents et dotés d’une plus grande légitimité car ils ont la maîtrise technique du métier. Ce changement de positionnement a contribué à améliorer leur crédibilité

C’est alors le début du néolithique (âge de la pierre polie), dans laquelle le contrôleur de gestion Homo sapiens doit mettre à profit son rôle de conseil, au-delà du contrôle et du pilotage de la performance économique qu’il exerçait jusqu’à présent. Son savoir-faire repose de plus en plus sur des compétences hybrides qui contribuent à réconcilier les deux tribus de la Finance et des Opérations.

On distingue alors deux profils de bipèdes Contrôleurs de gestion :

Le contrôleur de gestion Homo sapiens devient progressivement un artisan clé d’aide à la décision et force de proposition pour orienter des choix souvent stratégiques.

Passé maître dans la façon de tisser et cultiver des liens au contact des tribus métiers afin de leur faire prendre en compte la dimension et les enjeux financiers, il se positionne comme Business partner.

Le contrôleur de gestion expert de l’âge du feu, « gardien du temple » ou « garde-fou » au sens de Lambert et Sponem, évolue vers un métier de Business Partner avec pour principales missions de :

La maîtrise des outils informatiques, la montée en compétences sur des sujets opérationnels et métiers, la recherche de valeur ajoutée constituent les fondamentaux du développement des premières grandes civilisations de Finance Business Partner et permettent au Contrôleur de gestion d’être et de rester un allié incontournable et essentiel à la tribu, notamment dans tout l’Occident.

Ainsi s’achève la Préhistoire du Contrôleur de gestion et….. c’est maintenant que l’Histoire commence…

Les autres articles qui peuvent vous intéresser

cdo-en-2021

Retour sur le rôle de Chief Data Officer en 2021

Retour sur le rôle de Chief Data Officer en 2021

21 juin 2021

– 4 min de lecture

Maureen Delaloi

Manager Transformation Data

« La data actif essentiel et incontestable de nombreuses organisations ».

Il suffit de poursuivre cette phrase en citant 2 ou 3 chiffres clefs de grands cabinets de conseil en stratégie, et voilà l’argument d’autorité posé… Oui mais quand on a dit ça, hé bien, qu’est-ce qu’on en fait ?

« La data » est en effet transverse aux entités d’une organisation, source d’opportunités commerciales, d’innovation ou de relation client de qualité, mais elle est bien souvent jugée comme un sujet technique ou abstrait. Le rôle de CDO est encore récent dans de nombreuses organisations : il lui faut trouver sa place et la meilleure articulation avec les Métiers, la DSI, mais aussi la Direction Générale. Il y a donc un enjeu à ce que ce dernier asseye son rôle stratégique dans toute organisation qui veut gérer ses données comme des actifs stratégiques. Le Chief Data Officer a un rôle clef, transverse et à de multiples facettes pour exploiter pleinement le potentiel que représentent les données : compétences humaines, techniques et de leadership. Il doit incarner la transformation vers un mode d’organisation orienté données.

Constructeur de fondations stables

Partons du plus évident (mais pas forcément du plus simple !). Pour toute construction il faut des fondations stables, hé bien avec la data c’est pareil. Des « datas », objets parfois suspects et mal identifiés, sont stockées un peu partout dans les bases de données des entreprises, des Sharepoint collaboratifs ou des fichiers Excel sur le disque dur des collaborateurs… La clef sera dans un premier temps de maîtriser et de sécuriser ces données. Le CDO doit impulser cette dynamique, s’assurer que les données soient connues (recensement dans un data catalog par exemple), accessibles (stockage efficient ), de qualité (règle de gouvernance des données avec des data owners), conformes aux réglementations et à l’éthique (RGPD ou autre) et répondent à des cas d’usages simples et concrets (avant de vouloir faire de l’IA ne faut-il pas que les reporting opérationnels les plus basiques et indispensables soient bien accessibles par les bonnes personnes au bon moment et avec le bon niveau de qualité ?).

Le CDO : architecte et chef d’orchestre

Le Chief Data Officer doit être l’architecte (rôle opérationnel) et le chef d’orchestre (rôle stratégique) de ces projets de fondations en concertation avec les métiers et l’IT. Avec son équipe, il doit accompagner les métiers pour répondre aux usages à valeur et avancer de façon pragmatique. Rien ne sert de lancer 12 projets stratégiques sur la data en même temps : apporter des preuves concrètes en traitant de façon pertinente 2 ou 3 cas d’usages clefs pour améliorer les enjeux opérationnels et vous pouvez être certain que la dynamique métier autour de votre transformation data sera bien mieux lancée ! Il en est de même pour l’IT : il doit aussi soigner sa relation avec la DSI avec laquelle il doit travailler sur des solutions concrètes nécessaires à la mise en œuvre de sa vision data et des usages métiers. 

Le Chief Data Officer doit être fédérateur

Le CDO n’a pas nécessairement pour vocation à prendre en charge lui-même l’ensemble des sujets qui traitent de la donnée. Les métiers doivent être des acteurs de première ligne sur le sujet. Le CDO s’intègre régulièrement à un existant désordonné, où les sujets sont déjà plus ou moins traités, mais de façon dispersée. Il doit apporter la vision transverse tout en laissant de l’autonomie aux métiers. Dans la mesure où les équipes data se sont constituées et professionnalisées dans les grands groupes, l’enjeu se déplace aujourd’hui vers la capacité à faire travailler ensemble tous les départements de l’organisation. L’acculturation de l’entreprise et la formation des équipes sont au cœur des enjeux du CDO en 2021.

En résumé : le Chief Data Officer doit faire preuve de savoir-faire mais aussi de savoir-être. Il doit incarner la vision, adosser son action au sponsorship inconditionnel de la Direction Générale, tout en restant au contact des équipes métier et en travaillant avec bonne intelligence avec les équipes IT.

Chiefs Data Officers, si vous n’aviez qu’une idée à retenir de cet article : pour en tirer sa valeur, la data doit pouvoir être expliquée et comprise par ma grand-mère (et je précise que ma grand-mère n’est pas data scientist !) ; visez le pragmatisme et les sujets à valeur immédiate pour votre organisation. Cela fondera le socle indispensable de votre transformation data dans la durée : expériences, résultats concrets et crédibilité ! 

Les idées exposées ici sont peut-être évidentes pour certains, utiles pour d’autres ! En tout cas, chez Rhapsodies Conseil, au sein de notre équipe Transformation Data, nous essayons d’appliquer cela systématiquement, et nous pensons que c’est le minimum vital.

explicabilite-machine-learning

Interprétez simplement vos modèles de Machine Learning

Interprétez simplement vos modèles de Machine Learning

17 juin 2021

– 8 min de lecture

Valentin Defour

Consultant Senior Transformation Data

A l’heure de l’omniprésence algorithmique dans une multitude de domaines de notre société, une commission européenne dédiée publiait, il y a un an déjà, un livre blanc mettant en lumière le concept d’IA de confiance. Si ce concept englobe une multitude de notions et d’axes de réflexion (prise en compte des biais, robustesse des algorithmes, respect de la privacy, …), nous nous intéresserons ici particulièrement à la transparence et l’explicabilité des systèmes d’IA. Dans cette optique et après un rappel des enjeux et challenges de l’explication des modèles, nous construirons un simple tableau de bord rassemblant les principales métriques d’explicabilité d’un modèle, à l’aide d’une librairie Python spécialisée : Explainer-Dashboard.

Vous avez dit “explicabilité” ?

L’IA Explicable est l’intelligence artificielle dans laquelle les résultats de la solution peuvent être compris par les humains. Cela contraste avec le concept de «boîte noire» où parfois même les concepteurs du modèle ne peuvent pas expliquer pourquoi il est arrivé à une prédiction spécifique.

Le besoin d’explicabilité de ces algorithmes peut être motivé par différents facteurs :

Quand on adresse cette problématique, il convient de définir les différents termes (étroitement liés) que l’on peut retrouver :

Si l’on considère des travaux de chimie au lycée, une interprétabilité de cette expérience serait “on constate un précipité rouge”. De son côté, l’explicabilité de l’expérience nécessitera de plonger dans les formules des différents composants chimiques.

Note : dans un souci de simplification, nous utiliserons largement le terme “explicabilité” dans la suite de cet article.

Via l’explication d’un modèle, nous allons chercher à répondre à des questions telles que :

Quelles sont les causes d’une décision ou prédiction donnée ?

Quelle est l’incertitude inhérente au modèle ?

Quelles informations supplémentaires sont disponibles pour la prise de décision finale ?

Les objectifs de ces explications sont multiples, car dépendants des parties prenantes :

Et concrètement ?

Le caractère “explicable” d’une IA donnée va principalement dépendre de la méthode d’apprentissage associée. Les méthodes d’apprentissage sont structurées en deux groupes conduisant, selon leur type, à un modèle explicite ou à une boîte noire :

Dans le cas d’un modèle explicite (linéaire, gaussien, binomial, arbres de décision,…), la décision qui en découle est nativement explicable. Sa complexité (principalement son nombre de paramètres) peut toutefois endommager son explicabilité ;

La plupart des autres méthodes et algorithmes d’apprentissage (réseaux neuronaux, agrégation de modèles, KNN, SVM,…) sont considérés comme des boîtes noires avec néanmoins la possibilité de construire des indicateurs d’importance des variables.

Lors du choix d’un modèle de Machine Learning, on parle alors du compromis Performance / Explicabilité.

Récupérer les données et entraîner un modèle simple

Pour cette démonstration, notre cas d’usage analytique sera de prédire, pour un individu donné, le risque d’occurrence d’une défaillance cardiaque en fonction de données de santé, genre, âge, vie professionnelle, …

Si cette problématique ne revêt pas spécifiquement d’aspect éthique relatif à la transparence de l’algorithme utilisé, nous pouvons toutefois bien percevoir l’utilité de l’explicabilité d’un diagnostic de risque assisté par IA : collaboration facilitée avec l’expert métier (en l’occurrence, le médecin) et information plus concrète du patient, entre autres bénéfices.

Le jeu de données éducatif utilisé est fourni par l’OMS et peut être téléchargé sur la plateforme de data science Kaggle :

Il contient les données de 5110 personnes, réparties comme suit :

Données :

  • Age du sujet ;
  • Genre du sujet ;
  • A déjà souffert d’hypertension (oui / non)
  • A déjà souffert de maladies cardiaques (oui / non)
  • Statut marital
  • Type d’emploi
  • Type de résidence (citadin, rural)
  • Niveau moyen sanguin de glucose
  • IMC
  • Fumeur (oui / non)

Note : nous avons procédé à une simple préparation des données qu’il est possible de retrouver dans le notebook complet en bas de page.

Pour la partie modélisation, nous utiliserons un modèle « baseline » de Random Forest. Pour éviter que notre modèle ne reflète seulement que la distribution des classes (très déséquilibrée dans notre cas, 95-5), nous avons ajouté des données “synthétiques” à la classe la moins représentée (i.e. les patients victimes de crises cardiaques) en utilisant l’algorithme SMOTE, pour atteindre une répartition équilibrée (50-50) :

Notre modèle est prêt, nous pouvons à présent l’utiliser en input du dashboard !

Création du dashboard

Nous avons donc à disposition un modèle entraîné sur notre dataset et allons à présent construire notre tableau de bord d’interprétation de ce modèle.

Pour ce faire, nous utilisons la librairie explainer-dashboard, qui s’installe directement via le package installer pip :


pip install --upgrade explainerdashboard

Une fois la librairie installée, nous pouvons l’importer et créer simplement une instance “Explainer” à l’aide des lignes suivantes :

from explainerdashboard import ClassifierExplainer, ExplainerDashboard

explainer = ClassifierExplainer(RF, X_test, y_test)

db = ExplainerDashboard(explainer,
                       n_jobs = -1,
                        title="Heart Stroke Prediction Explainer"
                       )

db.run(port=8050)

Plusieurs modes d’exécution sont possibles (directement dans le notebook, dans un onglet séparé hébergé sur une IP locale, …) (plus d’informations sur les différents paramètres de la librairie dans sa documentation).

Note : le dashboard nécessitera d’avoir installé la librairie de visualisation “Dash” pour fonctionner.

Interprétation des différents indicateurs

Le tableau de bord se présente sous la forme de différents onglets, qu’il est possible d’afficher / masquer via son paramétrage :

Plongeons à présent dans les détails de chacun de ces onglets !

Features Importance

A l’instar de l’attribut feature_importances_ de notre modèle de Random Forest, cet onglet nous permet de visualiser, pour chaque colonne de notre dataset, le pouvoir de prédiction de chaque variable.

L’importance des features a ici été calculée selon la méthode des valeurs de SHAP (acronyme de SHapley Additive exPlanations). Nous n’approfondirons pas ce concept dans cet article (voir rubrique “aller plus loin”).

Ces scores d’importance peuvent permettre de :

Dans l’exemple ci-dessous, on peut constater que :

Classification Stats

Cet onglet nous permet de visualiser les différentes métriques de performance de notre modèle de classification : matrice de confusion, listing des différents scores, courbes AUC, … Il sera utile en phase de paramétrage / optimisation du modèle pour avoir un aperçu rapide et complet de sa performance :

Individual Predictions

Cet onglet va nous permettre, pour un individu donné, de visualiser les 2 indicateurs principaux relatifs à la décision prise par le modèle :

Le graphe des contributions : 

La contribution d’un feature à une prédiction représente l’impact probabilistique sur la décision finale de la valeur de la donnée considérée.

Suite à notre traitement du déséquilibre des classes, nous avons autant de sujets “sains” que de sujets “à risque” dans notre jeu de données d’apprentissage. Un estimateur aléatoire aura donc 50% de chances de trouver la bonne prédiction. Cette probabilité est donc la valeur “baseline” d’entrée dans notre graphe des contributions.

Ensuite, viennent s’ajouter en vert sur le visuel les contributions des features pour lesquelles la valeur a fait pencher la décision vers un sujet “à risque”. Ces features et leur contribution amènent la décision à une probabilité de ~60% de risque.

Puis, les features dont la contribution fait pencher la décision vers un sujet “sain” viennent s’ajouter (en rouge sur le graphe). On retrouve ici nos prédicteurs forts tels que l’âge ou encore l’IMC.

On a donc :

décision finale = 50% + probabilité(sain) + probabilité(à risque) = 5.08%

> Le sujet est proposé comme sain par l’algorithme

Le graphe des dépendances partielles :

Ce visuel nous permet de visualiser la probabilité de risque en fonction de la variation d’une des features, en conservant la valeur des autres constantes. Dans l’exemple ci-dessus, on peut voir que pour l’individu considéré, augmenter son âge aura pour effet d’augmenter sa probabilité d’être détecté comme “à risque”, ce qui correspond bien au sens commun.

What if Analysis

Dans l’optique de l’onglet précédent, l’analyse “what if” nous permet de renseigner nous mêmes les valeurs des différents features et de calculer l’output du modèle pour le profil de patient renseigné :

Il reprend par ailleurs les différents indicateurs présentés dans l’onglet précédent : graphe des contributions, dépendances partielles, …

Features Dependance

Cet onglet présente un graphe intéressant : la dépendance des features.

Il nous renseigne sur la relation entre les valeurs de features et les valeurs de SHAP. Il permet ainsi d’étudier la relation générale entre la valeur des features et l’impact sur la prédiction.

Dans notre exemple ci-dessus, le nuage de points nous apprend deux choses :

Decision Trees

Enfin, dans le cas où l’input du dashboard est un modèle à base d’arbres de décisions (gradient boosted trees, random forest, …), cet onglet sera utile pour visualiser le cheminement des décisions de la totalité des arbres du modèle.

Dans l’exemple ci-dessous, nous considérons le 2712ème individu du jeu de données pour lequel 50 arbres ont été calculés via l’algorithme de Random Forest. Nous visualisons la matrice de décision de l’arbre n°13 :

Ce tableau nous montre le cheminement de la décision, depuis une probabilité de ~50% (qui serait la prédiction d’un estimateur ne se basant que sur la moyenne observée sur le jeu de données). On peut constater que, pour cet individu et pour l’arbre de décision considéré :

L’onglet nous propose également une fonctionnalité de visualisation des arbres via la librairie graphviz.

L’étude des différents indicateurs présentés dans les onglets du dashboard nous a permis :

L’étude de ces indicateurs doit être partie intégrante de tout projet d’IA actuel et futur

L’explicabilité des modèles de Machine Learning, aujourd’hui considéré comme l’un des piliers d’une IA éthique, responsable et de confiance, représente un challenge important pour accroître la confiance de la société envers les algorithmes et la transparence de leurs décisions, mais également la conformité réglementaire des traitements en résultant.

Dans notre cas d’étude, si la librairie explainer-dashboard est à l’initiative d’un particulier, on remarque une propension à l’éclosion de plusieurs frameworks et outils servant le mouvement “Fair AI”, dont plusieurs développés par des mastodontes du domaine. On peut citer le projet AIF360 lancé par IBM, une boîte à outils d’identification et de traitement des biais dans les jeux de données et algorithmes.

Cette librairie est utile en phase de développement et d’échanges avec le métier mais peut toutefois ne pas suffire en industrialisation. Alors un dashboard “maison” sera nécessaire. Elle a toutefois un potentiel élevé de personnalisation qui lui permettra de répondre à de nombreux usages.

Note : l’intégralité du notebook utilisé est disponible sur ce lien.



Pour aller plus loin :