pro-sante-connecte-cest-quoi

Pro Santé Connect : un service d’authentification à fort potentiel

Pro Santé Connect : un service d'authentification à fort potentiel

7 juillet 2022

– 3 min de lecture

Erik Zanga

Manager Architecture

J’ai analysé Pro Santé Connect, un service fort intéressant avec plein de potentiels, réalisé dans les règles de l’art et qui suit les standards actuels du domaine de l’authentification. Mon retour : j’adore ! (oui bon laissez-moi mes kiffes hein…).

Pro Santé Connect, c’est quoi ?

Il s’agit d’un service d’authentification et d’identification des professionnels de santé.

Ce service est construit sur les bases des standards du marché actuel : OAUTH2 pour l’authentification et, cerise sur le gâteau, de l’OpenID Connect pour avoir le complément d’information d’identification qui va bien : que pouvons-nous demander de plus ?

À quoi sert Pro Santé Connect ?

Ce service permet qu’un organisme d’état certifie :

Pour être clair, il fonctionne un peu comme France Connect, mais son caractère médical, associé aux caractéristiques spécifiques de la profession, sécurisé et complété par l’OiDC, ouvre la possibilité d’exploiter beaucoup plus d’informations : quel est son lieu de travail ? dans quel établissement ? quelle spécialisation médicale le professionnel pratique ? et d’autres encore…

Pour finir, ces informations peuvent être propagées à des applications tierces, avec un simple transfert de jeton sécurisé, ce qui permet d’éviter les surcoûts et les efforts d’authentification à plusieurs niveaux.

Et alors, on en pense quoi de ce service d’authentification ?

J’adore. Je n’aurais pas fait mieux, ni pire… Techniquement ça a l’air de tenir la route et même plus.

L’utilisation de standards reconnus et plébiscités par le marché, alors que personnellement j’en ai ch…, pardon bavé… Veuillez m’excuser, j’ai eu un peu de mal dans le passé avec des standards d’interconnexion mal documentés, incompréhensibles… Ils étaient pondus par des organismes publics qui, dans un souci de sécurisation, avaient rédigé des documents illisibles et impossibles à utiliser. Bref, je pense qu’ils n’ont jamais rencontré de problèmes de sécurité, vu que personne n’a dû réussir à les implémenter…

Dans le cas de Pro Santé Connect, ceux qui ont déjà implémenté de l’OAUTH2 ou de l’OiDC, se retrouvent dans un cadre familier, clair, bien documenté, enfin un vrai plaisir (bon au moins de mon point de vue hein… laissez moi ce plaisir…). Pour les autres, ces standards sont tellement bien documentés que, avec un peu d’effort de lecture, on peut vite en comprendre les concepts.

Des informations certifiées, complètes, simples à lire ? Il est où le pépin ?

C’est beau tout ça, magnifique, dans ce monde parfait nous n’avons plus rien à craindre ! Plus de questions à se poser ! Nah…

Bon ce n’est pas forcément le cas, une alerte reste d’actualité et se base sur un concept cher à pas mal de DSI : la qualité des données traitées et leur fraîcheur.

Si le service a une chance de marcher tel qu’il est présenté, la collecte des informations devra se faire :

Or, la fusion de plusieurs référentiels dans un seul (le RPPS), en cours, plus l’effort que l’ANS semble mettre dans cette initiative, laissent présager des bons résultats.

En conclusion

La voie est la bonne, techniquement pas de surprise, une implémentation reconnue et éprouvée, un service qui nous plaît !

Et maintenant nous attendons le même service pour les personnes physiques, en lien avec Mon Espace Santé et les domaines associés !

machine learning

Réconcilier IA et privacy grâce aux données synthétiques

Réconcilier IA et privacy grâce aux données synthétiques

18 mai 2022

– 6 min de lecture

Valentin Defour

Consultant Senior Transformation Data

Dans un récent post de blog, le Gartner prévoit que d’ici 2030, 60% des données d’entrainement des modèles d’apprentissage seront générées artificiellement. Souvent considérées comme substituts de qualité moindre et uniquement utiles dans des contextes réglementaires forts ou en cas de volumétrie réduite ou déséquilibrée des datasets, les données synthétiques ont aujourd’hui un rôle fort à jouer dans les systèmes d’IA.

Nous dresserons donc dans cet article un portrait des données synthétiques, les différents usages gravitant autour de leur utilisation, leur histoire, les méthodologies et technologies de génération ainsi qu’un rapide overview des acteurs du marché.

Les données synthétiques, outil de performance et de confidentialité des modèles de machine learning

Vous avez dit données synthétiques ?

Le travail sur les données d’entrainement lors du développement d’un modèle de Machine Learning est une étape d’amélioration de ses performances parfois négligée, au profit d’un fine-tuning itératif et laborieux des hyperparamètres. Volumétrie trop faible, déséquilibre des classes, échantillons biaisés, sous-représentativité ou encore mauvaise qualité sont tout autant de problématiques à adresser. Cette attention portée aux données comme unique outil d’amélioration des performances a d’ailleurs été mis à l’honneur dans une récente compétition organisée par Andrew Ng, la Data-centric AI competition.

Également, le renforcement des différentes réglementations sur les données personnelles et la prise de conscience des particuliers sur la valeur de leurs données et la nécessité de les protéger imposent aujourd’hui aux entreprises de faire évoluer leurs pratiques analytiques. Fini « l’open bar » et les partages et transferts bruts, il est aujourd’hui indispensable de mettre en place des protections de l’asset données personnelles.

C’est ainsi qu’entre en jeu un outil bien pratique quand il s’agit d’adresser de front ces deux contraintes : les données synthétiques.

Par opposition aux données « traditionnelles » générées par des événements concrets et retranscrivant le fonctionnement de systèmes de la vie réelle, elles sont générées artificiellement par des algorithmes qui ingèrent des données réelles, s’entraînent sur les modèles de comportement, puis produisent des données entièrement artificielles qui conservent les caractéristiques statistiques de l’ensemble de données d’origine.

D’un point de vue utilisabilité data on peut alors adresser des situations où :

Comparaison-donnees-reelles-vs-synthetiques

Mais comme vu précédemment, ces données synthétiques permettent aussi d’adresser certaines problématiques de confidentialité des données personnelles. En raison de leur nature synthétique, elles ne sont pas régies par les mêmes réglementations puisque non représentatives d’individus réels. Les data scientists peuvent donc utiliser en toute confiance ces données synthétiques pour leurs analyses et modélisations, sachant qu’elles se comporteront de la même manière que les données réelles. Cela protège simultanément la confidentialité des clients et atténue les risques (sécuritaires, concurrentiels, …) pour les entreprises qui en tirent parti, tout en levant les barrières de conformité imposées par le RGPD…

Parmi les bénéfices réglementaires de cette pratique :

Un peu d’histoire…

L’idée de mettre en place des techniques de préservation de la confidentialité des données via les données synthétiques date d’une trentaine d’années, période à laquelle le US Census Bureau (organisme de recensement américain) décida de partager plus largement les données collectées dans le cadre de son activité. A l’époque, Donald B. Rubin, professeur de statistiques à Harvard, aide le gouvernement américain à régler des problèmes tels que le sous-dénombrement, en particulier des pauvres, dans un recensement, lorsqu’il a eu une idée, décrite dans un article de 1993 .

« J’ai utilisé le terme ‘données synthétiques’ dans cet article en référence à plusieurs ensembles de données simulées. Chacun semble avoir pu être créé par le même processus qui a créé l’ensemble de données réel, mais aucun des ensembles de données ne révèle de données réelles – cela présente un énorme avantage lors de l’étude d’ensembles de données personnels et confidentiels. »

Les données synthétiques sont nées.

Par la suite, on retrouvera des données synthétiques dans le concours ImageNet de 2012 et, en 2018, elles font l’objet d’un défi d’innovation lancé par le National Institute of Standards and Technology des États-Unis sur la thématique des techniques de confidentialité. En 2019, Deloitte et l’équipe du Forum économique mondial ont publié une étude soulignant le potentiel des technologies améliorant la confidentialité, y compris les données synthétiques, dans l’avenir des services financiers. Depuis, ces données artificielles ont infiltré le monde professionnel et servent aujourd’hui des usages analytiques multiples.

Méthodologies de génération de données synthétiques

Pour un dataset réel donné, on peut distinguer 3 types d’approche quant à la génération et l’utilisation de données synthétiques :

Données entièrement synthétiques – Ces données sont purement synthétiques et ne contiennent rien des données d’origine.

Données partiellement synthétiques – Ces données remplacent uniquement les valeurs de certaines caractéristiques sensibles sélectionnées par les valeurs synthétiques. Les valeurs réelles, dans ce cas, ne sont remplacées que si elles comportent un risque élevé de divulgation. Ceci est fait pour préserver la confidentialité des données nouvellement générées. Il est également possible d’utiliser des données synthétiques pour adresser les valeurs manquantes de certaines lignes pour une colonne donnée, soit par méthode déterministe (exemple : compléter un âge manquant avec la moyenne des âges du dataset) ou statistique (exemple : entraîner un modèle qui déterminerait l’âge de la personne en fonction d’autres données – niveau d’emploi, statut marital, …).

Données synthétiques hybrides – Ces données sont générées à l’aide de données réelles et synthétiques. Pour chaque enregistrement aléatoire de données réelles, un enregistrement proche dans les données synthétiques est choisi, puis les deux sont combinés pour former des données hybrides. Il est prisé pour fournir une bonne préservation de la vie privée avec une grande utilité par rapport aux deux autres, mais avec un inconvénient de plus de mémoire et de temps de traitement.

GAN ?

Certaines des solutions de génération de données synthétiques utilisent des réseaux de neurones dits « GAN » pour « Generative Adversarial Networks » (ou Réseaux Antagonistes Génératifs).

Vous connaissez le jeu du menteur ? Cette technologie combine deux joueurs, les « antagonistes » : un générateur (le menteur) et un discriminant (le « devineur »). Ils interagissent selon la dynamique suivante :

L’objectif final est que le générateur soit capable de produire des données qui semblent si proches des données réelles que le discriminateur ne puisse plus éviter la tromperie.

Pour une lecture plus approfondie sur le sujet des GANs, il en existe une excellente et détaillée dans un article du blog Google Developers.

Un marché dynamique pour les solutions de génération de données synthétiques

Plusieurs approches sont aujourd’hui envisageables, selon que l’on souhaite s’équiper d’une solution dédiée ou bien prendre soi-même en charge la génération de ces jeux de données artificielles.

Parmi les solutions Open Source, on peut citer les quelques librairies Python suivantes :

Mais des éditeurs ont également mis sur le marché des solutions packagées de génération de données artificielles. Aux Etats-Unis, notamment, les éditeurs spécialisés se multiplient. Parmi eux figurent Tonic.ai, Mostly AI, Latice ou encore Gretel.ai, qui affichent de fortes croissances et qui ont toutes récemment bouclé d’importantes levées de fond

Un outil puissant, mais…

Même si l’on doit être optimiste et confiant quant à l’avenir des données synthétiques pour, entre autres, les projets de Machine Learning, il existe quelques limites, techniques ou business, à cette technologie.

De nombreux utilisateurs peuvent ne pas accepter que des données synthétiques, « artificielles », non issues du monde réel, … soient valides et permettent des applications analytiques pertinentes. Il convient alors de mener des initiatives de sensibilisation auprès des parties prenantes business afin de les rassurer sur les avantages à utiliser de telles données et d’instaurer une confiance en la pertinence de l’usage. Pour asseoir cette confiance :

Aussi, si les données synthétiques permettent d’adresser des problématiques de confidentialité, elles ne protègent naturellement pas des biais présents dans les jeux de données initiaux et ils seront statistiquement répliqués si une attention n’y est pas portée. Elles sont cependant un outil puissant pour les réduire, en permettant par exemple de « peupler » d’observations synthétiques des classes sous-représentées dans un jeu de données déséquilibré. Un moteur de classification des CV des candidats développé chez Amazon est un exemple de modèle comportant un biais sexiste du fait de la sous représentativité des individus de sexe féminin dans le dataset d’apprentissage. Il aurait pu être corrigé via l’injection de données synthétiques représentant des CV féminins.

On conclura sur un triptyque synthétique imageant bien la puissance des sus-cités réseaux GAN, utilisés dans ce cas là pour générer des visages humains synthétiques, d’un réalisme frappant.

(source : ThisPersonDoesNotExist.com)

Il est à noter que c’est également cette technologie qui est à l’origine des deepfakes, vidéos mettant en scène des personnalités publiques ou politiques tenant des propos qu’ils n’ont en réalité jamais déclarés (un exemple récent est celui de Volodymyr Zelensky, président Ukrainien, victime d’un deepfake diffusé sur une chaine de télévision d’information).

Pourquoi votre organisation a besoin de développer sa capacité de changement ?

Pourquoi votre organisation a besoin de développer sa capacité de changement ?

20 avril 2022

– 10 min de lecture

Séverin Legras

Directeur Agilité, Projets & Produits

Ce qui était vrai hier, ne l’est plus forcément aujourd’hui. Et ce qui fonctionnait hier pourrait causer votre perte demain. Votre entreprise fait face à de nombreux enjeux au quotidien. À travers cet article, nous allons nous concentrer sur les déclencheurs qui incitent à considérer l’organisation sous un angle plus souple et flexible.

Article extrait du livre blanc Continuous Organization.

1. Pour survivre

L’avantage n’est pas au premier à se mettre en mouvement. L’avantage est à celui qui apprend le plus vite. La seule façon de gagner est d’apprendre plus vite que n’importe qui d’autre.

Eric Ries

The Lean Startup

1881 : vous créez une petite entreprise de fabrication de pellicules photographiques sur la base d’une innovation de votre création : un procédé révolutionnaire de plaque sèche qui améliore considérablement la maniabilité des plaques auparavant recouvertes de gélatine. 4 ans plus tard, vous créez le premier film souple transparent qui permet aux photographes du monde entier de vous envoyer leurs films pour que vous les développiez. Vous devenez leader sur le marché de la photographie.
1907 : votre entreprise compte déjà 5000 salariés.
1927 : en 20 ans, votre entreprise a quadruplé sa taille, passant à 20000 employés.

1950 : à la sortie de la guerre, après avoir racheté Pathé quelques années plus tôt, vous êtes à la tête d’une entreprise florissante. Un inventeur, Edwin Land, vient vous proposer une idée : un appareil photo avec des pellicules qui se développent en quelques minutes après la prise de vue. Peu convaincu, vous le laissez partir. Il fondera sa propre compagnie : Polaroid…

1972 : toutes les idées de vos collaborateurs sont maintenant brevetées. L’un d’entre eux développe un capteur numérique qui permet de stocker les photos sur un support informatique. La technologie est naissante, la qualité médiocre par rapport aux appareils argentiques existants. Vous n’y croyez pas. 3 ans plus tard, vous abandonnez le projet et enterrez cette technologie. En tout, votre entreprise aura déposé 1100 brevets sur l’imagerie numérique.

2012 : le lancement de quelques appareils photos numériques sur un marché déjà en pleine explosion et sur lequel vous avez du mal à vous faire une place ne suffira pas à vous sauver. Vous êtes déclarés en faillite. Tous vos brevets sont rachetés pour 1/4 de leur valeur par des sociétés comme Apple, Google ou votre principal concurrent : Fuji.
Vous aurez reconnu l’histoire de Kodak, souvent évoquée pour montrer comment un mastodonte âgé de plus d’un siècle peut s’effondrer car il n’a pas su s’adapter à un changement de paradigme technologique. Alors que de plus en plus de clients étaient séduits par la facilité d’utilisation et le côté pratique de l’appareil photo numérique (quitte à accepter une baisse de qualité), Kodak est resté campé sur sa stratégie argentique et a continué à investir sur la qualité de ses pellicules et de ses appareils photos. Au moment où Kodak s’en est rendu compte, il était trop tard pour s’adapter aux nouvelles orientations du marché. La marche était devenue trop grande.

Le principal concurrent de Kodak, Fuji, possède dans son ADN les secrets d’une histoire qui dure encore aujourd’hui. Créé en 1934, Fuji fabrique des pellicules photo et cinéma. En 1986, il lance un produit innovant qui sera un succès commercial : l’appareil photo jetable. Financé par ce succès, Fuji lance en 1988 son premier appareil numérique et en 1994 son premier appareil reflex numérique (allié avec Nikon). Néanmoins ce marché hyper concurrentiel des appareils numériques et la quasi disparition du marché de la pellicule argentique ne lui permet pas de maintenir son niveau de revenu. En 1997, Fuji décide de se diversifier et lance sa première machine pour imprimer simplement les photos numériques directement dans les boutiques (Minilab Frontier). Ils deviendront leader de ce marché. En 2006, l’entreprise lance le FinePix S5 Pro, un boitier réflex très apprécié par les professionnels. Ce produit fait de Fuji un acteur de référence de ce marché de niche, très rentable.

Au milieu des années 70, Harley-Davidson était à 3 mois de la faillite. Une nouvelle direction va se concentrer non plus uniquement sur le produit mais sur tout l’écosystème : le lifestyle ! Accompagnée d’une profonde transformation interne, avec beaucoup plus d’autonomie pour ses salariés, l’entreprise va rapidement redresser la barre. En 2005, la capitalisation boursière de Harley-Davidson va dépasser celle du géant General Motors.

Ces exemples nous montrent que le risque de faillite ou de disparition est important pour tout type d’entreprise, des plus petites et plus jeunes aux plus grandes et plus anciennes, dès lors qu’elles cessent de s’adapter aux changements et restent sur leurs acquis. L’avènement d’internet, sur les 20 dernières années, a intensifié ce phénomène où l’on voit de nouveaux acteurs arriver et chambouler des marchés historiques (par exemple : N26 ou Revolut dans le monde bancaire).
Avez-vous déjà entendu parler de Meero ? Cette start-up parisienne quasiment inconnue est spécialisée dans la mise en relation de photographes. Elle a effectué en juin 2019 la plus grosse levée de fond française (205 millions d’€). Aucun marché n’est à l’abri.

Ce dynamisme actuel doit avant tout être vu comme une opportunité, celle d’explorer de nouveaux sentiers en expérimentant en permanence pour trouver des réponses aux besoins de vos clients. Les évolutions de stratégie qui ont fait le succès des entreprises ci-dessus sont le fruit d’une organisation performante qui plébiscite l’innovation et l’adaptabilité.

2. Pour être plus performant

Sans solidarité, performances ni durables ni honorables.

François Proust

Maximes à l’usage des dirigés et de leurs dirigeants

Nous entendons souvent nos clients nous indiquer qu’ils veulent se transformer pour être agile. Mais être agile n’est pas une fin en soi. C’est plutôt un facteur déterminant pour améliorer les performances de l’entreprise.

Les leviers de performance sont propres à chaque entreprise : satisfaction clients et/ou collaborateurs, time-to-market, qualité, positionnement marché, gestion du risque, innovation, stratégie produit, collaboration, bien-être… Ces leviers sont très nombreux et chaque entreprise doit définir les siens.

Une partie non négligeable de la performance est liée à la culture et aux valeurs de l’entreprise. C’est ainsi que l’entreprise FAVI a subsisté dans un petit village de Picardie. Sa raison d’être ? Le maintien de l’emploi dans cette zone sinistrée. Un de ses leviers de performance est donc le maintien de l’emploi dans ce bassin.

Nous avons vu dans l’exemple du chapitre précédent qu’il ne suffit pas d’être (extrêmement) performant à un instant t, il est nécessaire de viser un niveau de performance sur une longue durée. Pour cela, la manière dont votre entreprise pilote sa performance, ainsi que la manière de produire et de développer de nouvelles idées, vont être prépondérantes. Nous en reparlerons dans la 2ème partie.

3. Pour continuer à grandir

Vessels large may venture more, but little boats should keep near shore.

Benjamin Franklin

The Way To Wealth

En grandissant, les entreprises font souvent face à des problèmes similaires. Lorsqu’elles atteignent certains paliers en nombre d’employés, les règles du jeu changent.

Ainsi, à partir de 30 personnes, les dirigeants font face au premier défi : la délégation. Il est impossible de continuer à tout gérer à 2-3 fondateurs. Continuer à grandir passe par une bonne distribution des activités, et des responsabilités qui vont avec.

À partir de 100 personnes, apparait un nouveau défi : comment réussir à scaler son organisation. Un des premiers signaux est qu’on commence à ne plus connaître tout le monde. De nombreux chefs d’entreprises nous ont indiqué avoir été surpris un jour de croiser quelqu’un dans leur entreprise qu’ils ne connaissent pas et qui pourtant y travaille. Un autre signal souvent observé est l’émergence d’une concurrence interne : 2 équipes peuvent travailler sur un même sujet sans le savoir. La structure de communication n’est plus adaptée. Cela doit déclencher un déclic et un travail important est nécessaire pour mieux diriger les flux d’information et la gestion des priorités.

A partir de 500 personnes, le niveau de complexité de l’organisation explose. Les interactions peuvent devenir difficiles entre départements qui peuvent avoir tendance à se replier sur eux-mêmes, quitte à créer un fonctionnement en silos. Les collaborateurs voient s’accumuler les couches hiérarchiques au-dessus d’eux, perdant ainsi le contact avec les dirigeants. Maintenir la culture d’origine est souvent difficile car des micro-cultures émergent et le nous contre eux peut prendre le pli sur la collaboration.

4. Pour renforcer la culture

Culture eats strategy for breakfast.

Peter Drucker

La culture d’une entreprise correspond à l’ensemble des comportements qui sont promus et encouragés au sein de l’organisation. Elle se traduit à travers les interactions entre collaborateurs dans un contexte donné.

La culture va agir comme un élément fédérateur pour l’entreprise et permettre de construire un liant entre les collaborateurs, nouveaux ou anciens. Elle constitue les fondations ou les piliers sur lesquels les collaborateurs peuvent s’appuyer pour prendre les (meilleures) décisions au quotidien.

Néanmoins, il faut garder à l’esprit qu’une culture s’incarne plus qu’elle ne se décrète. Ce sont les comportements du quotidien qui la matérialisent. De nombreuses entreprises disposent même de plusieurs cultures qui cohabitent, par exemple à la suite de rachats, fusions ou dans une organisation multi-sites. Poussées à l’extrême, ces cultures peuvent rendre l’entreprise “schizophrène” et alimenter une compétition interne qui va au détriment de la performance collective de l’entreprise. C’est particulièrement vrai quand des équipes qui travaillent de manière différente (outils, méthodes, comportement et donc culture) se retrouvent à collaborer ensemble.

L’enjeu est donc de (re)mettre à plat la culture de l’entreprise, de la rendre compréhensible et palpable, afin d’unifier les collaborateurs autour d’un projet commun.

5. Pour (ré)engager les collaborateurs

Un employé responsabilisé et écouté sera mieux dans son travail, son attachement à l’entreprise grandira et il aura fatalement une meilleure relation avec les clients.

Vineet Nayar

Les employés d’abord, les clients ensuite

Des études sur le niveau d’engagement moyen dans le monde entier montrent des résultats assez déstabilisants.

Ainsi, en 2017 en France, seuls 6% des employés étaient dans la catégorie «activement engagés». Cela représente 1 personne sur 16 impliquée et enthousiaste dans son travail.

69% des employés étaient «désengagés». Cette catégorie d’employés vient au travail avec une seule idée en tête : chercher son salaire, ne pas prendre d’initiatives et en repartir le plus tôt possible.

Enfin 25%, soit 1 employé sur 4, étaient « activement désengagés ». Cela signifie qu’ils sont tellement déçus et démotivés par leur entreprise qu’ils passent leur temps à détruire le travail et la motivation des autres.

Mettre en place un modèle d’organisation qui favorise l’émergence de collaborateurs engagés va aider à améliorer la performance de votre entreprise.

6. Pour (re)mettre le client au centre

Faites du service au client une priorité pour toute la société et pas seulement pour un département de l’entreprise. Par ailleurs, une attitude de service client doit venir du sommet de la hiérarchie.

Tony Hsieh

PDG de Zappos

Nombre de ces maximes ornent les murs des entreprises pour rappeler à tous que, avant tout, le client -celui qui paie pour notre produit ou service – doit être au centre de nos préoccupations.

Si votre attention de dirigeant ne doit pas forcément être prioritairement affectée aux clients (voir le livre Les employés d’abord, les clients ensuite de Vineet Nayar), il est évident que les clients sont essentiels au développement de l’entreprise.

Dans certaines entreprise, il arrive que les jeux de pouvoir prennent le dessus sur le bon sens. Par exemple, une direction va développer ses propres processus d’innovation sans consulter la direction en charge de l’innovation, créant de fait des projets concurrents au sein de la même entreprise. Et si on peut
considérer que de la concurrence naissent parfois d’excellentes idées, elle conduit probablement plus fréquemment à dépenser l’énergie (et donc l’argent) à mauvais escient au sein d’une même entreprise. Se concentrer sur son client nécessite de le connaître, décrypter ses besoins, et donc de multiplier les points de rencontre avec lui, et ce à tous les niveaux de l’entreprise.

Il ne faut pas non plus oublier que votre client – celui qui utilise votre produit ou service – n’est pas nécessairement à l’extérieur de votre entreprise. D’une part, vous avez des collaborateurs qui sont des utilisateurs de votre produit ou service. D’autre part, vous avez des produits ou services qui sont conçus
directement pour vos collaborateurs.

Être assis côte à côte avec son client est un avantage trop peu utilisé. Il n’est pas normal de développer des applications internes totalement inadaptées aux besoins des utilisateurs, qui, bien que logés dans le même bâtiment, n’auront jamais été sollicités. Cela va se traduire par des effets négatifs sur la motivation des équipes : les utilisateurs enragent que le produit ne leur convienne pas, tandis que l’équipe qui a fabriqué le produit récupère un flot de critiques et de demandes de modifications qui gâche leurs efforts.

7. Pour préparer l’avenir

Préparer l’avenir ce n’est que fonder le présent. Il n’est jamais que du présent à mettre en ordre. A quoi bon discuter cet héritage. L’avenir, tu n’as point à le prévoir mais à le permettre.

Antoine de Saint Exupéry

Si vous êtes les fondateurs de votre entreprise, et que vous lisez ces lignes, vous avez certainement déjà franchi certains des paliers de croissance évoqués précédemment. Vous en êtes peut-être même à cette étape de votre vie où après 10-15-20 ans à avoir des activités opérationnelles, vous souhaitez «prendre du recul». C’est normal.

Et c’est parfois compliqué car il existe un risque à confier les clés du camion à quelqu’un qui pourrait déconstruire tout ce que vous avez bâti. Pour éviter les déconvenues, au lieu de confier ces clés à un nouveau chauffeur, vous pouvez construire un camion autonome.

Déjà parce que l’aventure de transformation est une aventure passionnante : elle vous permet de sortir de l’opérationnel et vous fera (re)découvrir votre entreprise sous un jour nouveau. Cela peut vous remotiver et vous apprendrez beaucoup.

Ensuite, construire une entreprise autonome, c’est la préparer à passer les tempêtes qui l’attendent. L’organisation en réseaux qui caractérise ces formes d’entreprises amène une meilleure capacité de résilience. Cela vous rassurera au moment de réellement passer la main.

Les autres articles qui peuvent vous intéresser

agilite-source-de-valeur-dans-gestion-de-transformation

L’introduction de l’agilité : source de valeur en gestion des transformations

L’introduction de l’agilité : source de valeur en gestion des transformations

10 février 2022

– 11 min de lecture

Karl Berard

Consultant Senior Transformation Office Management

De plus en plus les Responsables de la gestion de portefeuille de projets œuvrent à maximiser la « Valeur » des projets inscrits dans leur portefeuille. Ils disposent depuis la montée en force de l’agilité à l’échelle, de plusieurs techniques issues des approches Lean et Agile. Dans ce nouvel épisode, il s’agit d’associer certaines de ces modalités aux différents facteurs de la gestion des transformations à même de faciliter la création de valeur des projets à mener.

Précédemment nous avons parcouru les différentes acceptions attachées à la notion de « Valeur » rencontrées dans l’entreprise. Puis nous avons tenté de reconnaître les dimensions de la « création de valeur » considérées en gestion des transformations que les professionnels des projets ont à charge de maximiser. Cette fois, continuons l’exercice de clarification en nous intéressant aux leviers de la valeur à la main des PMOs en charge de portefeuille de projets.

En préambule, il est bon de rappeler les domaines de la sphère d’influence du PMO quel que soit son niveau d’intervention dans l’organisation : 

L’alignement stratégique des projets : « FAIRE LES BONS PROJETS »

La maximisation des résultats des projets : « BIEN FAIRE LES PROJETS »

L’optimisation de l’usage des ressources engagées : « LES BONS MOYENS POUR FAIRE LES PROJETS »

Pour ce faire, les PMOs peuvent puiser dans différentes approches, démarches et référentiels de pratiques qui permettent d’impacter les organisations autant sur la valeur qu’elles apportent à leurs clients que sur les moyens par lesquels elles fournissent cette valeur. Parmi elles, l’agilité connue pour apporter aux organisations des capacités à générer plus de valeur en plaçant la satisfaction du client au centre des préoccupations, tout en faisant en sorte de s’adapter aux changements de son environnement. Nous allons voir comment cette approche est en mesure de faciliter l’action des PMOs.

A l’international plus qu’en France, il est reconnu que le PMO n’est pas qu’un comptable de la valeur qui résulte des portefeuilles de projets mais celui attendu pour impacter positivement l’organisation dans la création de valeur issue des transformations sous sa responsabilité. Il dispose pour cela, de plusieurs leviers pour y parvenir qu’il met en œuvre au travers de son dispositif de gouvernance et de pilotage des transformations de l’entreprise. Dans ce domaine de gestion, la confusion actuelle provient de la multitude d’actions possibles face aux différents leviers de la valeur des transformations sur lesquelles agir.

La valeur des transformations par la gestion des flux de valeur pour un meilleur alignement stratégique du portefeuille

La performance ne peut se réduire au seul plan économique. Elle se définit comme la mise en perspective de la valeur produite par rapport à toutes les ressources consommées, y compris celle du temps. Aussi la valeur qui en est déduite, n’est pas l’ultime indicateur de la réussite d’un projet. Car même si son potentiel est créé tout au long du projet, c’est plus souvent bien après l’achèvement du projet qu’elle est constatée. En conséquence, l’essentiel de la valeur des projets provient de leur bon alignement stratégique, comme levier d’impacts sur les nouvelles capacités organisationnelles à mettre en place pour accroître la valeur commerciale ou opérationnelle de l’entreprise. On entend fréquemment que l’alignement stratégique recouvre plusieurs dimensions de mise en cohérence regroupées selon deux axes. 

Les dimensions de la mise en cohérence verticale couvrent la déclinaison de la stratégie dans l’entreprise :

  • La stratégie de l’entreprise ;
  • La conception de l’organisation ;
  • La stratégie de développement technologique ;
  • L’infrastructure et le processus des systèmes d’information. 

Les dimensions de la mise en cohérence horizontale traitent son intégration à la fois stratégique et fonctionnelle entre les domaines internes, à chaque niveau de la déclinaison de la stratégie et leurs adhérences externes :

La mise en place de la cohérence entre la stratégie générale et la stratégie de développement technologique se pose aussi de façon dynamique. Il est maintenant fréquent que la stratégie d’une organisation change et que le système d’information et son portefeuille de projets ne se retrouvent plus alignés. C’est pour cette raison qu’un modèle d’alignement stratégique dynamique est devenu nécessaire. L’approche agile appliquée à la gestion de portefeuille de projets y apporte plusieurs éléments de réponse.

L’articulation entre la stratégie et l’exécution des travaux ainsi obtenue, permet de livrer le meilleur compromis de résultats attendus pour la période, dans la limite des moyens accordés aux flux de valeur. L’un des effets connexes du traitement systémique de la valeur est de rompre les silos organisationnels en résolvant des frictions entre équipes et des gâchis de ressources mal affectées.

La valeur des transformations par le pilotage des indicateurs pour une visibilité accrue sur les impacts des transformations

Dans le contexte du modèle de gestion traditionnelle de portefeuille de projets, la valeur est évaluée à l’achèvement des projets à travers le respect des engagements pris. Elle est déterminée selon des pratiques de calculs centrées sur le Triangle d’or de la gestion de projets (Coût, Qualité, Délais). Ici, la Valeur tend à provenir de la conformité de la progression du projet vis-à-vis de sa planification. La raison en est que l’accord de financement du projet présuppose l’acquisition de sa valeur. C’est ce postulat qui focalise tous les acteurs des projets à vouloir rester en conformité avec les engagements pris et ses livrables. Cette conception de mesure de la valeur des projets est en fin de compte un trompe l’œil, puisqu’elle s’appuie sur des mesures à postériori qui ne sont pas comparées aux résultats effectivement délivrés aux clients et usagers. Qui d’entre vous n’a pas été témoin d’une célébration de fin de projet dont les fonctionnalités n’ont pas été ou que partiellement utilisées sans satisfaire ses utilisateurs ?

pilotage des indicateues

Il est nécessaire de revisiter les mesures et la responsabilisation des contributeurs impliqués dans la création de valeur des projets d’un portefeuille. La progression de la réalisation des bénéfices effectivement obtenus par l’entreprise dépend d’un changement de référentiel d’observation et des métriques utilisées qui passent par :

Pour y parvenir, la pensée Lean propose plutôt de se focaliser sur la progression du travail en référence à la Théorie des Contraintes. Pour les PMOs cela signifie d’observer la fluidité des travaux pour s’assurer du flux continue des livraisons, apportant ainsi une contribution plus soutenue de valeur pour les métiers, les équipes projets et l’organisation dans son ensemble. L’analyse de ces flux permet aux équipes de comprendre leurs limites de capacité, faciliter l’identification des problèmes, et aider à se focaliser sur la remise à flot du travail. Pour ce faire, une économie autour des résultats métiers apportés par les projets doit être interrogée :

Tous ces éléments associés à la notion de flux de valeur aident les PMOs à engager les actions propres à stabiliser, accroître, accélérer le flux des travaux. Ils touchent à la fois à des aspects opérationnels, processus et performances. Ils servent aussi de support d’évaluation de leur impact selon trois perspectives. 

La valeur des transformations par la qualité des livrables et la maximisation de la valeur d’usage dans la conception des produits et services

Par construction, la gestion du portefeuille nécessite l’approbation de l’engagement des travaux par les principales parties prenantes de l’organisation. La demande de travail proposée est ainsi ouverte à un examen minutieux des résultats annoncés, car les chefs de projet savent que tout travail approuvé dans un domaine, supprime le financement d’un travail potentiel dans un autre domaine. La Direction, en tant que responsable de l’équilibre des contraintes (budget, calendrier, ressources, risques) au sein de son Domaine, a la responsabilité d’approuver et de faire exécuter le travail ayant le compromis Priorité (Time to Market – Valeur – Risque) le plus favorable. Le PMO est là pour l’assister dans la préparation de ces décisions. Il agit à la fois en facilitant l’obtention des résultats attachés aux engagements pris par les tandems sponsor – chef de projets et en étant vigilant sur les dispositions nécessaires à la réalisation des bénéfices qui en découlent. 

L’approche agile propose parmi ces apports, deux concepts d’incrémentation des livraisons aux métiers, qui constituent un facteur essentiel à la réduction du risque d’échec des projets au sens de la création de la valeur métiers.

Si Frank Robinson a introduit en 2001 le concept du MVP (Minimum Viable Product) considéré comme le résultat du processus du développement en parallèle du produit et des clients. Il reste réservé à la création de produits et de services. Il assure que 20% des fonctionnalités permettent d’atteindre 80% de la satisfaction des clients comme une adaptation du principe de Pareto qui se base sur la loi suivante : 80 % des effets sont le produit de 20 % des causes.

Al Shalloway pour sa part, a introduit presque dans le même temps, le concept du MBI (Minimum Business Increment). L’incrément de valeur commerciale minimal est utilisé dans le cas où les clients ou le produit existent déjà et que l’on souhaite améliorer l’offre existante. Le MBI définit ainsi, une ligne directrice et une orientation commune au sein de toutes les équipes de l’entreprise. Les travaux de définition, d’implémentation et de mise en service sont concentrés sur la livraison d’un incrément à forte valeur ajoutée, dans un temps donné. Il permet ainsi de séquencer la liste des travaux en se basant sur la réalisation de valeur comme critère de base. Il n’est plus question de priorisation des besoins selon l’importance aux yeux du client final, mais de la priorisation des projets dans le « pipe » selon leur valeur. A l’instar d’un besoin, un projet peut être accéléré, mis à l’écart, voire même abandonné. Ceci n’est pas obligatoirement un signe d’échec, et permet au contraire d’éviter le gaspillage des ressources ou certains projets déficitaires/en retards.

En surveillant la cohérence des MVP et MBI, le PMO participe à l’augmentation de la valeur des résultats délivrés par les projets et produits au portefeuille. Il peut être celui qui introduit la mise en œuvre de ces pratiques de sélection des travaux, celui qui sécurise la réalisation des bénéfices attendus des métiers et en communique les éléments aux acteurs concernés. La double temporalité des processus de planification et de livraison du portefeuille lui fournit des critères suffisants d’une évaluation cohérente de la valeur des travaux. Ceci simplifie la comparaison du travail sur une base plus juste et permet aussi de s’assurer que le travail autorisé est valorisé, aligné et équilibré au sein du portefeuille des projets.

La valeur des transformations par l’adéquation entre les besoins en compétences et le développement des collaborateurs

Les compétences mobilisées sur les projets ont toujours été tirées par une recherche d’adéquation des effectifs d’après leur disponibilité et profil plus que par leur implication. Au fil du temps les notions d’engagement, de responsabilité, de performance collective et de leadership sont devenues des facteurs parmi les plus importants dans la réussite des projets. Les directions ont encore pour habitude de perpétuer à leur façon, culture et éthique héritées des spécificités de leurs activités et de leur histoire, sans identifier si elles reposent sur des « softskills » qu’ils leur faut faire évoluer. L’un des effets de ce manque de considération, s’observe chez les collaborateurs en perte de sens individuelle qui résulte à la fois d’un ressenti de manque de visibilité sur la finalité des travaux, d’autonomie dans l’organisation du travail (répartition, planification), d’expériences mobilisées et de perspectives d’évolution dans ses métiers.

Sans être en responsabilité envers les parties prenantes du portefeuille, Les PMOs d’une direction ou d’un domaine occupent un rôle central de facilitateur et de mise en relation des personnes. Avec ce positionnement, ils sont devenus les mieux placés pour développer l’état d’esprit (mindset) et les comportements propices à l’engagement nécessaire au sein de leur organisation. Ils peuvent y contribuer en libérant les freins aux actions transversales, en réduisant les obstacles par la promotion de la transparence et le partage des retours d’expérience utiles. Pour les y aider, les principes du management 3.0 définis par Jurgen Appelo dans son livre Management for Happiness, apportent des outils propres à maintenir les collaborateurs créatifs et motivés. Parmi les effets reconnus on trouve : 

  • Dynamiser les personnes ;
  • Responsabiliser les équipes ;
  • Aligner les contraintes ;
  • Développer les compétences ;
  • Développer les structures ;
  • Améliorer le tout. (ou comment articuler changements et amélioration continue)

Les PM Officers agissent directement sur le modèle Matriciel pour en faire une organisation plus organique, vecteur d’autonomie dans le choix des compétences nécessaires au développement des profils. En intervenant transversalement par un ensemble de pratiques et leur cohérence, ils développent l’unité, la complémentarité pour fluidifier les échanges et les prises de décisions éclairées (risques à réduire, adhérences entre projets, maturité de l’organisation des équipes, gestion du temps). Le décloisonnement des équipes au sein de leur direction et de l’entreprise a pour effet de diminuer les coûts systémiques qui relèvent de la coordination. Les équipes bénéficient d’une dynamique de responsabilisation. Laquelle apporte aux projets la mobilisation des ressources individuelles les plus adéquates (cognitives, comportementales, managériales) dans un collectif focalisé sur les résultats visés par les projets.

La valeur des transformations par les capacités organisationnelles propre à faciliter l’adaptation de l’organisation et des projets

Les pratiques de gestion prédictive auxquelles nous sommes habitués sont devenues impuissantes devant l’amplification de l’incertitude sur la planification des projets qui augmente toujours plus le risque agrégé des portefeuilles. Les dispositifs et pratiques de gouvernance, de travail et des technologies à disposition sont pour cela caractéristiques du modèle d’organisation hiérarchique, fonctionnel et prédictif qui prédomine. Ce modèle n’est plus en mesure de faire progresser la maturité de l’entreprise face aux nouveaux déterminants de sa création de valeur. Ceux dont nous sommes les plus familiers touchent aux Conditions du marché, au Cadre réglementaire, aux Avancés de la recherche académique et aux standards industriels. Tandis que ceux propres à l’organisation relèvent des considérations financières, sociales et culturelles, de l’environnement physique de travail et du maintien des capacités opérationnelles.

Parmi les acteurs des directions intermédiaires en charge de faire face à ces déterminants internes, il revient au PMO à travers les projets au portefeuille de favoriser la création de la bonne valeur, au bon moment, pour le bon public. A lui d’agir sur les facteurs organisationnels à même de faciliter les flux de valeur issus de ses activités, touchant à la sélection des travaux à mener, à l’engagement des ressources au sens large et à fédérer les équipes autour d’objectifs communs.

Pour arriver à progresser de nouveau, les approches agiles et leurs dérivés apportent beaucoup d’éléments prompts à faciliter la création de valeur organisationnelle en question. Cependant, celles-ci exigent d’appréhender tout ou partie d’un nouveau système de gestion qui se traduit entre autres par des changements vers un environnement plus transparent (nous l’avons évoqué précédemment), et la mentalité du « tester, apprendre et s’adapter ». Que l’on évolue vers une approche hybride comme le promeut le modèle Discipline Agile de Scott W Ambler, ou une autre d’Agilité à l’échelle inspirée du modèle SAFe de Dean Leffingwell, ils comportent tous un ensemble d’exigences applicables à la gestion de portefeuille Agile dont certaines ont déjà été abordées :

Les PMOs ont pour terrain de jeu celui de la conduite des transformations. Si cet espace est à la mesure des impacts qu’ils peuvent y faire ; c’est le résultat de leurs actions de gestion qui permet d’aboutir au constat que le portefeuille des projets crée plus de valeur que la somme de ses éléments. Leur travail sur les facteurs de valeur organisationnels contribue à faciliter l’adaptabilité, la flexibilité, l’intégration, la communication, et le traitement des données des projets. Ils participent au développement de nouvelles capacités organisationnelles qui résultent d’une rigueur dans l’amélioration continue des pratiques. C‘est ainsi que le PMI (Project Management Institute) reconnais plusieurs de ces apports :

Pour résumer ce long propos, nous savons maintenant comment un PMO devient progressivement l’acteur des organisations, apte à accroître la valeur des transformations. Il peut s’appuyer sur les approches Lean-Agile et ce à plus d’un titre : 

Pour faciliter l’adaptation des capacités organisationnelles de transformation, il se réfère à un modèle d’hybridation du travail et des rôles dans l’organisation en tant que vecteur d’adoption des valeurs et principes agiles, avant même les pratiques applicables à la gestion de portefeuille.

Les Leviers de création de valeur de la gestion des transformations

Le thème du prochain et dernier épisode de cette série sur la valeur des transformations, sera l’opportunité de comprendre : comment se définit la valeur d’un portefeuille au regard des enjeux de la société au sens large ? Comment s’articulent les priorités des transformations au travers des flux de ressources étendus aux champs écologique et social ? Et enfin, comment envisager de piloter la valeur des transformations au travers du prisme de la performance globale ?

offre-ITSM

Notre offre IT Service Management

Notre offre IT Service Management

1 décembre 2021

– 1 min de lecture

Louis Rondot

Plaquette ITSM_Rhapsodies Conseil_VF

Vos enjeux

Nos offres

Définir la stratégie ESM

*ESM = Enterprise Service Management (ITSM/ ITAM/ ITOM/ PPM…)

Optimiser les processus

Rationaliser l’usage des outils

Pilotage de la mise en oeuvre

Des bénéfices clés pour votre organisation

Les autres qui peuvent vous intéresser

norme-iso-20022

Norme ISO 20022 : Comment s’y adapter quand on est métier compliance ?

Norme ISO 20022 : Comment s’y adapter quand on est métier compliance ?

17 novembre 2021

– 6 min de lecture

Olivier Ribeiro

Consultant Retail Payments

Échange de flux financiers, transferts internationaux, nouvelle structuration de données, règles, outils. Tout est dit.

Comment s’adapter à ce changement quand notre métier est de surveiller le caractère licite de millions d’opérations, qui plus est sur une variété de sous-jacents ?

Migration ISO 20022 et métier compliance, quèsaco ?

La société SWIFT administre la norme ISO 20022. A ce titre, elle publie les guidelines qu’il convient de respecter dans le cadre des échanges de flux.

ISO 20022 est une norme régissant les échanges de données entre institutions financières.

C’est logiquement que SWIFT endosse le rôle d’administrateur car c’est cette même société qui fournit la solution de messagerie du même nom. Autrement dit, SWIFT donne le LA sur la structure des données de paiements.

La messagerie SWIFT permet d’échanger les instructions de transfert de fonds :

La migration concerne ces deux types de transfert : de gros montants en EUR pour Target2 ou les opérations internationales pour le correspondant banking (CBK).

Les processus de conformité sont essentiels. Le changement de format ne doit pas dégrader les niveaux de conformité. Pour assurer cette continuité, appliquer la migration ISO20022 nécessitera de bien identifier les travaux d’évolution à promouvoir…

De quoi parlons-nous exactement ? Comme évoqué plus haut, la migration concerne plusieurs périmètres.

Le premier T2/T2S, du système Target2, commence dès novembre 2021. Certains établissements parlent même de Big Bang.

Le second périmètre concerne les flux internationaux. Swift déploie le format MX, implémentant la norme ISO 20022, avec pour échéance Novembre 2025..

Les participants directs à Target 2 ont commencé les phases de tests de place pour être prêts en novembre 2022. Tout ne sera pas pour autant conforme à la cible à cette date, en raison des impacts dans les systèmes pour alimenter les nouvelles structures de données : en particulier un mode « like for like » pourra être toléré jusqu’à novembre 2025 sur les adresses, qui ne peuvent être simplement restructurées à partir des seuls messages MT actuels.

Les équipes métier sont directement concernées par ce changement de norme. C’est en particulier le cas des équipes Compliance.

Quels sont les impacts du changement ISO 20022 pour la compliance ?

La démarche d’étude d’impacts et des actions peuvent se mener sous 3 axes :

1. Les impacts du changement ISO 20022 sur les données

Construire la table de concordance entre le format historique et le format cible

Construire la table de concordance entre le format historique et le format cible permettra d’établir le socle pour assurer le maintien du service.

De quelles données ai-je besoin aujourd’hui pour alimenter mes indicateurs ?

Où se situeront mes données demain ?

Le schéma fonctionnel pour les transactions internationales, lui, ne changera pas. Le circuit des messages d’instruction des ordres de paiements pour compte propre ou pour compte des clients de l’établissement s’opère de la manière suivante :

Exemple de messages édités lors d’un flux de paiement

L’exploitation des données de paiements est dépendante des éléments permis par la norme. 

Les champs significatifs d’un message MT 103 (message de paiement) aux yeux de la conformité sont structurés de la manière suivante :

S’approprier les innovations

Comme nous pouvons le voir ci-dessus, le contenu des messages à l’ancien format ne fait pas mention de tous les acteurs impliqués dans la transaction.

La norme ISO 20022 apporte une réponse, avec l’ajout de nouvelles données relatives aux bénéficiaires effectifs et aux émetteurs originaux. Le message MT s’appellera demain Pacs 008 comme le montre le schéma suivant : 

Mention des acteurs dans un paiement par type de message

Organigramme paiement

Cet apport est précisément une réponse de conformité à la suite du scandale des Panama Papers de 2016, où la fraude s’effectuait notamment par le biais de virements ne mentionnant pas les émetteurs et bénéficiaires effectifs.

Les innovations seront dorénavant développées à partir du format MX. Parmi celles-ci, nous pouvons évoquer l’utilisation d’un nouvel encodage pour ces flux financiers, UTF-8 qui élargit le panel d’alphabets utilisables. 

A titre d’illustration sur une transaction internationale, les noms peuvent être altérés lorsqu’ils passent d’un système de caractères tel que le japonais à notre alphabet latin, comme l’illustre l’exemple ci-dessous :

Avec l’utilisation de l’ISO 20022 et l’adaptation de la chaîne de communication entre les applications, de nouveaux alphabets sont disponibles de bout en bout. Cela permettra d’améliorer la surveillance des flux.

On peut prendre par exemple des personnes portant des noms différents selon les transcriptions alphabétiques résidentes dans des pays disposant d’alphabets différents.

D’autres innovations sont envisageables, hors conformité, comme l’automatisation des réponses de SWIFT GPI et l’uniformisation des plateformes du système TARGET.

Ces innovations au niveau Compliance devront toutefois tenir compte des réglementations locales (paradis fiscaux, …) qui pourraient minimiser l’usage de certaines balises, sous couvert de confidentialité… ISO 20022 est une norme permettant d’améliorer l’efficacité de la conformité, mais ne peut pas fonctionner dans ce but toute seule, sans l’aval des régulateurs des pays dans lesquels elle opère.

2. Les impacts du changement ISO 20022 sur les indicateurs

L’objectif de la conformité est de détecter les transactions illicites.

Aujourd’hui, cette mission requiert des revues manuelles. Les traitements urgents sur l’analyse des faux-positifs et la détection des faux négatifs monopolisent un nombre important de ressources.

Comment optimiser ces actions ? Comment détecter les transactions illicites ?

Les données alimentent les indicateurs de compliance. Modifier les données source a un impact sur la fiabilité des indicateurs.

Construire ou mettre à jour la matrice des indicateurs

Les indicateurs de Sécurité Financière servant à la LCB-FT, au KYC et au respect des Sanctions et Embargos ont besoin d’être organisés (comme l’illustre l’exemple de matrice d’indicateurs ci-dessous) :

Pour plus d’informations : https://www.swift.com/fr/node/307786

Les indicateurs génèrent des alertes sur la base de la détection de données contenues dans les messages de paiement. Aussi, l’efficacité de la Sécurité Financière ne repose pas uniquement sur les indicateurs mais sur la qualité des données sur lesquelles ils s’appuient pour émettre leurs alertes ou non. D’où la pertinence d’avoir une bonne adhérence entre les indicateurs d’une part, et les données normées ISO 20022 de l’autre.

Construire ou mettre à jour la matrice d’applicabilité

Il convient d’appliquer la conformité selon le métier et les normes de la filiale afin de s’assurer de l’optimisation des coûts et du temps nécessaires à l’application de la conformité.

Il y a des enjeux de priorité différents. Concernant la conformité, la priorité n°1 est de ne pas être en situation de non-conformité. Les éléments restants ne sont pas bloquants, mais peuvent en effet augmenter les coûts et le coefficient d’exploitation.

3. Les impacts du changement ISO 20022 sur les applications

Le capot du moteur d’échange des établissements financiers sera ouvert pour faire évoluer le Core Banking System (CBS) et ses applications en adhérence. Parmi ces applications figurent celles du métier Compliance.

Analyser le schéma d’architecture applicative et fonctionnelle

Cependant, afin de profiter du potentiel de la nouvelle norme, la variété des outils servant à la conformité tend vers la nécessité d’une stratégie adaptée à leurs usages.

Ceux-ci communiquent avec des formats différents, comme l’illustre le schéma ci-contre à titre d’exemple. Cela rend chaque mise à jour et connexion complexe, nécessitant du temps et de l’expertise.

Étudier l’impact des changements de formats permet d’identifier les éléments des messages de paiement se retrouvant dans les outils.

Les applications de filtrage analysent les données du Core Banking System. Ces données peuvent être utilisées par d’autres applications.

Évaluer le niveau de transcodage dans les applications et les pivots

La communication se fait entre des applications fonctionnant avec des langages de programmation différents, générant des impacts de retranscription.

Dans beaucoup de cas, des pivots de transcodification ont été mis en place pour permettre le transfert de données entre les applications.

Bien évaluer la qualité de transcodage entre les applications et les pivots permettra de faire des choix face au chiffrage des évolutions.

Le CBS est le garant des informations. Les autres applications ne peuvent pas évoluer sans lui. Les CBS auront donc à leur charge de migrer en premier au nouveau format afin de pouvoir alimenter les TMS (Transaction Monitoring System). La présence de la conformité est donc essentielle dans un projet de migration.

L’ISO 20022 s’impose aux systèmes d’échanges internationaux. Les institutions financières pourront bénéficier de nouvelles données efficaces dans le cadre de la conformité. Toutefois, cette migration nécessite des travaux pour les exploiter :

Si vous n’avez pas encore été impliqué en tant que métier Compliance, c’est le moment !