DSI : réussir le renouvellement de vos contrats d'infogérance
Réussir le renouvellement de ses contrats d’infogérance nécessite anticipation et préparation dans le cadre de bons choix stratégiques et tactiques plus ou moins collaboratifs vis-à-vis du marché. Ces choix sont systématiquement fonctions de l’analyse de la relation client-fournisseur et des besoins non couverts.
Les DSI sont systématiquement confrontés, à l’approche de l’échéance de leurs contrats d’infogérance et/ou dans le cadre de situations exceptionnelles à la question des modalités de renouvellement / prolongation de leurs contrats et ce si possible bien avant l’arrivée à échéance.
Sur la base de l’expérience de ces situations et de nombreuses missions de conseil, je recommande (1) de bien prendre conscience des différents niveaux d’attente qu’une DSI peut avoir face à aux infogérants, (2) conduire des revues d’évaluation et de dynamisation à mi-contrat, (3) choisir et s’impliquer – le cas échéant – dans les stratégies de remédiation, renégociation ou remise en compétition.
Qu’attendre de vos infogérants ?
Je pense qu’il est important que les deux parties soient attentives à un certain nombre d’attributs de la relation et ce dans un ensemble de dimensions qui se consolident dans la durée. Ce n’est qu’à ce prix que les conditions d’un partenariat peuvent se développer et se maintenir, saisons de renouvellements après saisons.
Conduire des revues d’évaluation et de dynamisation à mi-contrat
Il s’agit d’impliquer des équipes externes au contrat (mais pas forcément des consultants extérieurs) afin d’évaluer l’état des réalisations, le niveau de performance, la perception utilisateurs ainsi que l’évolution des besoins depuis le démarrage ainsi que les moyens qui ont concrètement été mis en œuvre pour y répondre.
Bien que ces revues puisse être mal accueillies par les infogérants et/ou perçues comme « hostiles », dérangeantes ou voire même inutiles, ce type d’analyse de la situation à mi-parcours apporte cependant les bénéfices suivants :
l’œil neuf et le changement de perspective d’une équipe externe permet d’identifier les points oubliés, insuffisamment challengés ou implicitement admis par l’équipe en charge du contrat
l’opportunité d’exprimer son opinion – bonne ou mauvaise – sur le contrat en communiquant à l’infogérant ses besoins de changement pour la suite
donner à l’équipe en charge du contrat (coté client comme coté infogérant) l’opportunité de changer de direction si besoin ou au moins d’adresser suffisamment tôt les problématiques identifiées pour que les changements puissent être menés à bien avant une potentielle remise en compétition.
Opter pour les bonnes stratégies de fins de contrats
Les décisions de « renouvellement » qu’une DSI doit prendre dans le cadre de ses contrats existants ne sont pas si simples car elles nécessitent une évaluation précise des situations selon que ces contrats donnent ou pas satisfaction ou bien qu’ils arrivent prochainement à échéance.
Cas n°1 : une DSI dont le contrat ne répond plus aux attentes ou dont l’exécution ne donne pas satisfaction se posera les questions suivantes : comment en est-on arrivé là ? Que devons nous faire pour adresser les causes profondes de cette situation ? Est-ce le moment de renégocier le contrat ? Est-ce le moment de remettre ce contrat en compétition ? Devrions-nous collaborer avec notre fournisseur pour améliorer la performance rendue et la relation de travail ?
Cas n°2 : une DSI dont le contrat arrive prochainement à échéance se posera les questions suivantes : devrions-nous renouveler ce contrat ou bien le renégocier avec notre fournisseur actuel ? Devrions-nous ouvrir ce contrat à d’autres fournisseurs potentiels dans le cadre d’une remise en compétition ?
Quelle que soit la situation, l’objectif stratégique de la DSI sera de maximiser la valeur ajoutée de son contrat. Trois stratégies, de la plus collaborative à la plus compétitive, sont possibles afin de remettre sur la bonne voie, un contrat qui en aurait dévié et/ou pour bénéficier d’innovations techniques ou organisationnelles non disponibles (ou envisagées) à la signature du contrat initial :
Stratégie de remédiation : il s’agit ici de se focaliser sur la relation avec le fournisseur et les services obtenus plutôt que sur le contrat. Cette stratégie s’attache à améliorer la situation pour les deux parties. La remédiation pouvant faire intervenir ou pas des changements contractuels mais impliquant dans les cas un plan d’amélioration
Stratégie de renégociation : il s’agit dans ce cas de modifier le contrat initialement signé. Ces changements pouvant être aussi mineurs que des ajustements de prix ou de la baseline ressources, ou bien plus significatifs comme la révision en profondeur des termes, des conditions ou du périmètre du contrat. L’origine de ces changements peut simplement être la conséquence d’un contrat initial qui ne fonctionne plus correctement en raison d’un état de l’art qui a évolué depuis sa signature ou bien de besoins client qui ont changé et ne sont pas pris en compte dans le contrat actuel
Stratégie de remise en compétition : il s’agit d’ouvrir à la concurrence, dans le cadre d’un appel d’offre, tout ou partie des services contractualisés . Le tenant actuel du contrat étant inclus ou pas dans la liste des fournisseurs consultés.
Ces stratégies pourront, selon les cas, s’enchaîner et se combiner tout au long du cycle de vie du contrat.
Les autres articles qui peuvent vous intéresser
13 janvier 2025
Pilotage & Performance Opérationnelle et Contractuelle
Edge computing vs cloud computing, deux modèles complémentaires ?
Edge computing versus cloud computing, deux modèles complémentaires?
2 septembre 2020
– 6 min de lecture
Architecture
Mohammed Bouchta
Consultant Senior Architecture
Pendant la dernière décennie, nous avons assisté à la montée en puissance du Cloud Computing dans les nouvelles conceptions d’architecture SI.
Sa flexibilité faisant abstraction de la complexité des infrastructures techniques sous-jacentes (IaaS, PaaS) et son mode de facturation à la consommation (Pay as you go) étaient des atouts suffisants pour convaincre les premiers clients. Mais c’est surtout le développement d’un nombre important de nouveaux services innovants avec une grande valeur ajoutée qui a mené la plupart des entreprises à adopter le Cloud. C’est ainsi par exemple que la grande majorité des entreprises ont pu expérimenter le Big Data, le Machine Learning et l’IA sans avoir à débourser des sommes astronomiques dans le matériel approprié en interne.
Le Cloud a facilité également le développement du secteur de l’IoT, ces objets connectés dotés de capteurs qui envoient leurs données régulièrement à un système central pour les analyser. En effet, le Cloud a fourni une panoplie de services pour absorber toutes les données collectées et une puissance de calcul importante pour les traiter et les analyser.
Cependant, le besoin de prendre des décisions en temps réel sans être tributaire de la latence du Cloud et de la connectivité dans certains cas, donne du fil à retordre aux experts lorsque les sources de données commencent à devenir extrêmement nombreuses.
Ainsi, d’autres besoins beaucoup plus critiques ont émergé en lien avec l’utilisation des objets connectés qui nécessitent des performances importantes en temps réel, et ceci même en mode déconnecté. Nous pouvons le constater par exemple dans les plateformes pétrolières en mer, les chaînes logistiques ou les véhicules connectés qui nécessitent une prise de décision locale en temps réel alors que le partage des données sur le Cloud permettra de faire des analyses plus globales combinant les données reçues, mais sans exigence forte sur le temps de traitement.
Ce sont ces contraintes et d’autres encore comme la sécurité des transmissions et la gestion de l’autonomie, qui ont donné naissance à un nouveau paradigme d’architecture, celui du Edge Computing.
Gartner estime que d’ici 2025, 75% des données seront traitées en dehors du centre de données traditionnel ou du Cloud.¹
Que signifie le edge computing exactement ?
À l’opposé du Cloud Computing qui tend à déplacer tous les traitements dans le Cloud, le Edge Computing vise à rapprocher la puissance de calcul, le stockage et les applications de l’endroit où la donnée a été créée. Cela permet ainsi de pallier les problèmes de connectivité, de latence et les risques liés à la sécurité.
Avec le Edge Computing, l’analyse des données peut se faire directement sur le périphérique qui les a générés, comme par exemple les smartphones ou les objets connectés qui ont des ressources suffisantes. Si l’objet connecté est limité en ressources de calcul, de stockage, de connectivité ou d’énergie, comme dans la majorité des cas, alors c’est une passerelle IoT équipée de ces capacités, qui prend en charge la collecte, la transformation, l’analyse des données et la prise de décision / action.
Cette décentralisation du stockage et du traitement des données permet de répondre aux exigences de la prise de décision en temps réel.
Prenons l’exemple de la voiture autonome dans une situation de danger imminent, nous devons envoyer la globalité des données des capteurs sur un Cloud pour les analyser et attendre que le Cloud renvoie à la voiture les directives à suivre pour éviter l’accident. Même avec toute la puissance de calcul du Cloud, le temps de latence imposé par le réseau peut mener à la catastrophe. Alors qu’avec une analyse des données et une prise de décision locale, en temps réel, la voiture aura une chance d’éviter l’accident.
Ou l’exemple d’une machine dans une chaîne de production qui doit adapter sa vitesse d’action par rapport à plusieurs facteurs environnants qui proviennent des appareils de la chaîne. L’utilisation du Edge Computing au niveau de la Gateway IoT (passerelle) permet de récupérer les données nécessaires des périphériques locaux pour analyser et ajuster la vitesse de la machine en conséquence sans avoir à passer par le Cloud.
L’autre atout majeur du Edge Computing est sa résilience. Le système local peut continuer à fonctionner même s’il y a une défaillance majeure dans le Cloud, dans le réseau ou sur d’autre branche du système.
Toutefois, il ne faut pas croire qu’il est simple de mettre en place ce type d’architecture, bien au contraire. En effet, nous revenons à une architecture distribuée qui nécessite des appareils avec des ressources plus importantes (donc plus chères) et souvent avec des technologies hétérogènes qui doivent s’interfacer ensemble pour communiquer, ce qui complexifie l’administration et la maintenance. Aussi, en stockant les données en local, le problème de sécurité des données est déplacé vers les périphériques qui les stockent. Que ce soient les objets connectés ou la Gateway IoT, ces appareils peuvent être accessibles physiquement et sont donc plus vulnérables à un piratage. Ces périphériques devront se doter d’une politique de sécurité accrue pour s’en prémunir.
Ce changement d’approche a ouvert des opportunités pour les fournisseurs de télécommunications qui développent de nouveaux services liés à la 5G, à l’IoT et à d’autres technologies. Il a poussé les différents acteurs du marché à innover pour proposer des offres plus adaptées au Edge Computing. C’est ainsi que les leaders en matériel informatique comme Cisco, Dell EMC et HP par exemple ont tous mis sur le marché des produits dédiés à ce type d’architecture. Les géants du Cloud ont aussi réagi en force à cette tendance avec une palette de services qui peuvent s’étendre jusqu’aux périphériques connectés pour agir localement sur les données.
D’autre part, les avancées technologiques en matière de microcontrôleurs toujours plus miniaturisés, puissants et avec une consommation réduite de l’énergie, ont permis de faire de l’IA embarquée dans les objets connectés afin d’être plus rapide et efficace dans la prise de décision.
Vers la fin du cloud computing ?
Absolument pas ! Le Cloud a encore de belles années devant lui. En réalité, les deux solutions sont complémentaires et c’est le type de traitement nécessaire, le temps de réponse attendu et les exigences de sécurité qui vont déterminer ce qui doit être traité au niveau du Edge et ce qui doit être envoyé vers le Cloud.
Si nous reprenons le cas de voiture connectée, le Cloud va permettre d’agréger les données envoyées par toutes les voitures afin de les traiter, de les comparer et de faire des analyses approfondies pour optimiser les algorithmes de conduite et le modèle IA à déployer comme nouvelle version du programme embarqué dans les voitures connectées.
En combinant le potentiel de collecte et de l’analyse en temps réel des données du Edge Computing avec la capacité de stockage et la puissance de traitement du Cloud, les objets IoT peuvent être exploités de façon rapide et efficace sans sacrifier les précieuses données analytiques qui pourraient aider à améliorer les services et à stimuler l’innovation.
En conclusion
Il est peu probable que l’avenir de l’infrastructure réseau se situe uniquement dans le Edge ou dans le Cloud, mais plutôt quelque part entre les deux. Il est possible de tirer la meilleure partie de leurs avantages respectifs. Les avantages du Cloud Computing sont évidents, mais pour certaines applications, il est essentiel de rapprocher les données gourmandes en bande passante et les applications sensibles à la latence de l’utilisateur final et de déplacer les processus du Cloud vers le Edge. Cependant, l’adoption généralisée du Edge Computing prendra du temps, car le processus de mise en œuvre d’une telle architecture nécessite une expertise technique approfondie.
En fin de compte, vous devez toujours commencer par bien cibler les usages, les exigences et les contraintes de votre système pour choisir la bonne architecture.
Petite synthèse à chaud des débats de la table ronde organisée par le GT RED (Groupe de Travail Règles, Evolutions & Déploiements) du France Payments Forum. Le thème « Bilan des API DSP2 » était d’actualité quelques semaines après le 14 septembre.
2 heures d’échanges fournis et directs (la règle avait été partagée : « on est là pour se dire les choses… ») entre :
2 banques : Alain BENEDETTI (BNP Paribas) et Dominique BEAUCHAMP (NATIXIS PAYMENT SOLUTIONS) et
2 TPP : Romain BIGNON (BUDGET INSIGHT) et Mathieu PERE (TINK),
animées par Ludovic VATHELOT (TREEZOR).
Emmanuel NOBLANC (SAB) avait démarré avec une KeyNote pour poser le contexte.
J’avais la charge de restituer une synthèse pour conclure…
Que retenir à chaud, à la fin des débats ?
A défaut d’une analyse posée, j’ai surtout retenu la différence de ton entre les échanges sur :
la DSP2 et les RTS, vécus par tous comme une contrainte, avec des choix pris dans un contexte et étendus abusivement (par exemple entre Agrégation et Initialisation) et générant des positions défensives
l’OpenBanking, avec l’illustration de cas d’usage et d’initiatives, avec un enthousiasme communicatif à l’ensemble de l’auditoire.
Pour commencer, il était utile de rappeler que TPP et ASPSP ont plus en commun que la DSP2 ne le laisse voir : les ASPSP sont aussi des TPP ! Chacun a d’ailleurs noté le caractère schizophrénique de cette double posture des ASPSP :
réticence du fait que les API réglementaires sont imposées sans rémunération
vs. initiatives des ASPSP dans l’initiation de paiement (pour illustration, les cas d’usage de Natixis Payments Solutions avec Foncia et System U).
Ceci dit, les acteurs ont largement souligné les difficultés rencontrées dans la mise en œuvre des RTS, avec un constat unanime de progrès significatifs depuis le 14 septembre, mais encore aucune utilisation opérationnelle significative des API déployées. Les obstacles sont multiples :
Problèmes techniques de stabilité, bien sûr
Complexité générée par l’hétérogénéité
Implémentations techniques différentes (malgré les travaux de standardisation menés autour de STET ou de Berlin Group),
Ecarts fonctionnels (divergences de vue sur le périmètre de la règlementation, sur les données requises, mais au-delà sur ce qui apparaît même comme des incohérences de la DSP2 : comment concilier l’esprit de la Directive d’étendre l’offre de service, notamment l’initiation de paiement marchands et la lecture stricte de présenter via API l’équivalent de son offre de Banque en Ligne),
Parcours clients variant de 2 à 7 étapes utilisateurs (avec la problématique de SCA), rassemblés dans une offre d’agrégation soulignant les différences de fluidité…
Exigence de continuité du service déjà déployé par les TPP, qui ne peuvent basculer sur les API qu’une fois atteint un niveau de fiabilité équivalent aux alternatives actuelles de Direct Access (Scraping, Reverse Engineering).
Et puis, l’illustration de différents parcours utilisateurs et la projection sur les cas d’usage nous ont projeté dans une autre dynamique d’échange, où l’on parlait de :
Expérience client,
Services à valeur ajoutée,
Valorisation de la donnée,
Différenciation et avantage concurrentiel,
Initiatives bilatérales entre banque et TPP,
Modèle économique gagnant-gagnant (la clé du sujet !)…
Le miroir était franchi
Oubliées les postures défensives et la vision strictement réglementaire
Bienvenue dans le monde concurrentiel, avec « les yeux qui brillent » à l’évocation du potentiel de l’initialisation de paiement (combiné à l’Instant Payment) pour offrir les nouveaux services à valeur ajoutée attendus par le marché (et au fondement de la Directive elle-même…).
Au final, c’est bien le consommateur qui validera les meilleures offres !
Il faudra donc encore du courage et de la ténacité pour atteindre la conformité à la DSP2, mais la perspective nous projette déjà plus loin, avec un nouvel élan !
But still, it’s a long way… Un chemin que notre Groupe de Travail au France Payments Forum poursuivra et auquel vous êtes invités à contribuer si vous le souhaitez.
A très bientôt pour un autre événement sur le même thème !
Tels des escadrons de cavaliers des temps modernes, les cellules PMO assistent les Dirigeants et directeurs comme le faisait en son temps les aides de camp de Napoléon et de ses maréchaux. Le contexte et les conditions ont évolué mais les exigences de visibilité et de coordination entre objectifs, ressources et contingences restent d’actualité.
De longue date, nous savons que les directions œuvrent à la transformation de l’entreprise en anticipant plus qu’en réagissant aux menaces et opportunités qu’elles rencontrent. Pour ce faire, elles gèrent leurs activités d’exploitation et d’investissement pour créer de la valeur. Les attentes sont distribuées dans toutes l’organisation (à la fois verticalement et horizontalement). Historiquement les directeurs de programmes dans les directions SI et plus récemment les directions métiers, ont mis en œuvre et développé les techniques et pratiques de Gestion de Portefeuille Projets. Chacun, à son niveau, y recherche des moyens d’optimiser ses ressources avec le souci d’obtenir la valeur et plus classiquement de satisfaire les intérêts de l’entreprise.
Un rôle déterminant pour les organisations
Plus aucun secteur d’activité économique n’est exempté de devoir gérer et maîtriser finement ses finances et l’utilisation de ses ressources. L’optimisation de l’allocation des investissements implique une attention toute particulière sur l’alignement stratégique du portefeuille de projets. Issue de ces investissements, le portefeuille de projets exige à son tour un pilotage pour évaluer son contenu. Ici, il n’est plus question de contraindre les chefs de projets à se conformer à un travail administratif, mais de leur fournir les outils à même de les aider à concrétiser la valeur du travail de leurs équipes et en apporter la visibilité à leurs responsables.
La responsabilité de la cellule PMO est à la fois d’analyser et de surveiller la matérialisation de la valeur des engagements pris par les projets. Il importe pour l’entreprise de la pérenniser en formalisant et en aidant la direction à décider à partir d’éléments factuels et qualitatifs via le pilotage dans le temps de la valeur du portefeuille des projets.
Quel que soit le niveau de rattachement de la cellule PMO, elle agit au cœur d’un réseau de relations humaines. Elle est à la croisée des préoccupations des différents responsables de l’entreprise. Son influence dans les relations est à la fois directive et collaborative, toujours dans le souci de servir la stratégie de l’entreprise. Chaque cellule occupe un positionnement transverse qui lui permet d’assurer une fonction qui cumule des responsabilités d’analyse, de gouvernance, et d’administration des données du portefeuille avec ou sans outils.
Elles ont pour rôle de planifier, créer, évaluer, soumettre à arbitrage les projets/programmes dans le portefeuille et de communiquer sur les priorités du portefeuille et les informations d’état des investissements en cours. Ce positionnement vise à l’obtention de la valeur des projets. Essentiellement active dans les instances et travaux de consolidation, elles font face à des exercices d’influence qui peuvent s’apparenter à du lobbying pour maximiser les affectations des directions et ce parfois au détriment des objectifs stratégiques.
Un dispositif garantissant la bonne conduite des projets
La conduite des activités PMO comprenant la planification, le contrôle et le pilotage du portefeuille implique du responsable qu’il définisse le dispositif d’évaluation en continu de son portefeuille. Elle inclue d’Accompagner les managers et les opérationnels des projets de transformation dont ces derniers ont la responsabilité. Ces activités visent à développer les capacités de l’organisation à garantir la maîtrise des projets tout au long de leur déroulement. Ces capacités sont essentielles pour porter une vision consolidée et ordonnée du portefeuille qui permet à la fois à la direction d’agir et réagir de façon approprié, mais aussi d’atteindre un meilleur alignement stratégique avec les métiers et fonctions transverses de l’entreprise.
La cellule PMO porte également une responsabilité de performance du portefeuille face à la complexité des projets à conduire. En effet, les besoins, les contraintes, contingences et dépendances émergent de toutes parts touchant tout autant le patrimoine organisationnel que le portefeuille IT. Pour cela, il lui incombe de produire une représentation de la performance du dispositif, toujours dans la perspective de concrétiser la valeur attendue des projets. Ce travail de formalisation des pratiques à mettre en œuvre et des données à analyser participe à la rationalisation des prises de décision.
Enfin dans certaines circonstances, le dispositif peut inclure la coordination Fonctionnelle/Technique des adhérences et des dépendances qui apparaissent entre les projets.
En complément, face à la multiplication des sources de données et de leur traitement en masse, la cellule PMO dispose d’un référentiel de données stratégiques pour l’entreprise. Les solutions PPM sur le marché répondent toutes à deux enjeux que sont l’amélioration de l’efficience opérationnelle recherchée (allègement du coût d’exploitation des applications et aide à la prise de décision documentée) et l’amélioration de l’efficacité organisationnelle (partage de l’information entre les entités et directions). L’apport initial de ces solutions reste l’industrialisation des activités de gestion de projet essentiel à l’amélioration de l’engagement des projets à mener. Ces solutions ouvertes sont à même de couvrir les exigences de complétude, de qualité, de cohérence et de disponibilité des données quel que soit le modèle organisationnel mis en œuvre.
Un maillon majeur pour gérer incertitude et complexité
Dernière prérogative de la cellule PMO, œuvrer à réduire le niveau d’incertitude attaché aux projets qui compose le portefeuille. Pour cela, son positionnement transverse dans l’organisation en fait le relais idéal du développement d’une culture de la gestion des risques. Toutes les activités évoquées dans le champ de la Gestion Portefeuille Projets visent à appréhender les différentes formes d’incertitude et de complexité auxquelles les programmes et directions peuvent se trouver confrontées. Réduire l’incertitude implique à tous les acteurs de poser et d’accepter de reprendre les hypothèses pour les adapter aux circonstances rencontrées.
De son côté la complexité croissante des enjeux à servir est source de contradictions au sein de l’entreprise. Elle impose à la cellule PMO de rompre les silos organisationnels et de faire preuve d’empathie envers ses parties prenantes pour parvenir à tisser des liens entre acteurs, entités, et disciplines. C’est à elle qu’il revient de multiplier les points de vue à même de relier les idées nécessaires aux décideurs.
Après plusieurs années d’accompagnement sur ces sujets, nous avons forgé des convictions fortes dans ce domaine d’intervention :
Qu’elle rende la Gestion de Portefeuille de Projet, levier de création de valeur au service de la stratégie des entreprises.
Qu’elle soit reconnue comme un relais d’information au sein du réseau d’acteurs des directions métiers et fonctions supports de l’entreprise.
Qu’elle tienne un rôle d’acteur catalyseur des capacités de l’organisation à mener à bien ses projets et activités récurrentes dans un cadre de travail connu de tous.
Qu’elle devienne le référent de l’expérience des projets métiers et technique en ce qui concerne la masse de données issues de sources multiples à traiter pour piloter les projets.
Enfin, qu’elle est un agent responsabilisant les acteurs de l’organisation dans la gestion des risques à même de réduire l’incertitude intrinsèque à toutes activités entrepreneuriales et de transformation.
Son crédo en somme : « Bien faire le travail pour faire du bon travail ».
Les transformations de l’entreprise impliquent rapidement un nombre importants de directions, une multitude de collaborateurs, internes ou externes. Les dépendances entre tous ses acteurs vont croissant et sont changeantes. Comme du temps des épopées Napoléoniennes, lorsque les aides de camp sur le champ de bataille avaient un rôle déterminant dans la victoire, la GPP, est aujourd’hui une activité essentielle pour toute direction moderne.
Si la mise en place de la DSP2 semble prendre l’apparence d’une querelle entre anciens et modernes – les banques contre les fintech – la réalité s’avère plus complexe…
Ouvrir à des tiers l’accès aux données et à l’initiation de paiement pour stimuler la concurrence tout en consolidant la sécurité des paiements. C’est l’ambition de la DSP2 (directive européenne sur les services de paiement) entrée en vigueur en janvier 2018 et dont la mise en œuvre est jalonnée par de grandes étapes définies dans les normes techniques et réglementaires (aussi appelées RTS), notamment sur les interfaces d’accès (API) et l’authentification forte.
Une première échéance est tombée le 14 mars 2019, date à laquelle les banques devaient avoir déployé un portail d’API afin de mettre à disposition la documentation et un bac à sable permettant aux TPP (Tiers Prestataires de Paiement) de les éprouver. Une autre suivra le 14 septembre 2019 avec l’ouverture officielle des APIs de production. Dans le contexte de tension entre fournisseurs d’API (teneurs de comptes) et consommateurs (nouveaux acteurs), cette échéance a relancé le débat sur la capacité des banques à respecter le calendrier…
La DSP2, une transformation lourde à marche forcée
Dans ces débats, un même coupable est souvent pointé du doigt : les banques. Qui complexifieraient la sécurité ou encore publieraient des API bien trop partielles pour être exploitables. La réalité est un peu plus… complexe. Et les enjeux ne peuvent se résumer à une querelle entre les anciens (les banques installées) et les modernes (les acteurs de la fintech). Rappelons que la DSP2 est un sujet plutôt nouveau, qui concerne « juste » la sécurité des paiements et la protection des données du client. Et comme pour toute transformation lourde, les acteurs impliqués découvrent en marchant les clarifications qui doivent encore être apportées.
Oui, les différents textes, de la directive aux RTS, ont bien posé des fondamentaux. Trois catégories ont été définies pour les fameux TPP (Tiers Prestataires de Paiement), des agrégateurs de comptes aux initiateurs de paiement en passant par les émetteurs de moyens de paiement.
Des obligations pour les tpp et les banques
Pour entrer dans le jeu, ces TPP doivent remplir des conditions : obtenir un agrément auprès d’une autorité nationale, un certificat (dit « eIDAS ») auprès d’une autre autorité ou encore renoncer (quand des API sont disponibles) au webscraping. Pour rappel, cette technique consiste à collecter les données à partir des sites de banque en ligne, en utilisant les identifiants et mots de passe des clients. Les banques pour leur part doivent respecter le calendrier de déploiement et mettre à disposition les API de production pour les trois catégories de TPP le 14 septembre prochain après avoir mis en ligne, en mars dernier, bac à sable (sandbox) et documentation.
Si les règles du jeu et le calendrier sont là, que manque-t-il ? Nous pourrions résumer en disant « des délais plus cohérents et des modalités plus précises ». À défaut, pour les TPP comme pour les banques, la route manque de lisibilité.
Quelques exemples pour comprendre :
Globalement, le planning de l’autorité de régulation (ACPR, Autorité de Contrôle Prudentiel et de Résolution) a été publié fin décembre pour des actions à lancer mi-janvier et des mises en production mi-avril. Un planning plus que tendu.
Sans surprise, dans ces délais les progiciels bancaires ne sont pas prêts pour intégrer les spécificités de la DSP2.
Selon les prestataires impliqués, les certificats eIDAS ne pourraient entrer en production qu’au 3e trimestre. Compliqué dans ce contexte d’être prêt pour le 14 septembre.
Pas simple non plus pour les TPP de suivre le rythme pour revoir leur mode d’accès aux données (passer du webscraping aux API) ou encore obtenir les certificats adéquats.
Le Fallback et son exemption cristallisent aussi les critiques. Le « Fallback » désigne un mécanisme de secours en cas d’indisponibilité ou de mauvais fonctionnement des API. Les banques peuvent demander une dérogation à ce sujet. Mais le planning n’a pas été aligné en cohérence avec l’échéance 14 mars 2019 et le dossier à fournir demeure complexe. Le mécanisme de Fallback lui-même souffre d’imprécisions.
Comment recueillir le consentement des clients ? Selon quel parcours ? En imposant une redirection vers l’établissement teneur de compte ? Évidemment, ce n’est pas du goût des TPP. Pour l’heure, même à l’échelle française, aucun consensus n’émerge vraiment sur le sujet.
Le renouvellement de l’authentification ? Les RTS prévoient actuellement d’obliger les utilisateurs à se réauthentifier tous les 90 jours auprès de leurs banques. Les TPP estiment le mécanisme incompatible avec une expérience utilisateur digne de ce nom.
Gageons justement que cette expérience client, un peu perdue de vue au fil des textes réglementaires, devrait s’imposer comme l’alpha et l’oméga des discussions à venir. Et comme un objectif commun à l’ensemble des acteurs. Parce que chacun a autant à perdre qu’à gagner. Parce que, aussi, cette expérience dépend de business modèles à caler de part et d’autre.
Une certitude : la DSP2, sujet restructurant à l’échelle bancaire, appelle des investissements lourds dans des délais serrés. Et seule la coopération permettra à chacun d’y trouver des bénéfices – et pas seulement financiers –, en apportant au client final, les nouveaux services fluidifiant le paiement dans son parcours utilisateur.
Dans les métiers du digital (et presque partout ailleurs), nous sommes tous un peu accros à nos emails.
65% des salariés consultent leurs emails toutes les 5 minutes.
Les salariés consacrent en moyenne 28% de leur temps à traiter leurs emails … et 19% supplémentaires à chercher et rassembler l’information pour traiter leurs emails. Cela représente 28h par semaine pour les travailleurs de la connaissance.
L’impact sur l’économie américaine est estimé à 588 milliards de $ par an (source : Trésor Américain), et à 1 milliard de $ pour Intel.
Cette addiction aux emails est nourrie par :
Le principe de réciprocité qui veut que nous ayons tendance à répondre à quelqu’un qui nous sollicite,
L’attrait de l’immédiateté et l’adrénaline qui est libérée lorsque nous recevons un message (avec des sentiments de tension, d’exaltation, de nouveauté et de stimulation),
La valorisation sociale afférente : si je reçois un message c’est que je suis important,
Et enfin la décharge cognitive de l’émetteur vers le récepteur (le « bonheur » de renvoyer la patate chaude).
Les toilettes sont la cause n°1 de perte de smartphone.
Apple
Quelques conseils pour reprendre le contrôle et maîtriser cette addiction ?
Supprimer les « pushs » et autres notifications sonores et visuelles, pour ne pas être interrompu et décider du moment où nous aurons envie de voir ces informations,
Le matin, ne pas relever ses emails avant 10h30 et se mettre à un travail de fond dans les 30 secondes qui suivent l’arrivée au bureau, car cela permet d’avoir un niveau de concentration plus élevé sur la journée entière. Pas avant 10h30 car il est important de traiter en premier NOS priorités plutôt que celles des autres
Se tenir à trois créneaux maximum de traitement d’emails en dehors desquels la messagerie restera fermée
Mettre son smartphone en mode avion pendant les réunions et éviter de relever ses emails quand on ne peut pas agir (pendant un hackathon, WE en rafting, pause restaurant…)
Se préserver des temps longs (2x2h30 par semaine) et travailler de manière séquentielle et mono-tâche, ce qui signifie avoir UN SEUL logiciel ouvert
Aller à l’essentiel : aurions-nous cherché cette information si on ne nous l’avait pas transmise ? Non ? Alors supprimez cet email !
Pratiquer la minute consciente : visualiser le visage du ou des destinataires avant d’envoyer un email. Cela permet de challenger si le contenu et les destinataires sont les bons. A noter que ce conseil est valable aussi sur les réseaux sociaux
Éteindre tout avant le dîner et séparer matériellement le pro et le perso : téléphone, PC, agenda, liste de tâches
Se déconnecter complètement à intervalle régulier pour se « rafraichir » le cerveau (24 heures par semaine et 2 semaines par an).
Alors à la veille des vacances, pourquoi ne pas se fixer un challenge « 0 connexion » pendant 2 semaines ?
Et pour la rentrée, mettre en pratique quelques-uns de ces conseils. C’est à vous de décider vos moyens d’interactions avec vos appareils, pas l’inverse.