performance-plutôt-que-pratique-agile

Visez la performance plutôt que l’adoption des pratiques agiles

Visez la performance plutôt que l'adoption des pratiques agiles

Séverin Legras

Directeur Agilité, Projets & Produits

95% des entreprises indiquent compter dans leur rang au moins une équipe agile. En d’autres termes, aujourd’hui tout le monde veut être agile. C’est devenu une norme, à la fois pour l’entreprise qui doit pouvoir réagir vite et avec la bonne réponse aux conditions changeantes du marché, mais aussi pour les individus qui doivent réussir à mieux collaborer et travailler collectivement à un but commun. Si bien qu’il est même devenu compliqué d’être recruté ou de recruter sans afficher un plan de transformation agile pour l’un et une certification pour l’autre. 

Pour autant, dans la plupart des situations que je rencontre, les entreprises se concentrent beaucoup plus sur le “FAIRE” agile que sur le “ÊTRE” agile, beaucoup plus sur les processus et les outils que sur l’essence même de l’agilité qui se situe dans l’état d’esprit et dans les interactions.

Nous avons parfois tendance à oublier que l’agilité est un état d’esprit et un moyen, ou plus globalement un ensemble de moyens, de pratiques qui servent un objectif. Un moyen de s’en rendre compte est d’observer les indicateurs des entreprises concernant l’agilité. Ce qui est mesuré et suivi par les entreprises est l’utilisation et l’adoption de pratiques plutôt que la performance qu’elles sont supposées apporter.

Voyez plutôt :

L’agilité : au service de la performance avant tout

Mais au fait, si je suis agile, quel but cela sert-il ?

Ce but qui est si souvent inexistant devrait pourtant être la préoccupation première de l’entreprise ou de l’équipe.

Essayons d’utiliser les 3 cercles de Simon Sinek pour détailler dans quel but devenir agile :

L’agilité n’est pas une fin en soi. Être agile, intrinsèquement, ne suffit pas. Viser une meilleure performance est nécessaire. En fonction du contexte, la performance se décline sur des axes différents comme par exemple : plus de ventes, plus de notoriété, plus de nouvelles fonctionnalités, dépasser un concurrent, moins de turnover, mais aussi plus de partage de connaissances, plus d’apprentissages, plus de nouvelles expérimentations…

Je vais être clair ici, pour moi la performance, qu’elle soit individuelle ou collective, n’est pas un gros mot. C’est même ce qui doit nous animer au quotidien. Être plus performant dans son métier ou dans son rôle, c’est tout simplement être meilleur, apprendre sans cesse, progresser. C’est une nécessité pour moi.

Mesurez des KPI sur le but, pas sur le moyen

Mes clients me demandent souvent comment nous allons mesurer l’impact de leur transformation agile, afin de prouver que cette transformation est utile. J’aime qu’on me pose cette question car, même si il n’est pas simple d’y répondre, elle dénote une bonne compréhension des enjeux autour de la transformation.

Comme je le disais, mesurer l’impact d’une transformation n’est pas simple à réaliser. Car si je peux mesurer aisément si une équipe respecte ses rituels, met à jour son Jira, délivre ce qu’elle a prévu (via le Burn-Down Chart par exemple), ce faisant je mesure le WHAT : le moyen. Je ne mesure pas l’impact. Je ne répond pas à la question.

Donc je travaille plutôt à mettre en place des indicateurs de performance qui permettent de mesurer un résultat sur le WHY : augmentation du panier moyen, du taux de repeat, du nombre d’utilisateurs actifs, du taux de disponibilité, etc… Evidemment, il n’y a pas de lien direct (ou 1 pour 1) entre le moyen (l’agilité) et le résultat (la performance), car d’autres facteurs viennent impacter le résultat (l’évolution du marché, le marketing…). Mais je préfère expliquer à mon client que la transformation agile permet de soutenir le développement de ses ventes que de lui dire que 93% de ses équipes font un daily meeting.

Comment mesurer le ROI d’une initiative agile ?

I WANT MY ROI !

Si vous êtes dans une démarche « ROIste » pur, il sera peut-être compliqué pour vous de voir l’intérêt de l’agilité. 

Car l’agilité intervient dans un système global et il n’est pas possible de découper le système de sorte qu’on puisse mesurer l’impact d’un seul moyen mis en œuvre. C’est d’ailleurs un des principes fondamentaux de la pensée systémique : un système complexe ne peut pas être découpé en petits systèmes plus simples. C’est un tout.

Dès lors, le retour sur investissement se mesure dans la capacité à améliorer l’axe de performance principal de l’entreprise ou de l’équipe. S’il était difficile au départ de faire grossir sa base utilisateur, la transformation mise en œuvre aidera probablement à délivrer plus vite des fonctionnalités à plus forte valeur ajoutée. Et donc à sortir en premier LA nouvelle fonctionnalité qui va faire le buzz. C’est à ce moment que l’investissement sera rentable.

Visez la performance plutôt que l’adoption des pratiques agiles

Je suis personnellement convaincu que l’agilité est un bon moyen pour améliorer la performance d’une entreprise ou d’une équipe. Et j’expérimente mes convictions depuis une dizaine d’années maintenant. Les transformations qui réussissent sont celles qui se concentrent sur la mesure de la performance, et non pas sur le nombre de cérémonies effectuées dans le mois. Et puis, il existe de nombreux autres moyens d’améliorer sa performance, des moyens qui se découvrent par l’expérimentation et l’apprentissage.

Faites en sorte que votre organisation devienne une organisation apprenante et vous obtiendrez probablement de meilleurs résultats.



¹ VersionOne Annual State of Agile™ Survey : https://www.versionone.com/about/press-releases/versionone-opens-10th-annual-state-of-agile-survey/

²  Start with why, Simon Sinek (https://www.youtube.com/watch?v=qp0HIF3SfI4)

Les autres articles qui peuvent vous intéresser

api-graphql-architecture-SI-entreprise

API GraphQL : On casse (encore !) tout, on recommence ?

API GraphQL : On casse (encore !) tout, on recommence ?

13 novembre 2019

– 4 min de lecture

Erik Zanga

Manager Architecture

Le phénomène d’API GraphQL est en progression, aujourd’hui sommes-nous prêts à abandonner à nouveau tout ce qui a été fait sur les API ces 15 dernières années et passer à un nouveau concept d’intégration ? Le GraphQL est-il une option viable pour remplacer l’API telle que nous l’avons définie jusqu’à aujourd’hui ?

Qu’est ce que le graphql ?

Le GraphQL se résume par la mise à disposition d’une interface de requêtage qui s’appuie sur les mêmes technologies d’intégration utilisées par les API REST. Nous allons toujours passer par le protocole HTTP et par un payload de retour, préférablement au format JSON, mais la différence pour le client repose sur le contrat d’interface.

Si nous essayons de vulgariser, les réponses apportées par le REST et le GraphQL à la même question sont fondamentalement différentes.

Analysons la question suivante : qui es-tu ? 

Voici comment elle serait abordée par Rest et par le GraphQL

Le REST :

Le GraphQL

On a affaire ici à un changement radical dans la manière d’aborder les requêtes.

Source https://spotify-api-graphql-console.herokuapp.com/

Ce qui reste central : la data

La DATA reste l’élément central de la réflexion autour du GraphQL. Sur ce point, nous pouvons voir l’héritage venant des paradigmes du REST, avec une focalisation sur la ressource. Alors que les pratiques précédentes, comme le SOAP, étaient plus axées “action”, le GraphQL est très axé sur la DATA, l’objectif primaire étant la manipulation de la donnée et pas l’exécution d’une opération.

Le concept de DATA est cependant présenté différemment. Elle n’est pas contrainte par une structure strictement définie à l’avance mais il est désormais possible de la naviguer par l’API GraphQL, ce qui change complètement le concept du contrat d’interface.

Il n’y a donc plus de contrat d’interface ? 

Nous pourrions en déduire que le contrat d’interface, très cher aux démarches SOAP et REST, n’est plus d’actualité pour le GraphQL…

Notre vision se résume en une simple phrase : ”Le contrat d’interface change de forme. Il n’est plus centré sur la structure de l’information retournée par l’API mais s’intéresse au modèle de données lui-même”

Le contrat d’interface s’appuie sur le modèle de données qui devient encore plus crucial puisqu’il est maintenant directement exposé / connu par les clients de l’API. Pour rappel, nous avons défini le GraphQL comme un langage de requêtage qui s’appuie sur la structure de la donnée définie dans notre schéma de modélisation. Bien qu’une couche d’abstraction ne soit pas totalement à exclure, le modèle de données, défini dans nos bases de données et exposé aux clients (par introspection ou connaissance directe), devient le point de départ de toute requête.

Voici un exemple de lecture issu de l’API GraphQL Spotify

Des avantages…

Cela saute aux yeux, la flexibilité est le grand avantage apporté par le GraphQL. Nous ne sommes plus contraints par le retour de données défini par le fournisseur de l’API mais uniquement par la donnée qui nous est mise à disposition. Cela permet de réduire le phénomène de l’underfetching (obligation d’utiliser plusieurs appels car un seul ne permet pas de remonter la totalité des informations nécessaires) et de l’overfetching (récupération de plus de données par rapport au besoin réel), vrais casse-têtes lors de la conception des APIs. 

L’autre vrai avantage est la rapidité de mise en œuvre. Sans vouloir rentrer dans la réalisation, la mise à disposition d’une API classique a toujours comporté des longues périodes de réflexion sur le périmètre, le découpage, la profondeur des données retournées. Ces phases de réflexion qui, sans un besoin clair en face, avaient tendance à se prolonger et à réduire le Time-To-Market des APIs. GraphQL permet de pallier ces problèmes :

…mais aussi des contraintes

La liberté donnée au client de l’API est certainement un avantage pour les deux parties mais apporte également des contraintes de sécurisation et de gestion de la charge serveur.

La charge

Une API, REST ou SOAP, est globalement maîtrisée. Elle a un périmètre bien défini et donc la seule question à se poser porte sur la volumétrie et/ou la fréquence d’appel. Le GraphQL, par le fait que les requêtes sont variables, réduit la prévisibilité de la charge associée :

La sécurité

Dans l’ancienne conception nous pouvions avoir des niveaux de sécurité induits par le périmètre restreint de l’API. 

Le GraphQL, de par la liberté d’exploration des données, oblige à une réflexion plus profonde sur la question des habilitations et de l’accès aux informations. Cette sécurisation doit être garantie par une sorte de “douane” qui se définie comme la couche par laquelle nous devons transiter pour accéder aux données, et qui gère directement les droits d’accès par utilisateur.

Cette pratique n’est pas nouvelle, elle devrait accompagner toute démarche API, toutes technologies confondues. La couche de sécurisation et d’habilitations devrait toujours être indépendante de l’exposition de l’API. Parfois, un défaut de conception non identifié de cette couche de sécurité était pallié, tant bien que mal, par la limitation de périmètre imposé par l’API or cette limitation n’existe plus avec le GraphQL.

Conclusion

GraphQL représente la tentative la plus intéressante de “flexibiliser” la gestion des APIs et apporte une nouvelle dynamique à celle-ci, tout en respectant les contraintes induites par ce mode d’intégration. 

Si l’objectif n’est pas forcément de “tout casser”, pour recommencer tout en GraphQL, cette approche devient une alternative concrète aux démarches API dites “classiques”.Exemple en est la mise en application de cette méthode d’intégration sur une plateforme de paiement, Braintree, filiale de Paypal.

Les autres articles qui peuvent vous intéresser

architecture serverless

Pour quels usages choisir une architecture Serverless ?

Pour quels usages choisir une architecture Serverless ?

Une architecture Serverless, c’est quoi ?

7 novembre 2019

– 3 min de lecture

Sébastien Grenier-Fontaine

Le marché du Serverless ou FaaS a bondi de manière importante en 2018, porté entre autres par la popularité grandissante de AWS Lambda, Azure Functions ou de Google Cloud Functions. Mais en quoi consiste une architecture Serverless ? Cela consiste à exécuter des fonctions sur le cloud sans se soucier de la conception de l’architecture technique et du provisionnement de serveurs. La facturation de ce type de service étant basée sur le temps que le traitement aura mis pour s’exécuter. Il y a donc toujours besoin de serveurs mais la conception et la gestion de ceux-ci sera réalisée à 100% par le fournisseur Cloud.

La différence avec une architecture basée sur des containers ?

La containérisation reprend les concepts de la virtualisation mais ajoute de la souplesse.


Un container est un sous-système pré-configuré par le biais d’une image. Celle-ci définit ce que le conteneur embarque à sa création (serveur d’application, application, etc.), normalement le minimum indispensable pour votre application (fonction ou micro-service).

Le Serverless est une architecture qui repose sur un concept simple : l’abstraction complète des ressources machine. 

Il vous suffira par exemple d’avoir un compte AWS, cliquer “Create function” depuis la console, configurer quelques paramètres techniques comme la taille de la mémoire allouée et le temps de timeout maximum toléré, copier votre code et voilà !

Avantages et inconvénients

Le principal avantage de ce type d’architecture est le coût. Vous ne paierez que ce vous utiliserez basé sur des métriques à la seconde. Plus besoin de louer des ressources comme des machines virtuelles que vous n’utilisiez jamais à 100% ou de payer un nombre d’utilisateurs qui n’étaient pas connectés en permanence dans l’outil. Par exemple pour une fonction AWS Lambda à laquelle vous aurez attribué 128 Mo de mémoire et que vous prévoyez d’exécuter 30 millions de fois en un mois (pour une durée de 200 ms par exécution), vos frais ne seront que 10€/mois environ ! Si cela correspond à un pic saisonnier atteint en période de solde et que la moyenne d’exécution correspondra à la moitié de cette charge vous ne paierez que ce que vous aurez consommé. À titre de comparaison, un serveur virtuel de 1 coeur et 2 Go de RAM facturé au mois sera facturé 12€/mois, peu importe la charge. Et si un serveur de ce type ne suffisait pas, il faudra prévoir le coût d’une plus grosse instance ou d’une deuxième. Il est donc évident que le FaaS permet d’optimiser vos coûts par rapport à du IaaS ou du PaaS.

Le second avantage est qu’il n’y a pas besoin de gérer et maintenir l’infrastructure. Vous n’arrivez pas sur vos projets Agiles à anticiper vos besoins d’infrastructure ? Vous pensez qu’attendre 1 jour pour avoir une machine virtuelle c’est encore trop long ? Vous trouvez bien le principe des microservices mais vous trouvez compliqué de gérer une architecture technique distribuée ? Une architecture Serverless ou FaaS vous simplifiera la vie de ce point de vue.

Il y a cependant des désavantages. Les AWS Lambda et Azure Functions sont des technologies propriétaires qui vous rendront complètement dépendant de votre fournisseur. Si un jour vous désirez migrer sur une autre plateforme, il vous faudra revoir le code de votre application notamment si celui-ci fait appel à des services ou infrastructure propre à ce fournisseur (lire un fichier dans un container S3 par exemple ne sera pas de la même façon que de le lire sur un Azure Blob). L’autre point important aussi à surveiller est que ces services sont bridés en termes de ressources et ne conviendront donc pas pour des applications nécessitant des performances élevées.

Pour quels cas d’usage ?

Une architecture Serverless peut convenir lorsque les critères suivants sont réunis :

Cela peut être par exemple :

En résumé, il s’agit d’une nouvelle façon de concevoir votre architecture solution, pouvant vous permettre de réaliser des économies importantes mais qui vous rendra plus dépendant du fournisseur Cloud que vous aurez retenu.

Les autres articles qui peuvent vous intéresser

Quoi de neuf dans la Release SEPA 2019 ?

Quoi de neuf dans la Release SEPA 2019 ?

23 octobre 2019

– 4 min de lecture

Romuald Bellier

Consultant Senior Financial to Financial

Chaque année, elle arrive au mois de novembre. Le contenu en est connu depuis presque un an, mais c’est souvent dans l’urgence que des établissements financiers s’en préoccupent pour respecter l’échéance.

Alors à quelques semaines du terme du 17 novembre 2019, savez-vous ce qui vous attend dans cette nouvelle Release ?

Bonne nouvelle ! Pas d’évolution sur le SDD !

En revanche, si de 2014 à 2017, le virement européen a connu peu d’évolution, 2019 prolonge le mouvement initialisé en 2018, avec l’apparition d’une nouvelle famille de R?messages (ou “messages connexes”) : les  “Inquiries”, avec ses mises à jour associées.

La Release 2019 complète également les “Requests” et leur ajoute les “Status Updates” associés.

Retour vers le Futur

Petit rappel de la construction des messages liés au Virement SCT : l’origine remonte à 2008, avec un complément en 2010 :


Tableau 1 – Les messages historiques du SEPA Credit Transfer

Les Requests

Les Requests s’enrichissent dans cette release 2019 : ces “requêtes entre banques” sont des messages destinés à interroger le confrère sur le sort d’une demande antérieure.

Par exemple, après un Recall (message historique de rappel de fonds), en l’absence de réponse, la banque émettrice s’enquiert de sa demande via un Request for Recall (message apparu en 2018). 

Cette famille, apparue en novembre 2018, annonçait le prélude à une multiplication des messages qui se concrétise dans la release 2019.

En Novembre 2019, il sera possible de faire des Request for Status Update qui permettront de connaître la destinée des messages précédemment envoyés.

Tableau 2 – Les Requests et les Status Updates

Les Requests for Status Update accompagnent les Requests et Inquiries : ils ont été définis pour rappeler au destinataire qu’une requête (Request), qu’une enquête (Inquiry) ou qu’un rappel de fonds (Recall) a été émis et reste à ce jour sans réponse. 

En principe, une banque se doit de faire un retour sur tous les R-messages imposant une réponse. Ces messages permettront d’identifier plus facilement les établissements qui, par habitude, ne répondent pas aux messages.

Les Inquiries

La famille des Inquiries est la nouveauté 2019. Les Inquiries sont des messages d’investigation.

Par exemple, l’émetteur demande d’enquêter sur l’absence de réception d’un virement ou sur une demande de modification de date de valeur. 

Ces messages peuvent améliorer certains processus internes dans les banques, comme dans le traitement des vérifications et des contestations ; plus globalement, l’objectif européen est d’encadrer des pratiques existantes de gré à gré entre banques.

Ces nouveaux messages bénéficieront surtout aux banques ne disposant pas des relations interbancaires suffisantes pour gérer par téléphone auprès d’une banque estonienne, le cas d’un virement non reçu. 

Ils affranchissent en effet les Back-Offices bancaires des barrières linguistiques et des décalages horaires.

Tableau 3 – Nouveauté 2019 – les Inquiries

Les Inquiries peuvent faire l’objet d’une Request for Status Update pour rappeler au confrère qu’une demande est en cours (cf. §2).

Une Release souvent jugée à faible Valeur Ajoutée par les Banques Françaises…

Le socle européen de base du virement SEPA s’étend à présent à 19 messages (sans compter les ajouts nationaux, comme les ACVS et les CAI pour la France).

Fallait-il s’imposer ces nouvelles contraintes, se demanderont sans doute les banques, pour traiter des cas d’exception ?

La Release s’impose à tous !

Outre la force de la réglementation, la Release s’impose pour suivre les prochaines évolutions réglementaires et fonctionnelles. 

D’un côté, la Release 2019 démontre bien la disparité entre les pratiques nationales : elle est bien accueillie en Allemagne et plus froidement en France. Mais n’est-ce pas précisément la volonté et le rôle du régulateur d’uniformiser les pratiques à l’échelle de l’Europe et faire émerger des acteurs pan-européens ? 

D’un autre côté, les banques voient les coûts de mise en oeuvre de la Release. Alors qu’elles investissent pour se transformer au numérique et à l’instantanéité, ces changements sont le plus souvent subis et les banques peinent à y trouver un retour sur investissement.

La nouvelle réglementation, un paradoxe avec le SCT Inst…

Le rapprochement entre la Release 2019 et le passage au numérique instantané souligne un paradoxe.

En effet, que penser des nouveaux messages de correction des dates de valeur alors que l’autre virement européen, le SCT Inst (alias Instant Payment) fait disparaître la notion-même de date de valeur et de règlement ? Si le SCT Inst se présente de plus en plus généralement comme le remplaçant (“the new standard”) du SCT classique dans plusieurs pays européens, fallait-il créer ces nouveaux messages ?

En synthèse, l’adoption de la Release SEPA 2019 au sein des banques se fait sans enthousiasme, avec un contenu chargé (l’un des plus lourd qu’ait connu le SCT) et sans retour sur investissement clairement identifié. 

Néanmoins, elle reste obligatoire pour toutes les banques européennes, même si certaines essaieront de conserver un traitement manuel sur certains processus.

Et puisqu’il faudra bien y passer, autant bien comprendre les mécanismes européens et les attendus de cette Release. C’était l’objet de cet article, que nous pouvons poursuivre en bilatéral sur demande… parallèlement aux actions à engager pour accélérer le déploiement du SCT Inst et s’affranchir du SCT Classique ! 

Data-ia-augmentez-la-valeur-de-vos-donnees

Mesurez et Augmentez la Valeur de vos Données

Mesurez et Augmentez la Valeur de vos Données

4 octobre 2019

– 1 min de lecture

Albert Bendayan

Directeur Architecture, Data & Transformation

Vous souhaitez développer les usages de vos données ?

Vous souhaitez augmenter le potentiel de vos données ?

Nous avons synthétisé pour vous les 5 étapes pour mesurer et augmenter la valeur de vos données !

Si cette infographie vous a intéressé, vous pouvez approfondir le sujet en téléchargeant notre livre blanc : Augmentez la valeur de vos données.

parlons de votre projet !








    Les informations recueillies sur ce formulaire sont enregistrées pour pouvoir vous identifier et vous répondre. Plus d’informations concernant notre gestion des données sur notre page mention d’information.

    différences-approches-PPM-vis-à-vis-du-risque

    En quoi se différencient les approches PPM vis-à-vis du risque

    En quoi se différencient les approches PPM vis-à-vis du risque

    24 septembre 2019

    – 6 min de lecture

    Karl Berard

    Consultant Pilotage Projets & Produits

    En cette période de crise épidémiologique et de confinement, les approches PPM apportent chacune leurs qualités pour affronter les risques. Mais comment se distinguent-elles ?

    Risque, incertitude, responsabilité : des visions distinctes selon deux approches

    Les circonstances de la crise sanitaire actuelle, sont une occasion pour nous, professionnels des projets, d’être interpellés sur la dimension gestion des risques qui nous est essentielle. Comment est-elle appréhendée selon les approches Traditionnelle et Agile de gestion de produits, de projets et de portefeuilles ? En quoi ces approches sont différentes l’une de l’autre ?

    Que l’on fasse cette observation au niveau opérationnel des projets ou au niveau de la supervision du portefeuille des projets, on constate que leurs notions « d’incertitude », de « risque », et de « responsabilité » les déterminent et les distinguent à la fois.

    Que l’on parle d’une approche cycle en V, Cascade ou Stage/Gate applicable aux projets elles sont rattachées à une vision traditionnelle de la gestion qui se caractérise par une forte exigence d’anticipation des événements par la planification et le contrôle. A contrario, l’approche Agile est par définition une réponse à l’incertitude grandissante à laquelle font face les projets et portefeuilles de projets. Pour y parvenir, parmi les principes inscrits dans le manifeste Agile, on retrouve l’adaptation par rapport au plan et l’autonomie de décision. Cette posture d’adaptation aux circonstances implique celle de l’aptitude à agir en réaction aux événements et changements qui surviennent dans le déroulement des projets et des produits. Mais, face à la crise sanitaire du Covid-19 et à ses implications à la fois économiques, politiques et sociales que proposeraient ces approches en termes de traitement des risques ? La probabilité de la mise à l’arrêt de la société civile est allée grandissante en moins de deux mois, jusqu’à devenir une réalité aujourd’hui.

    Un modèle du risque proactif ou réactif pour y remédier

    Si nous sommes tous familiers avec la définition et les modalités classiques de gestion des risques, ce sont les divergences de considération de ce processus de gestion selon ces deux approches qu’il est intéressant d’analyser.

    Classiquement, avec l’approche traditionnelle, l’identification, la qualification et la réduction des risques participent de la planification et du pilotage des projets et portefeuilles. Il est essentiel de s’appuyer sur une base de risques déjà identifiée et d’une taxonomie des risques la plus ouverte possible tout en étant spécifique à l’activité de l’entreprise. L’expérience vécue par la Chine et observée pendant les premières semaines de l’année a pu servir de référence à de nombreux chefs de projets pour deux raisons. Elle a relevé progressivement la probabilité de l’épidémie à son niveau maximum pour devenir la réalité que l’on connait. Mais, elle a aussi servi de modèle pour figurer et projeter les impacts de son expansion à un point que personne n’avait encore imaginé. La maturité de chacun face aux risques a donc permis d’atténuer les effets de la criticité de ceux identifiés à mesure que l’épidémie prenait place. Les plans de charge des projets et des portefeuilles ont été révisés et les calendriers aussi.

    Pour ce qui est de l’approche Agile, la notion de risque est plus difficile à isoler, puisque son esprit pousse à la réactivité face aux événements. Sans intention d’anticipation dans les projets et les portefeuilles et la continuité de services des équipes produits, le parti pris est celui de traiter des problèmes par l’adaptation des méthodes et des livrables au fil des itérations sans que cela n’en dégrade la qualité, qui constitue son principal levier de décision. En l’absence de culture du risque, les acteurs des équipes Agile s’en remettent plus à l’intuition du groupe qu’à la raison des experts. Qu’en est-il lorsque un à un les membres de l’équipe deviennent indisponibles pour raison médicale ou privée ? Enfin les pratiques rigoureuses de cette approche se retrouvent mises à mal par la perte de l’unité de lieu des acteurs imposée par le confinement et le recours au télétravail. Le leitmotiv du « time to market » pour satisfaire le client est momentanément inaccessible. 

    La gestion du risque : extension de la responsabilité

    La gestion des risques se définit par son exigence d’anticipation des événements pouvant faire obstacle aux objectifs visés. Pour ce faire, il faut convenir d‘hypothèses de réduction de son occurrence et de ses effets qui peuvent prendre la forme de contingences retranscrites dans la planification. Tout le travail des responsables tient à identifier, qualifier et envisager ces mesures de réduction en adéquation avec les moyens à leur disposition. 

    Dans le cas de l’approche classique, la responsabilité de la culture du risque est portée par la ligne managériale, puisque par délégation, il est du ressort du chef de projet de concevoir et d’animer la trajectoire du projet qui vise le résultat dans les termes annoncés au client. Cette forme de déclinaison de la prospective à l’exercice de la planification s’appuie sur la production de scénarios liés à des opportunités et à des risques auxquels des hypothèses de « survenue » sont associées. Lorsque cet exercice est entretenu tout au long des projets, il implique à son tour une révision régulière pour ajuster les hypothèses en privilégiant le levier de pilotage dominant : le temps, le budget, la valeur client. Reste qu’une telle démarche est très consommatrice de temps et se retrouve, dans les faits, incompatible avec l’accumulation des fonctions des chefs de projet. Néanmoins, dans les circonstances actuelles, la coordination des différentes activités et des prises de décisions, de plus en plus souvent réalisée à distance, ne souffre pas de la mise en place du télétravail comme solution de continuité des activités même si les contingences déterminées à l’engagement des travaux ne seront pas suffisantes.

    A l’inverse, dans le cas de l’approche agile, la responsabilité est collectivisée au niveau de l’équipe. Les membres de l’équipe mis en situation d’autonomie basée sur la confiance, se retrouvent porteur chacun d’une part de responsabilité. Cette dernière intègre les considérations de l’incertitude, des évolutions de l’environnement interne et dans une moindre mesure externe. Cependant pour exercer cette responsabilité, c’est par leurs interactions en face à face que leur crédo « on fait avec et la vie continue » leur permet d’assumer et de résoudre les problèmes rencontrés. Dans les circonstances actuelles, le mode projet agile résiste bien de par sa capacité à gérer le chaos, au moins tant qu’il n’est pas rendu inopérant par trop de bouleversements.

    Les 2 approches résistent à la crise

    En fin de compte, aucun des deux modèles n’est pris en défaut. Si l’un privilégie l’anticipation des opportunités et obstacles à la planification en se donnant les moyens de les réduire, et si l’autre est focalisé sur la capacité à délivrer quelques soient les circonstances sans se préoccuper de prévoir des contingences. Ces deux modèles sont à même de faire face à des événements imprévus. 

    De son côté le Bureau des Projets compose son propre modèle de gestion de produits, de projets et de portefeuille. Historiquement géré en approche traditionnelle, il adopte quelques éléments des pratiques agiles « façon puzzle » (comme l’effort de développer l’autonomie ou la capacité à innover). Sans reprendre suffisamment les principes des approches dont il s’inspire, pour causes de manque de moyens, de temps, de conviction ou d’appui de la Direction, le bureau projet se contente de mettre en place quelques rôles, artefacts et cérémonies. Mais dans ces conditions sa transformation échoue à interpréter le changement de paradigme qu’elle recherche. Parce que, l’interprétation du traitement des risques dans toutes ses dimensions n’en deviendra ni cohérente ni complète. A qui la faute ?

    Globalement, on peut donc être rassuré. Ces deux approches de gestion de projets et portefeuille projets peuvent faire face chacune à leur manière à la crise actuelle, comme les Etats le démontrent à leur niveau. La Chine a pris le parti de la planification de mesures jusqu’à effet complet. Tandis qu’en Europe et notamment en France, la résolution est préférée en réactivité aux constats avec des consignes révisées au fil des itérations de plus en plus rapide à mesure que les faits s’accélèrent. 

    Dans ces conditions, quel que soit l’approche choisie, il faut convenir qu’il est essentiel de développer collectivement et individuellement une culture du risque aussi légitime que le sont celles de la qualité ou de la valeur client. Elle est indispensable face à l’incertitude grandissante de nos sociétés qui perd jours après jours son insouciance.

    Les autres articles qui peuvent vous intéresser