Data scientist, data analyst, data cruncher,… ces dernières années, le nombre d’intitulés de postes relatifs au traitement, et plus particulièrement à l’analyse, de données a explosé.
Data scientist, data analyst, data cruncher,… ces dernières années, le nombre d’intitulés de postes relatifs au traitement, et plus particulièrement à l’analyse, de données a explosé. On constate également la popularité croissante des compétences inhérentes à ces postes via divers tops ‘in-demand skills’, publiés annuellement sur LinkedIn. Ces postes ont tous une compétence requise en commun, l’analyse de données, aujourd’hui jugée primordiale dans le monde professionnel par le cabinet Gartner, jusqu’à l’élever au rang de norme.
Mais ne sommes-nous pas déjà entrés dans une nouvelle époque, durant laquelle les composantes basiques de ces compétences vont peu à peu migrer dans le ‘savoir commun’ et devenir des pré-requis pour un scope plus large de métiers ? Ne sommes-nous pas entrés dans l’ère de la ‘data democratization’ ?
Pourquoi une explosion de de la demande relative à ces compétences ?
A l’heure où plus de la moitié de l’Humanité a quotidiennement accès à Internet et où 90% des données disponibles ont été créées dans les deux dernières années, toute entreprise collecte et stocke une quantité importante de ces données. De formats et types variés, ces dernières sont également transversalement issues de la totalité des métiers de l’organisation. Les capacités de traitement (stockage et puissance de calcul, ‘asservis’ à la loi de Moore depuis des décennies) ont elles aussi explosé, passant d’un statut de facteur limitant à celui de non-sujet.
Traditionnellement, ces données étaient propriétés de la DSI. Certes, les décisions des BU métiers et du top management s’appuyaient déjà sur ces données. On ne pouvait toutefois pas se passer d’un intermédiaire pour leur consultation et traitement, augmentant les risques de non compréhension de la donnée ainsi que les temps de traitement des demandes. Aujourd’hui, de plus en plus d’organisations transversalisent leur entité ‘data’, afin de rapprocher les données des métiers, porteurs de la connaissance de la donnée, et des usages, délivreurs de valeur.
Car il est évident que, bien qu’elle soit complexe à déterminer précisément et instantanément, la donnée a une valeur évidente qu’il convient d’exploiter. Pour cela, une capacité d’analyse, plus ou moins poussée, est nécessaire à tous les niveaux de l’entreprise, au plus proche de la donnée et ce pour ne pas en perdre la signification.
Mais il existe encore des freins à cette démocratisation. En entreprise, le nouvel analyste peut se heurter à une mauvaise compréhension de la donnée. Même si la tendance est au partage et à la “transversalisation”, les données sont encore parfois stockées et gérées en silo, rendant difficile l’accès et la transparence de la signification métier de cette donnée.
Mais multiplier les analystes peut aussi représenter un risque de multiplier les analyses…identiques. Aussi, un sujet apparaît lorsque la donnée est rendue accessible plus largement : celui de la protection des données personnelles, récemment encadré par la nouvelle réglementation GDPR. En effet, la finalité d’un traitement de données doit aujourd’hui être systématiquement précisée, tout comme la population de personnes accédant aux données en question. Cette dernière doit par ailleurs être réduite au strict minimum et justifiable.
Cette data democratization est donc porteuse, dans le monde de l’entreprise, d’un message supplémentaire : une gouvernance bien établie agrémentée d’une communication efficace sont nécessaires et catalyseront la démocratisation.
Et concrètement, analyser des données ?
Avant toute chose…
Il existe une règle d’or dans le monde de l’analyse de données et elle s’appliquera également aux nouveaux analystes issus de la data democratization. Cette règle, éprouvée et vérifiée, stipule qu’en moyenne 80% du temps effectif d’un analyste sera consommé par la collecte, le nettoyage l’organisation et la consolidation des données, ne laissant que les 20% restants pour les analyser et en tirer de la valeur. Il faut donc que les nouveaux analystes prennent conscience de cette contrainte et aient une base de connaissances sur les réflexes de vérification à avoir lors de la réception d’une nouvelle source de données.
Visualiser
On peut définir la visualisation de données (ou dataviz) comme une exploration visuelle et interactive de données et leur représentation graphique, indépendamment de leur volumétrie, nature (structurées ou non) ou origine. La visualisation aide à percevoir des choses non évidentes en premier lieu, répondant à deux enjeux majeurs du monde de l’entreprise : la prise de décision et la communication.
Mais attention, un graphique mal utilisé peut faire passer un message erroné, laisser percevoir une tendance peu fiable ou maquiller une réalité. C’est donc pour cela qu’il convient de donner à tous une base méthodologique permettant d’exploiter la puissance de la dataviz tout en évitant les écueils.
La force de la visualisation réside en l’aperçu instantané qu’elle permet d’avoir sur une large quantité de données, pour peu que son créateur ait fait le bon choix de représentation. Plusieurs paramètres sont à considérer lorsque l’on souhaite choisir une visualisation : quel phénomène je souhaite mettre en évidence ? de combien de variables ai-je affaire ? ma représentation doit-elle être continue ou discrète ? …
Ci-dessous, une cheatsheet sous forme de visualisation, avec pour thème : “Quel type de graphe pour quel usage ?”
Avec quels outils, pour commencer ?
Une des raisons d’occurrence de cette ‘data democratization’ est l’émergence de technologies facilitatrices, permettant à un plus grand nombre d’interagir avec les données, à l’aide de frameworks de code ou d’interfaces graphiques accueillantes pour une expérience guidée et visuelle :
Logiciels de ‘data federation’ et dataviz : des interfaces graphiques simples, guidant la manipulation de l’import des données de formats et de sources différentes jusqu’à leur visualisation, intégration dans des dashboards et publication de rapports. On peut citer les solutions leaders du marché : Tableau Software, QlikView, Microsoft Power BI,…
Solutions “all included” et plateformes : dans une unique application, la possibilité est donnée de mener des analyses automatiques jusqu’à de la modélisation complexe, le tout sans avoir à toucher (ou peu) une ligne de code (exemples de solutions : IBM Watson Analytics, Dataiku, Saagie,…)
Frameworks et librairies : s’adressant à un public plus averti, il s’agit là de fonctions et méthodes prêtes à être ré-utilisées et adressant des problématiques et utilisation bien particulières (exemples : librairies NumPy et Pandas en Python pour faciliter la manipulation de données, librairie D3js en JavaScript pour la dataviz, …)
Mais il est toutefois un outil encore très majoritairement utilisé pour des cas simples de reporting, visualisation, agrégation et modélisation simple. Il s’agit du tableur on-ne-peut-plus-classique : Excel et l’ensemble de sa cour d’alternatives (GSheets, LibreOffice Calc,…). Et il est évident que l’on ne peut pas parler de démocratisation sans citer cet outil.
L’utilisation du tableur est aujourd’hui un pré-requis pour un grand nombre de métiers, dont certains sans aucun rapport à l’informatique. Aussi, le niveau de compétence en la matière n’a fait que s’élever d’années en années et c’est une tendance qu’il convient d’accompagner. De son côté, Microsoft ne cesse d’enrichir les fonctionnalités et, paradoxalement, de simplifier l’utilisation de son outil, en ajoutant des suggestions basées sur une analyse intelligente des contenus.
Notre conviction
Bien que nous n’ayons aujourd’hui pas le recul pour l’affirmer, on peut avoir bon espoir que cette démocratisation révolutionne la prise de décision en entreprise, en permettant aux employés à tous les niveaux de l’organisation d’avoir accès à des données et d’en tirer conclusions, plans d’action et projections.
Et nous pouvons espérer que cette démocratisation ne se cantonne pas au périmètre de l’entreprise traditionnelle : quid du travailleur indépendant, du petit commerçant ou du restaurateur ? Il est évident que ces individus également, dans l’exercice de leur activité, génèrent ou reçoivent des données qu’ils pourraient exploiter et valoriser (optimisation des stocks, analyses de résultats,…). Pour ces professionnels, un minimum de compétence internalisée mènerait à des économies en prestations et en temps passé, mais également à un éventuel ROI issu de l’analyse et de l’exploitation de leurs données.
Forts de ces constats, nous nous sommes aujourd’hui forgé la conviction suivante :
MREL [1] et TLAC [2], nouvelles exigences réglementaires, vont alimenter l’abondant portefeuille de projets réglementaires, à l’occasion du package CRD II – CRR V. De quoi s’agit-il ? Ce sont des mécanismes d’absorption des pertes qui visent à mettre les contribuables à l’abri d’une faillite bancaire.
Ils ont pour objectif de :
Constituer un coussin de fonds propres utilisable dans la logique du bail-in [3],
Limiter un éventuel recours aux fonds publics bail-out [4], en cas de défaillance d’un établissement bancaire.
Ces deux dispositifs se sont construits parallèlement, par des autorités différentes :
MREL est porté par l’EBA [5] et le SRB [6]. Il s’applique aux groupes bancaires et transfrontaliers établis dans l’Union bancaire en Europe. Il est entré en vigueur au 1er janvier 2016 ;
TLAC est porté par le FSB [7] et s’applique aux grandes banques internationales (G-SIBs [8]). Sa mise en application est prévue au 1erjanvier 2019.
MREL, sécuriser un coussin de capital de plus 8% des passifs éligibles
Transposée dans l’Union bancaire par la directive BRRD [9], MREL impose aux banques européennes de respecter une exigence minimale de fonds propres et de passifs éligibles. Dans son rapport final, l’EBA a exigé que le ratio MREL soit fixé pour chaque banque à un niveau permettant la mise en œuvre de la stratégie de résolution.
Au 1er janvier 2016, la Commission européenne a entériné le ratio MREL, définissant bien au cas par cas pour les banques de l’Union, un nouveau coussin de capital à hauteur d’au moins 8 % des passifs.
TLAC, sécuriser progressivement de 16 à 18 % du RWA
Dès 2019, les Banques Systémiques (G-SIBs) devront afficher un ratio de solvabilité total équivalent à au moins 16% de leurs RWA [10] et 6% de ratio de levier au titre du pilier 1.
Au 1er janvier 2022, elles devront présenter 18 % de leurs RWA et 6.75 % de ratio de levier au titre du pilier 1.
Les instruments financiers éligibles au TLAC sont principalement des capitaux constitués des fonds propres durs (CET1 [11]), des instruments de capital hybride (AT1 [12], Tier 2) ainsi que quelques dettes seniors.
Le nouveau régulateur international, le FSB a ainsi décidé de doubler au minimum les exigences de fonds propres des banques systémiques, par rapport aux exigences actuelles.
Ce niveau d’exigence doit éviter une crise de liquidité fatale (cas de la crise des subprimes et de la chute de Lehman Brothers), en obligeant les grandes banques à puiser dans leurs réserves en cas de défaillance.
Tableau de comparaison MREL et TLAC
Harmonisation du MREL avec le TLAC
Dans le cadre du package CRD II – CRR V, l’EBA préconise une harmonisation entre les deux dispositifs, en adoptant pour le MREL, la même base de calcul, en pourcentage de RWA et non en pourcentage de fonds propres.
Pour les G-SIBs européennes, concernées par les deux réglementations, cette harmonisation leur évite de subir deux réglementations distinctes de capacité d’absorption de pertes.
Quelles conséquences pour les banques ?
Face à ces nouveaux dispositifs, les établissements bancaires doivent :
Mettre en œuvre les outils de résolution et de production de reporting, permettant un suivi efficace des ratios MREL et TLAC;
Adapter leurs structures de fonds propres : plusieurs banques, notamment européennes, ont ainsi procédé, avec un franc succès, à des émissions de dettes subordonnées Tier-2 à échéance 10 ans. À titre d’exemples, Crédit Agricole a reçu une demande cumulée d’environ 16,5 milliards d’euros sur son placement de 3 milliards de Tier-2 (plus grosse émission européenne de Tier-2 jamais réalisée). Société Générale a levé 1,25 milliard d’euros et BNP Paribas plus de 1,5 milliards d’euros.
En conclusion, ces deux réglementations imposent un effort significatif pour les banques, en mise en oeuvre et surtout en gestion de bilan. Leur efficacité devra être jugée, en prenant également en compte les impacts sur la stratégie des actionnaires et de leurs créanciers, impactés au premier rang dans la résolution de crise par bail-in.
[1] MREL : Minimum requirement for own funds and eligible liabilities est une norme européenne d’exigence de fonds propres et de passifs éligibles lors des renflouements internes.
[2] TLAC : Total Loss Absorbing Capacity est un mécanisme d’absorption des pertes en cas de défaillance des banques.
[3] Bail-in : Pratique financière qui impose à certains créanciers d’une banque en difficulté une diminution du montant des créances qu’ils possèdent sur l’établissement de crédit ou une conversion de celles-ci en actions de capital. Le bail-in permet ainsi aux banques de se recapitaliser en cas de crise.
[4] Bail-out : Renflouement d’un établissement financier en difficulté, en général par un état, par injection de capitaux propres afin de permettre sa survie et de protéger les déposants et les prêteurs.
[5] L’European Banking Authority est l’autorité bancaire européenne.
[6] Le Single Resolution Board est l’autorité de résolution au sein de l’Union bancaire européenne.
[7] Le Financial Stability Board est un groupement économique international créé lors de la réunion du G20 à Londres en avril 2009.
[8] Global systemically important banks, sont des banques dont les activités sont tellement importantes et variées qu’une hypothétique faillite aurait nécessairement un effet très négatif sur la finance mondiale.
[9] La Bank recovery and resolution directive est une directive européenne qui permet aux banques de procéder au renflouement interne en cas de crise.
[10] Les Risk-Weighted Assets, ou actifs à risques pondérés, correspondent au montant minimum de capital requis au sein de banques ou d’autres institutions financières en fonction de leurs niveaux de risque.
[11] Les Common Equity Tier 1 sont des composants du capital de catégorie 1 constitués principalement d’actions ordinaires détenues par une banque ou une autre institution financière.
[12] Additional Tier 1 consiste en des instruments de fonds propres continus, en ce sens qu’il n’ya pas d’échéance fixe, notamment les actions privilégiées et les titres convertibles à fort contingent.
En Mars 2018, Rhapsodies Conseil a rejoint 13 000 organisations dans plus de 160 pays au sein du Pacte Mondial des Nations Unies, Global Compact.
Global Compact : Qu’est-ce-que c’est ?
Des entreprises, associations et organisations se retrouvent au sein de Global Compact des Nations Unies avec l’objectif de construire des sociétés plus stables et inclusives.
Il constitue la plus large initiative mondiale en matière de responsabilité sociétale avec plus de 12 000 participants dans 170 pays. La branche française de ce pacte, le Global Compact France, réunit environ 1 200 entreprises et plus de 100 organisations à but non lucratif.
Nous avons demandé à Pascal, notre responsable RSE de nous en dire un peu plus sur notre adhésion à ce pacte.
Pourquoi avons-nous décidé de rejoindre ce pacte ?
Tout d’abord, rejoindre le Global Compact nous permet d’apporter notre pierre à la construction de sociétés plus stables, inclusives et durables. De même, notre adhésion nous garantit d’échanger des expériences et des bonnes pratiques avec l’ensemble de la communauté Global Compact, dont nos clients et partenaires. Elle assure également un accès à des programmes thématiques, des formations, des outils et des ressources. Enfin, c’est aussi pour Rhapsodies Conseil l’occasion de valoriser notre démarche de responsabilité sociétale d’entreprise.
Quelles sont les actions qui permettent de faire partie du pacte ?
Afin de faire partie de l’organisation, nous devons intégrer dans notre stratégie et nos actions le respect de 10 principes en relation avec 4 piliers: le social, l’environnemental, les droits humains et l’anti-corruption. De même, il est nécessaire de communiquer à propos de notre adhésion à cet organisme, en publiant des informations en ce sens sur une page publique.
Que peut-on attendre de cette adhésion à Global Compact dans le futur ?
Notre ralliement à Global Compact nous garantit un nouveau cadre d’action, qui va permettre de renforcer nos actions sur les différents champs de la RSE. Appartenir à cette organisation nous apporte des rencontres de partenaires, animés des mêmes convictions. Enfin, le but premier de cette adhésion est de participer à une action globale pour le bien d’une humanité heureuse et respectueuse d’un environnement épanouissant.
Avec Rhapsodies Conseil, l’intelligence collective devient une évidence…
Favoriser la créativité des individus et du collectif en faisant émerger des comportements et des pratiques bienveillantes, c’est la mission que s’est fixé le cabinet Rhapsodies Conseil pour aider les entreprises à évoluer vers l’intelligence collective.
Le management directif, autocratique et hiérarchisé, symbole d’une organisation pyramidale a-t-il fait son temps ?
Pour Rhapsodies Conseil, cabinet indépendant de conseil en management, c’est une évidence !
Claranet | Oxalide et Rhapsodies Conseil vous invitent à découvrir un retour d’expérience de transformation vers une Organisation plus Agile.
Co-construit en intelligence collective, ce modèle aligné sur la stratégie de développement prévue par Oxalide (groupe Claranet) visait à faire face à des enjeux de croissance, d’organisation, de scalabilité dans un marché ou le time-to-market est le nerf de la guerre.
La conception d’un modèle de transformation en mode agile différenciant, intégrant leur cible, leur rythme et une trajectoire adaptée, était majeure pour atteindre les résultats souhaités.
Une Organisation Produit conçue avec les équipes et les consultants de Rhapsodies Conseil qui ont eu plaisir à mener cette mission.
Coach Professionnelle, Team Leader Transformation Agile des Organisations
Comment découper les besoins au sein d’une vaste organisation de 5000 collaborateurs pour mieux échanger et créer de la valeur ?
C’est l’une des questions en filigrane de l’accompagnement que nous menons en tant que coach agiles auprès des équipes produits de vente-privée depuis 1 an. Une question posée dans le sillage d’une transformation qui voit le leader de la vente flash en Europe passer d’une organisation par technologies à une organisation par produits.
Pour comprendre l’importance de ce découpage, prenez le temps d’imaginer un gros burger composé de nombreuses couches d’ingrédients. Vous avez deux manières de vous y attaquer. La première consiste à manger chaque couche, l’une après l’autre. Autant dire que vous ne profiterez pas du vrai goût du burger. Ou bien vous pouvez croquer dans ce burger à pleines dents. Vous aurez alors en une bouchée un peu de de chaque ingrédient, ce qui vous donnera une bien meilleure appréciation de ce qu’est véritablement un burger. Et comment l’améliorer à l’avenir.
Dans une organisation, le découpage des besoins, pour rester aligné sur la création de valeur, obéit à la même logique. Encore faut-il transcrire ce principe dans la pratique. Comment les équipes de vente-privee y sont-elles parvenues ? Avec quels enseignements ? Ce sont les intéressés qui en parlent le mieux.
Chez Vente-privée, à quels signes voyons-nous qu’une équipe livre de la valeur de manière optimale ?
Quand l’équipe recourt à des pratiques qui améliorent sa connaissance produit Identifier, anticiper et réduire les risques suppose de bien connaître son produit. Ces risques ont des origines multiples : adhérences externes, complexité technique ou fonctionnelle, compétences de l’équipe, interdépendances avec les autres équipes produits et transverses… Voilà pourquoi la collaboration doit être continue.
Connaître son produit
« L’architecture micro-service que nous mettons en place peut rendre une plateforme difficile à appréhender d’un point de vue fonctionnel. Mais avec la mise en place des “3 Amigos” nous avons développé les connaissances fonctionnelles de l’équipe produit. Résultat, nous délimitons mieux les périmètres de nos composants (acquisition d’image, stockage, publication…) ce qui améliore le delivery ainsi que la qualité des nouvelles features. Au final, c’est toute l’architecture qui est mieux exploitée. »
Vincent Oostenbroek de Lange – Lead Developper du Produit Media Prod
Les “3 AMIGOS” ? Concrètement, il s’agit d’un moment d’échange entre le PO/Business analyste, le testeur et le développeur pressenti pour coder. Les participants posent des questions pour clarifier les besoins et identifier les risques. Une bonne manière de couvrir les angles morts de chaque rôle. Suivant la maturité de l’équipe produit, c’est le moment où les critères d’acceptance sont décrits.
Chez Vente-privée, à quels signes voyons-nous que les équipes développent leur connaissance du produit ?
Quand l’équipe échange en continu L’équipe discute les besoins avant qu’ils n’arrivent dans le backlog des développeurs. Pour certaines équipes produit de vente-privee, nous avons donc amélioré la phase entre le moment où les clients émettent les besoins et le moment où ils arrivent dans le backlog des développeurs. Chaque équipe produit, suivant ses spécificités, a choisi les pratiques qui conviennent le mieux à leur contexte. Sans surprise, l’atelier des “3 AMIGOS”*, gage de succès, s’est aussi imposé ici.
Échanger pour définir les critères d’acceptance
« En décrivant pour chaque user story les critères d’acceptance, nous réussissons à remplacer les exigences avec un langage clarifié en termes fonctionnels et techniques. Ainsi tous les cas de tests sont anticipés en amont, orientent les choix techniques et préviennent les risques de bugs en production. Cette façon de travailler réduit d’autant le temps de qualification puisque les cas complexes ou tordus sont largement anticipés durant la phase de conception. Ce travail collectif et collaboratif entre les QA, dev et PO offre à l’équipe produit Orderpipe un gain de temps dans la livraison en production des MVP. La prochaine étape pour nous est de rédiger les tests de manière automatisée.«
Hicham Sassi – QA du Produit Orderpipe
Chez Vente-privée, à quels signes voyons-nous que le découpage des besoins est entré dans les habitudes de travail ?
Quand l’équipe sait découper les besoins fonctionnels par la valeur L’équipe s’assure de livrer de la valeur à chaque itération. Cela commence par la priorisation du backlog par la valeur jusqu’au découpage vertical en mode MVP (Minimum Viable Product).
Prioriser par la valeur
« Il y a un adage qui dit « les intérêts des uns ne sont pas forcément ceux des autres« . Et cela s’applique très bien quand il s’agit d’un produit transverse à l’ensemble des autres produits. C’est le cas du produit Personnalisation : il offre un service qui diminue l’effort de recherche des ventes disponibles pour les membres et permet aux équipes produits vente-privee de booster leur KPI (de générer plus de valeur sur leur propre produit).
Toutefois cette synergie accroit aussi la complexité. En effet, une fonctionnalité peut détruire de la valeur business pour un produit tout en générant sur un autre (i.e le voyage peut perdre au détriment du loisir). En conséquence, il est indispensable de bien découper les besoins fonctionnels afin de tracer à la fois le flux de valeur et la complexité technique. Cela permet à l’équipe produit Personnalisation de bien définir les MVP et maximiser la valeur délivrée pour l’ensemble des produits. »
Ivan VUKIC – Product Owner du Produit Personnalisation
L’équipe sait aussi s’arrêter quand elle ne produit plus de valeur.
Expérimenter par la valeur
« Dans le cadre de nos campagnes d’acquisition, nous nous étions donnés pour objectif de booster les téléchargements de l’application vente-privee sur les stores (iOS/Android). Nous sommes partis de l’hypothèse qu’une meilleure note sur ces stores améliorait le taux de téléchargement de l’app (nombre de téléchargements rapporté au nombre d’utilisateurs qui voient la description de l’app).
Pour éprouver cette hypothèse, nous avons sorti un 1er MVP de notre feature : le fait de pousser une interface de notation à certaines populations juste après un achat, ainsi le « user » est dans une dynamique positive avec le service vente-privee. Une fois ce module en production, et après analyse, nous nous sommes rendus compte que :
– nous améliorons la note de l’app (de 2.5 à 4.5 sur iOS par ex.)
– nous n’améliorons pas le taux de téléchargement de l’app
Nous avons mis de côté les évolutions possibles de ce module (optimisation de l’affichage, exécution d’autres scénarios…) puisque que nous n’incrémentions pas le nombre de nouveaux porteurs de l’app par rapport à la valeur attendue. »
Matthieu WILLAIME – Anciennement Product Owner du Produit User-Engagement, dorénavant PO Navigation
A quels signes voyons-nous que le découpage est efficace ?
Quand l’équipe sait découper les besoins fonctionnels en réduisant la complexité Objectif : limiter les inconnues afin que les développeurs, les testeurs, les UX-UI, les data analystes et les business analystes soient confiants en leur capacité de présenter ce qu’ils ont prévu de livrer lors du sprint planning. Une fois bien compris, un besoin fonctionnel ou “Business feature” est découpé en 1, 2 ou 10 users stories ou enablers (tâches techniques, UX…). Ce qui nous donne un bon hamburger :
Découpage d’un besoin fonctionnel en hamburger
Découper les besoins fonctionnels
« Depuis la mise en place de l’agilité dans notre équipe, nous rencontrions des problématiques concernant la taille des stories. Certaines s’apparentaient davantage à des business features et nécessitaient plusieurs sprints pour être réalisées. Avec le découpage en hamburger, nous nous posons les bonnes questions afin de découper au mieux les besoins. Le retour est très positif, nous parvenons mieux à nous projeter dans le temps, avec une réelle vision du travail à fournir et sur la façon de l’adresser. »
Grégory Beer – Scrum master du Produit Media Prod
Une façon de s’assurer du bon niveau de découpage du besoin fonctionnel consiste à estimer la complexité. L’équipe se pose des questions jusqu’à l’atteinte d’une complexité assez basse des users stories et enablers (exemple : en dessous de 5 sur l’échelle de Fibonacci) afin d’identifier les risques et les inconnues. C’est un des temps d’apprentissage sur l’équipe et le produit.
Exemple d’une échelle d’estimation de la complexité
S’affranchir de l’estimation grâce à la maturité de l’équipe
« Pour l’équipe Navigation, l’estimation a été un passage obligatoire et bénéfique dans notre maîtrise de l’agilité. Parfois, au début, la facilité nous poussait à mettre une estimation élevée sans remettre en question le découpage de la tâche. Après quelques mois où nous nous sommes imposés de découper les tâches pour être en dessous d’un niveau de complexité de 8, nous nous sommes rendus compte que notre découpage devenait optimal.
Nous avons choisi de nous passer des estimations en utilisant le nombre de tâches plutôt que le nombre de points de complexité comme mesure d’avancée de sprint. »
Paul-Emmanuel Garcia – Scrum master / développeur iOS Produit Navigation
Takeaways
Peu importe les rituels et les pratiques adoptés tant qu’ils contribuent à faciliter les échanges pour mieux découper les besoins.
Ces pratiques ne sont pas une fin en soi : elles contribuent seulement à acquérir des comportements agiles, aident les équipes à gagner en confiance, à travailler ensemble pour trouver des solutions – et non pour résoudre des problèmes.
L’histoire ne s’arrête pas une fois que l’équipe sait collaborer pour créer de la valeur : il faut encore apprendre à réfléchir et à s’améliorer pour de boucler les 4 étapes du cycle du cœur de l’agilité (collaborer – délivrer – réfléchir – améliorer).
avec la participation deSylvie Moumen Coachs agiles chez vente-privee, Coachs professionnelles systémiques & Coachs Process Com certifiées