gouvernance de données

Y a-t-il une gouvernance IT dans l’avion ?

Y a-t-il une gouvernance IT dans l’avion ?

31 mars 2025

Alexis GACHADOAT

Senior Consultant

Elle est au rendez-vous de presque l’ensemble des salons, conférences, webinar ou encore pause-café avant les premières réunions de la semaine et tend à devenir le principe clef dans l’intégration ou la mise en place d‘une plateforme data : La gouvernance de données.

Le mot peut paraître abstrait, brutal et directif mais tout l’enjeu est justement de la vulgariser un maximum pour la partager et évangéliser son adoption.

Il faut bien avoir conscience que si vous rencontrez des incidents liés à la qualité, la cohérence ou la fiabilité de vos données aujourd’hui c’est probablement lié soit à un manque de gouvernance soit à un manque de suivi de cette gouvernance. 

Parce que mettre en place une plateforme permettant de brasser des Tera de data c’est bien mais le faire avec des principes clefs et des règles de sécurités c’est mieux, nous allons voir quelques notions clefs pour pouvoir mettre en place une gouvernance réussie.

Dans 76% des cas, la gouvernance existe mais elle est vite négligée au profit du time to market conduisant souvent à une perte de confiance des sponsors voir du déficit commercial.  

gouvernance de données

Kezako la gouvernance de données ?

Sortant d’une mission de presque 6 ans sur le SI Data Architecture & Engineering chez Givaudan, je vais tenter de vous en donner ma définition et ma vision afin de vous familiariser avec le sujet.

Tout en ayant conscience qu’il n’est pas aisé de donner une définition simple de la gouvernance de données sans tomber dans un premier travers qui est sa mécompréhension conduisant inévitablement à sa dévalorisation puis sa négligence, je tente quand même ma chance :

Au-delà d’un simple ensemble de règles ou d’un outil, d’un concept ou d’une méthodologie, la gouvernance est un cadre stratégique qui regroupe à la fois l’ensemble des principes humains et machines liés aux acteurs de la data mais aussi la garantie du respect des normes et processus liés à l’utilisation de ces données.

Elle regroupe l’ensemble des pratiques et processus permettant de créer, maintenir, sécuriser et faire évoluer l’ensemble des data et metadata d’un SI. 

C’est à la fois une déclinaison du RACI lié à la plateforme data et en même temps l’implémentation de ses règles de maintenance et d’utilisation. Le tout n’étant pas exclusif à la plateforme Data, mais doit s’inscrire dans la gouvernance SI dans son entièreté.

La gouvernance de données ne décrit pas uniquement la gestion de la donnée mais la politique contribuant à la manipuler et les responsabilités de chacun afin d’éviter les imbroglios de qui ou quel job a maintenu quoi, comment et pourquoi ?

Et c’est un point crucial à mettre en place dès l’introduction d’une nouvelle typologie de données en nommant un ou des responsables de la gouvernance de cette donnée qui auront la charge de documenter et garantir les règles d’ingestion, d’accès, d’enrichissement, dédoublonnage, maintenance, diffusion pour en citer quelques unes et en les faisant évoluer au grès de la politique d’entreprise. 

Qu’est qui ne fait pas partie de la gouvernance de données ?

La gouvernance n’oriente pas les choix de plateformes, la mise en place d’une infrastructure. Elle n’est pas une composante de l’analyse d’une donnée ou dans le choix d’un scénario projet.

Pourquoi la gouvernance ?

Vous l’aurez compris quand le sujet traite de politique cela fait souvent vite fuir le business qui sera pourtant l’atout clé dans l’évangélisation de la pratique.

Les problèmes liés à un manque de gouvernance ont souvent pour résultat une initiative prise hors du champ de responsabilité ou un manque de clarté amenant des interprétations diverses voire faussées.

Les principaux piliers clefs permettant d’apporter un ROI notable de la gouvernance sont selon moi :

La Gestion et maintenance des métadonnées : Pour vulgariser un temps soit peu, les métadonnées sont le passeport des données. Les bonnes pratiques consistent à définir un modèle de métadonnées, à documenter les données et à mettre en place un catalogue de données.

Qualité des données : La qualité est essentielle pour prendre des décisions business éclairées. Les bonnes pratiques incluent la mise en place de processus de validation, l’utilisation d’outils de profilage et de nettoyage, et la définition de métriques de qualité.

Sécurité : La protection des données est une priorité absolue. Les bonnes pratiques consistent à mettre en place des contrôles d’accès, à chiffrer les données sensibles, à réaliser des sauvegardes régulières et à mener des audits de sécurité.

Conformité : protocol sécurisé d’échanges de données HIPP / instances réglementaires lié au stockage et à l’utilisation de la donnée. Le respect des réglementations est obligatoire. Les bonnes pratiques incluent la connaissance des réglementations applicables, la mise en place de processus de conformité et la désignation d’un responsable de la protection des données.

Politique et Standards: partager un socle de définition des données clefs de l’entreprise  

Fiabilité : garantir la véracité d’une donnée à n’importe quel moment et n’importe quel endroit du SI

Et dans la pratique ça donne quoi ?

Tout d’abord, vous devrez avoir en tête les étapes clés pour pouvoir définir le cycle de vie de la gouvernance : 

S’en suivent les bonnes pratiques pour s’assurer d’une mise en oeuvre efficace :

Les bénéfices de la gouvernance des données

Les défis et les tendances

La gouvernance des données est un voyage, pas une destination. Elle nécessite un engagement continu de la part de tous les acteurs de l’entreprise. En suivant les bonnes pratiques et en s’adaptant aux évolutions technologiques, les entreprises peuvent tirer pleinement parti de leurs données et gagner en compétitivité.

Décryptage Expertise : Architecture

Décryptage Expertise : Architecture

18 décembre 2024

– 3 minutes de lecture

Architecture

Olivier Constant

Senior Manager Architecture

Découvrez notre expertise !

Réussir vos projets de pilotage projet & produit
Réussir vos projets de pilotage projet & produit

Les sujets d’expertise qui pourraient vous intéresser


Accompagnement de votre architecture

Nous vous accompagnons dans le pilotage de votre architecture

18 décembre 2024

– 3 minutes de lecture

Architecture

Olivier Constant

Senior Manager Architecture

Nous vous accompagnons dans le pilotage de votre architecture

Aujourd’hui, nous repartageons une success story de notre mission chez un acteur majeur du secteur bancaire. Olivier et ses équipes sont intervenus pour accompagner de façon globale ce client sur son architecture d’entreprise au travers d’un centre de services.

N’hésitez pas à nous contacter pour plus d’informations ! 💬

Les autres sucess story qui peuvent vous intéresser 


Envie d’intégrer l’intelligence artificielle à vos processus métiers ?

Envie d'intégrer l'intelligence artificielle à vos processus métiers ?

L’intelligence artificielle à vos processus métiers

Chez Rhapsodies Conseil, nous vous accompagnons à chaque étape pour maximiser votre potentiel IA.

Notre expertise vous propose trois approches pour tirer parti de l’IA : des outils préexistants, des agents personnalisés ou des modèles sur mesure. Chaque solution s’adapte à vos besoins, budget et ressources internes.

Vous souhaitez en savoir plus ? 🔍
Parlons de votre projet IA et découvrez comment Rhapsodies Conseil peut transformer vos idées en actions concrètes.

D’autres sujets d’expertise qui pourraient vous intéresser

mesh

Ne confondez plus jamais data mesh, event mesh et service mesh

Ne confondez plus jamais data mesh, event mesh et service mesh

18 décembre 2024

– 3 minutes de lecture

Architecture

Thomas Jardinet

Manager Architecture

Ne vous trompez plus !


mesh
mesh

Les autres sujets d’expertise qui pourraient vous intéresser


dépense cloud

GÉRER SES DÉPENSES CLOUD: UNE INTRODUCTION AU FINOPS

GÉRER SES DÉPENSES CLOUD: UNE INTRODUCTION AU FINOPS

12 décembre 2024

Architecture

Samira Hama Djibo

Consultante

Dans cette ère où les infrastructures Cloud et on premise se côtoient et se toisent, le critère de la rentabilité est déterminant. Cependant là où le Cloud nous promet des économies à petite mais surtout à grande échelle, on peut parfois tomber sur des mauvaises surprises une fois la facture reçue.

Quelle que soit la taille de l’architecture Cloud, on n’est jamais vraiment à l’abri d’un dépassement budgétaire inattendu. Mais en appliquant quelques principes simples du FinOps, on peut arriver à facilement minimiser ce risque.

Comment donc suivre efficacement ses dépenses ? Et comment optimiser financièrement son infrastructure Cloud ? 

Nous allons ici nous appuyer sur le Cloud Provider AWS pour étayer nos propos ainsi que nos exemples.

Pourquoi est-ce qu’on peut se retrouver avec des factures plus importantes qu’attendu ?

Une des particularités d’une infrastructure Cloud, c’est qu’il est très facile de commissionner des ressources. Prenons a contrario une architecture on-premise: pour commissionner un serveur physique et installer des machines virtuelles, ce n’est souvent pas une mince affaire. Il faut choisir un fournisseur, lancer la commande et souvent attendre plusieurs mois sans compter d’éventuels problèmes logistiques. 

De plus, la commande d’un serveur on-premise est souvent conditionnée par une étude minutieuse des caractéristiques nécessaires du serveur en question et une étude de budget à valider, réétudier etc. 

En comparaison, la commande d’un serveur avec les mêmes caractéristiques sur le Cloud  se fait en quelques clics, même pour un non-initié, et la disponibilité est immédiate. 

La promesse du Cloud, c’est de pouvoir héberger tout aussi bien une architecture basique (comme par exemple un site web statique) qu’ une architecture extrêmement complexe répondant à des besoins spécifiques et des contraintes exigeantes. L’un des principaux clients d’AWS, l’entreprise Netflix responsable de 15% du trafic internet mondial, stocke jusqu’à 10 exaoctets (10 millions de téraoctets) de données vidéo sur le service Amazon S3. Ce chiffre inclut les copies stockées dans différentes régions afin d’assurer la haute disponibilité du service ainsi que sa résilience en cas de panne dans un des data centers d’AWS.

Une telle variance des offres et des possibilités que permettent le Cloud rend facile d’allouer des ressources largement supérieures à celles nécessaires, ou souscrire à des options qui, normalement conçues pour des cas très précis, font augmenter votre facture de façon apparemment démesurée.. 

Qu’on utilise l’interface graphique du Cloud Provider, ou alors un outil d’Infrastructure As Code comme Terraform ou CloudFormation, sans la maîtrise suffisante au moment de l’allocation des ressources, ou par simple erreur humaine, on peut réquisitionner des ressources largement au-dessus de nos besoins, et donc se faire surprendre par une facture exorbitante. 

Pour illustrer ce point, prenons par exemple l’allocation d’une petite base de données via l’interface graphique d’AWS. Pour les mêmes caractéristiques de vCPU et de RAM, en choisissant par erreur, ou en méconnaissance de nos besoins réels, un stockage io2 au lieu de gp2, on multiplie tout simplement  la facture par 10 !

Pour bien maîtriser les coûts, il faut donc tout d’abord une bonne maîtrise des termes techniques, du vocabulaire spécifique au Cloud Provider et ne pas se perdre dans des options trop avancées. 

Une fois cela pris en compte, il faut noter que ces mêmes cloud providers mettent à disposition des outils qui permettent de facilement détecter et limiter l’impact d’erreurs de jugement ou d’implémentation.

Les solutions mises en place par les cloud providers pour pallier à ce problème

AWS a mis en place le Well-Architected Framework qui sert de guide pour la conception d’applications dotées d’infrastructures sûres, hautement performantes, résilientes et efficientes. 

Le framework est basé sur six piliers: excellence opérationnelle, sécurité, fiabilité, efficacité de la performance, optimisation des coûts et durabilité. 

Le pilier Optimisation des coûts qui nous intéresse le plus ici est axé sur l’évitement des coûts inutiles.

A toutes les échelles, des services sont mis en place par AWS pour faciliter l’implémentation de ce pilier. Leur connaissance et leur utilisation permettent sans faute d’optimiser le coût de son architecture. 

Nous allons voir ici les approches de base qui permettent de s’assurer à un cadrage et une compréhension exhaustive de sa facture cloud et en amont l’optimisation des ressources allouées.

Il existe pour cela trois approches complémentaires: 

Par exemple, cela peut se traduire par le fait de faire appel à de l’auto-scaling qui est la possibilité d’ajouter et supprimer des instances d’une ressources (scalability) ou augmenter et diminuer la taille de ces instances (elasticity) en fonction de l’utilisation en temps réel qui en est faite. Lorsque la charge de travail augmente, plus de ressources sont allouées, et lorsqu’elle diminue, une partie des ressources allouées est libérée. 

Voici un autre exemple de rightsizing:  Dans un projet les environnements de développement et de test sont généralement utilisés uniquement 8h par jour pendant la semaine de travail. Il est donc possible d’arrêter ces ressources lorsqu’elles ne sont pas utilisées pour réaliser des économies potentielles de 75 % (40 heures contre 168 heures).

Voici quelques pratiques et services incontournables suivant  ces différentes approches :

Surveiller et budgétiser ses dépenses

AWS Cost Explorer

C’est une solution de Cost Analysis Dashboard qui permet de voir en temps réel sur une certaine période le total des dépenses par services utilisés. 

Exemple d’un Cost Analysis Dashboard

AWS Budgets

AWS Budgets permet de créer des Budgets de dépense et de les exporter notamment sous forme de rapports. Des alertes sont levées et des emails envoyés lorsque les budgets sont dépassés.

AWS Cost Anomaly detection

Grâce au machine learning, AWS peut détecter une augmentation anormales des dépenses qu’il serait plus difficile de repérer manuellement. 

Parmi les services de gestion de coûts proposés par AWS, on voit que ceux présentés ici, gratuits et mis en place par défaut, permettent déjà à eux trois  d’obtenir une vue assez synthétique de ses dépenses et d’être alerté en cas de potentielles anomalies.

Limiter les accès au strict nécessaire

Un des principes de base qu’il s’agit de sécurité est la limitation au maximum des accès aux ressources au strict minimum et uniquement aux personnes accréditées (principe du RBAC). Ce même principe permet de réserver la création de ressources sensibles qui peuvent, comme on l’a vu, faire rapidement monter la facture aux personnes qui sauront faire bon usage de ces droits..

Que ce soit cloud ou hors cloud, la règle est la même : le least privilege access, c’est-à-dire limiter les droits au strict minimum, en fonction du rôle, du groupe d’appartenance, et même pour les grosses organisations en fonction du département ou du sous compte AWS depuis laquelle la requête est faite. 

En plus de monitorer et contrôler ses dépenses, le cloud offre plusieurs possibilités d’optimisation des coûts dont voici un exemple.

Exemples d’optimisations possibles: les classes de stockage

Prenons comme exemple une boite de finance qui stocke les dossiers de leurs clients, tout comme notre géant Netflix sur le service de stockage Amazon S3. 

Au début de la procédure, les dossiers sont consultés très souvent, plus le dossier avance, moins ils sont consultés, une fois clôturés ils sont archivés. Chaque année les services d’audit consultent les dossiers archivés. Après 10 ans, ils ne sont pratiquement jamais consultés mais doivent être conservés pour des raisons légales. 

AWS met en place des classes de stockage en fonction de la fréquence d’utilisation des fichiers permettant ainsi de réduire les coûts sur les fichiers qui sont plus rarement consultés.

Ainsi nous mettrons les les dossiers en cours dans la classe S3 standard, puis dans la classe S3 Standard Infrequent Access au fur et à mesure qu’ils sont moins consultés. Une fois le dossier clôturé,  nous le déplaçons dans une des classes S3 Glacier à accès instantané ou flexible. Puis une fois la période d’Audit passée, nous les archivons finalement dans la classe S3 Deep Glacier aux coûts de stockage les plus bas. 

A noter que nous pouvons également déposer les fichiers directement dans la classe S3 Intelligent Tiering dans laquelle AWS se chargera automatiquement de déplacer les fichiers dans les classes les plus rentables en fonction de l’utilisation réelle constatée. 

Par exemple, pour la région Europe(Irlande), les tarifs en fonction des classes sont les  suivants :

S3 StandardS3 Infrequent accessS3 GlacierS3 Deep Archive
Prix par GB/mois0,021€0,011€0,0033€0,00091€
Frais de récupération des fichiers ?NonNonOuiOui

En analysant le besoin ou en faisant appel aux Intelligent Tiering d’AWS, nous pouvons donc économiser jusqu’à 100% du prix standard de stockage / Gb et par mois pour les fichiers les moins consultés.

Nous avons vu ici une partie des optimisations financières rendues possibles en faisant levier de la puissance du Cloud. Les labs du Well-Architected Framework mis fournis par AWS permettent de voir de façon concrète les voies d’optimisation des coûts présentées par le Cloud provider lui-même.  

En plus de l’application des principes essentiels vu dans cet article, vous pourrez creuser facilement le sujet à cette adresse.

En guise de conclusion, je me permets d’appuyer sur le fait que la connaissance à minima basique des principes fondamentaux du FinOps comme décrits dans cet article est essentielle autant au développeur qu’à l’architecte en passant par le management et la finance. C’est uniquement cette collaboration étroite qui permettra une surveillance à toutes les échelles des coûts engendrés et une optimisation financière d’un projet Cloud.

Articles qui pourraient vous intéresser