black-background-costume-dark-1097456-1

L’IoT, ses Promesses et ses Démons

L’IoT, ses Promesses et ses Démons

1 juillet 2019

– Lecture de 4 mn

Clément Lefranc

Senior Manager Architecture

Baptiste Avanzini

Manager Architecture

Dans ce troisième et dernier volet de notre parcours 360° de l’IoT, nous vous proposons de porter notre regard sur les promesses de l’IoT et de nous intéresser par la même occasion aux grandes problématiques techniques et organisationnelles à adresser lors, notamment, du passage à l’industrialisation de vos expérimentations IoT.

Les promesses de L’IoT

Nous l’avons vu lors des deux précédents volets de nos publications, l’IoT est rendu accessible à tous, dans tous les secteurs d’activités et pour des cas d’usages très variés. Cependant, que puis-je en attendre? Voici quelques éléments de réponse.

Moi, entreprise

Moi, employé

Moi, utilisateur final

…Et ses démons !

Un potentiel énorme, de nombreuses promesses mais des problématiques tout aussi nombreuses à prendre en considération sur l’ensemble de la chaîne de valeur IoT. 

Parcourons ensemble cinq éléments clés pour la bonne réussite des transformations IoT :

L’interopérabilité au centre des enjeux

Ainsi, les choix technologiques et techniques (applicatifs et infrastructures) doivent être fait avec la vision d’un écosystème global, interconnecté et interopérable.

La sécurité, une problématique globale à maîtriser

Le sujet de la sécurité est prédominant dans les problématiques IoT actuelles du fait de l’industrialisation des projets. Il convient d’aborder le spectre de la sécurité sur toutes les phases de construction (approche Security By Design) de la chaîne de valeur IoT.

La protection des données personnelles

Les nouvelles législations autour de la GDPR, des projets de lois de protection des données de Santé, etc. sont autant de freins à la valorisation de l’IoT qui a pour but premier de collecter facilement et massivement des données du terrain.

Les modèles de traitement, d’analyse, de stockage et d’exposition des données doivent tenir compte des évolutions réglementaires et être adaptés en conséquence.

Le traitement des données

L’IoT doit être considéré comme une source de données du Big Data. La flotte d’objets (hétérogènes) génère au fil de l’eau un important volume de données, à grande vitesse et avec des formats variés.

Pour donner une valeur business forte à ces données, il est nécessaire de réaliser des corrélations avec le reste du patrimoine data de l’Entreprise. 

Cette dernière doit donc avoir entamée une transformation autour de la Gouvernance Data et adoptée un SI Data Centric.

La gouvernance IoT, un réel facteur clé de succès

L’IoT transforme en profondeur les métiers et les offres traditionnelles. Les changements à effectuer sont complexes et transverses nécessitant une proximité forte entre des équipes métiers et DSI, après tout, l’IoT a avant tout une finalité business !

Il convient donc à chaque entreprise, pour réussir sa transformation IoT, de définir et mettre en place une gouvernance associée qui portera les messages, réalisera la mise en oeuvre et assurera que les métiers sont formés et outillés pour exploiter ces nouveaux gisements de valeur.

Comment la définir ? quels sont ses missions concrètes ? Quels sont les bonnes pratiques ? Comment et quand intégrer le métier ? Comment…

Tous ces différents points seront étudiés, illustrés dans un article dédié à la #Gouvernance IoT.

Sur cette belle lancée, restez avec-nous 🙂

Dans quelques jours, nous vous présenterons notre approche et les clefs pour répondre rapidement et efficacement aux initiatives IoT de vos métiers.

Et vous quelles problématiques IoT rencontrez-vous ?

Nous vous donnons rendez-vous très vite pour la suite de nos articles #IoT.

Stay tuned !

Découvrez les autres chapitres de la série

Les autres articles qui peuvent vous intéresser

nouvelle-répartition-paiement-aide-sociale

DSP2 : les banques sont-elles en retard ?

DSP2 : les banques sont-elles en retard ?

19 juin 2019

– 3 min de lecture

Agnès Cheval

Si la mise en place de la DSP2 semble prendre l’apparence d’une querelle entre anciens et modernes – les banques contre les fintech – la réalité s’avère plus complexe…

Ouvrir à des tiers l’accès aux données et à l’initiation de paiement pour stimuler la concurrence tout en consolidant la sécurité des paiements. C’est l’ambition de la DSP2 (directive européenne sur les services de paiement) entrée en vigueur en janvier 2018 et dont la mise en œuvre est jalonnée par de grandes étapes définies dans les normes techniques et réglementaires (aussi appelées RTS), notamment sur les interfaces d’accès (API) et l’authentification forte.

Une première échéance est tombée le 14 mars 2019, date à laquelle les banques devaient avoir déployé un portail d’API afin de mettre à disposition la documentation et un bac à sable permettant aux TPP (Tiers Prestataires de Paiement) de les éprouver. Une autre suivra le 14 septembre 2019 avec l’ouverture officielle des APIs de production. Dans le contexte de tension entre fournisseurs d’API (teneurs de comptes) et consommateurs (nouveaux acteurs), cette échéance a relancé le débat sur la capacité des banques à respecter le calendrier…

La DSP2, une transformation lourde à marche forcée

Dans ces débats, un même coupable est souvent pointé du doigt : les banques. Qui complexifieraient la sécurité ou encore publieraient des API bien trop partielles pour être exploitables. La réalité est un peu plus… complexe. Et les enjeux ne peuvent se résumer à une querelle entre les anciens (les banques installées) et les modernes (les acteurs de la fintech). Rappelons que la DSP2 est un sujet plutôt nouveau, qui concerne « juste » la sécurité des paiements et la protection des données du client. Et comme pour toute transformation lourde, les acteurs impliqués découvrent en marchant les clarifications qui doivent encore être apportées.

Oui, les différents textes, de la directive aux RTS, ont bien posé des fondamentaux. Trois catégories ont été définies pour les fameux TPP (Tiers Prestataires de Paiement), des agrégateurs de comptes aux initiateurs de paiement en passant par les émetteurs de moyens de paiement.

Des obligations pour les tpp et les banques

Pour entrer dans le jeu, ces TPP doivent remplir des conditions : obtenir un agrément auprès d’une autorité nationale, un certificat (dit « eIDAS ») auprès d’une autre autorité ou encore renoncer (quand des API sont disponibles) au webscraping. Pour rappel, cette technique consiste à collecter les données à partir des sites de banque en ligne, en utilisant les identifiants et mots de passe des clients. Les banques pour leur part doivent respecter le calendrier de déploiement et mettre à disposition les API de production pour les trois catégories de TPP le 14 septembre prochain après avoir mis en ligne, en mars dernier, bac à sable (sandbox) et documentation. 

Si les règles du jeu et le calendrier sont là, que manque-t-il ? Nous pourrions résumer en disant « des délais plus cohérents et des modalités plus précises ». À défaut, pour les TPP comme pour les banques, la route manque de lisibilité.

Quelques exemples pour comprendre :

Gageons justement que cette expérience client, un peu perdue de vue au fil des textes réglementaires, devrait s’imposer comme l’alpha et l’oméga des discussions à venir. Et comme un objectif commun à l’ensemble des acteurs. Parce que chacun a autant à perdre qu’à gagner. Parce que, aussi, cette expérience dépend de business modèles à caler de part et d’autre.

Une certitude : la DSP2, sujet restructurant à l’échelle bancaire, appelle des investissements lourds dans des délais serrés. Et seule la coopération permettra à chacun d’y trouver des bénéfices – et pas seulement financiers –, en apportant au client final, les nouveaux services fluidifiant le paiement dans son parcours utilisateur.

Les autres articles qui peuvent vous intéresser

cloud ready

Pourquoi devenir Cloud Ready ?

Pourquoi devenir Cloud Ready ?

19 juin 2019

– 3 min de lecture

David Sevin

De la trottinette au Cloud

Une révolution est en cours dans nos cités.
Les utilisateurs délaissent les moyens mis à leurs dispositions par les conseils régionaux et les mairies pour des solutions écologiques,  innovantes, souples, facturées à l’usage et dont le bénéfice est immédiat.

Toutefois, bien que pratique, cette nouvelle mode urbaine génère du stress également, comment s’adapter à ces nouveaux usages ? Certaines municipalité ont tenté de les interdire, d’autres se posent la question de la réglementation, quel est le risque pour l’usager et pour les autres usagers, doit on permettre à ces utilisateurs de consommer ces services alors que nous ne l’avions pas prévu ?

Les infrastructures actuelles ne sont pas compatibles avec ces nouveaux usages, la pression des utilisateurs est telle qu’il faut trouver des solutions palliatives pour leur permettre de les utiliser en toute sécurité.

Ces précurseurs bousculent l’ordre établi qui se voit devancé sur les problématiques de développement durable et de transport.

Quel cadre proposer pour que tout le monde y trouve son compte sans pour autant bloquer ceux qui suivent le modèle historique mais que l’on aimerait réussir à convertir aux nouveaux usages ?

Ces réflexions sont en cours à Lyon, à Bordeaux, à Paris, ainsi que dans la majorité des métropoles régionales, et les villes rurales réfléchissent à offrir ces services même si la pression et l’impact sont moins importants.

Ces questions autour des vélos et des trottinettes en libre service ont peu de rapport avec l’IT ou avec nos DSI mais elles rappellent un sujet qui revient depuis plusieurs années : le Shadow IT.

Les utilisateurs consomment des services informatiques sans en informer leur DSI, les contraintes de sécurité sont ignorées, les fournisseurs multiples, la même solution peut être consommée plusieurs fois sans qu’il n’y ait d’optimisation des coûts.

Faut-il l’interdire ? Est-ce que l’entreprise acceptera de retarder son plan de transformation, la sortie d’un nouveau produit ou pire de dégrader la satisfaction client pour respecter les exigences de l’IT ?

Les problématiques se ressemblent, les solutions sont tout aussi éclectiques et dépendent à chaque fois de l’environnement, du cadre et des besoins. L’entreprise doit aujourd’hui permettre à ses utilisateurs, à ses clients internes d’utiliser des solutions compétitives au time-to-market imbattable et correspondant à leurs besoins. Mais l’entreprise doit aussi garantir la sécurité de son SI, de ses données et de son activité.

Ces nouvelles solutions ont généralement des attributs communs, elles sont hébergées dans le cloud, ne nécessite pas d’installation et la configuration est à la portée de tous.

L’enjeu pour les sociétés, quelle que soit leur taille, est de permettre la consommation de ces nouveaux services, de faciliter leur usage dans le respect des normes de sécurité en gardant la maîtrise des coûts qu’ils induisent.

L’entreprise se voit donc imposer une transformation vers le cloud par ses clients internes, ses employés, qui se demandent pourquoi les outils qu’ils utilisent au travail sont moins performants et conviviaux que ceux qu’ils utilisent à la maison.

Ce sont les thèmes que nous développerons dans nos prochains articles.

Les autres articles qui peuvent vous intéresser

astronomy-constellation-cosmos-1025469-1

L’iPaaS un ESB dans le Cloud ?

L’iPaaS un ESB dans le Cloud ?

6 juin 2019

– 5 min de lecture

Clément Lefranc

Senior Manager Architecture

#Batch, #ETL, #EAI, #ESB, #API… d’année en année depuis plus de 20 ans les professionnels de l’intégration ont développé et fait évoluer leurs produits pour accompagner les nouveaux modèles d’architectures.

A l’ère du #Cloud, un nouveau produit tisse progressivement sa toile : l’iPaaS.

Faciliter l’intégration des applications dans un écosystème hybride (Cloud to Cloud, Cloud to OnPrem) est la promesse phare de ces integration-Platform-as-a-Service.

Quels sont les acteurs de ce nouveau segment ? Quelle est la philosophie de leur produit ? Quels patterns d’intégration supportent-ils ? Ont-ils vocation à remplacer les solutions historiques OnPrem ? autant de questions que nous pouvons nous poser.

Ces quelques minutes de lecture vous donneront à la fois une vision théorique et concrète du marché et des concepts issus d’une démarche d’Appel d’Offre et de Proof-Of-Concept.

[Le marché] Se réinventer pour survivre

IBM, Informatica, TIBCO, Talend, Axway sont des grands noms de l’intégration parmi tant d’autres dans cet écosystème foisonnant.

Chacun propose une ou plusieurs solutions (IBM Datastage PX, IBM WebSphere TX, Informatica PowerCenter, TIBCO Business Works, TIBCO Mashery, Axway Amplify, …) pour couvrir tous les besoins d’intégration applicative des grandes entreprises.

Ces besoins ayant émergé successivement d’année en année, les DSIs ont lancé des programmes IT dont la résultante est un millefeuille de progiciels d’intégration différents, avec des recoupements fonctionnels et une multiplicité d’interfaces de conception / management / supervision / monitoring.

Autant dire que la simplicité et l’agilité ne sont pas au rendez-vous.

Ces solutions s’appuyaient sur une palette de connecteurs out-of-the-box mais surtout sur de grands bus d’entreprise monolithiques qui ont fait couler beaucoup d’encre (et sûrement de larme et de sueur). Cette architecture pouvait satisfaire les intégrations Ground to Ground au sein d’un même SI mais elle se confronte désormais :

La société Boomi, spécialisée initialement dans les échanges EDI, est l’instigatrice de ce nouveau mouvement iPaaS lancé en 2007. Rachetée par Dell en 2010, Dell Boomi truste la place de leader du marché.

Pour répondre à cette concurrence, les éditeurs historiques ont créé à leur tour des offres iPaaS sur la base de leurs solutions existantes. Simple rebranding ou véritable nouvelle offre ?

En parallèle de ces éditeurs bien ancrés, des acteurs born to be Cloud (à l’instar de Moskitos) apparaissent désormais dans le Magic Quadrant Gartner.

[Le concept] Une boîte à outils survitaminée

Bien malin celui qui pourra vous donner une définition unanime d’un iPaaS. Nous pouvons cependant la qualifier de plateforme d’intégration unifiée administrée dans le Cloud pour répondre simplement et facilement à tous les besoins d’intégration* : ETL, EAI/ESB, EDI, API, MOM, MFT.

Certaines offres affichent également des capacités autour du Master Data Management, du Workflow Management et du développement d’applications Web.

Un véritable couteau suisse de l’intégration en somme qui théoriquement pourra :

* Les éditeurs ne se cachent pas derrière ces grandes lignes et assument pleinement de ne pas offrir la même couverture fonctionnelle et le niveau de performance des solutions spécialisées (exemple : Dell Boomi MoM versus le bus SOLACE). Ce point n’est pas bloquant et sera totalement compensé par l’adoption d’une stratégie Hybrid Integration Platform (HIP) que nous détaillerons dans un second article.

[Architecture] Une architecture au goût du jour

En quête de simplicité de mise en oeuvre et d’agilité, les offres iPaaS trouvent leur essence dans les capacités offertes par le Cloud.

Cependant deux degrés de Cloudification s’opposent :

La plateforme SaaS est :

[Licensing] J’aurais bien besoin d’un FinOps

Le modèle de souscription annuelle “as-a-service” de ces plateformes offre bien des avantages mais également des difficultés lorsque vient la comparaison des différentes offres du marché.

Effectivement chacune s’appuie sur des métriques de licensing fines qui lui sont propres :

Quand d’autre facture pour la mise à disposition d’une typologie de plateforme (small, medium, large) peu importe le nombre d’applications connectées, peu importe le nombre d’utilisateurs développeurs/métiers et peu importe le nombre de flux processés. La métrique la plus restrictive est ici la volumétrie des données qui transitent par la plateforme Cloud.

Il saute aux yeux que le premier modèle sera difficilement prédictif :

Cette connaissance est néanmoins primordiale pour deux raisons :

Certains produits du marché sont une véritable révolution soit par leur approche, soit par leur maturité et simplicité d’utilisation. Un véritable atelier de génie logiciel vous permet au travers d’une plateforme centrale unifiée de réduire grandement la complexité de conception, de documentation, de déploiement, d’exécution et de monitoring de vos flux.

Un iPaaS pour les gouverner tous…

Un iPaaS pour tout concevoir…

Un iPaaS pour tous les traitements…

… Rien n’est moins sûr.

Le suspens reste entier jusqu’au prochain article qui présentera la vision stratégique du moment : l’Hybrid Integration Platform (HIP).

#ToBeContinued

Les autres articles qui peuvent vous intéresser

L’impact de la dette technique n’est pas qu’un problème de « Techos »

L’impact de la dette technique n'est pas qu'un problème de "Techos"

4 juin 2019

– 3 min de lecture

Julien Catelain

Consultant Senior Architecture

Souvent, on oppose la vision métier à la vision IT. Cependant, itérer des refontes de processus dans une optique d’optimisation, sans regard pour leur implémentation, revient à vouloir placer Lewis Hamilton dans une 4L : l’idée est bonne, mais il y a peut-être plus efficace.

Le premier impact de la dette technique, c’est la difficulté à faire évoluer les fonctionnalités de son système d’information.

Souvent, on prend des raccourcis en phase de cadrage pour des raisons budgétaires, de planning, ou tout simplement parce que l’on se dit que l’on fera mieux les choses plus tard… sans jamais le faire.

Cela entraine un manque de capacité à répondre aux besoins ultérieurs, notamment à tous ces nouveaux enjeux qui apparaissent régulièrement (par exemple, construire une vision 360 est compliqué sans une démarche référentiel maitrisée). Le SI devient une sorte de boulet au pieds du métier, qui l’empêche de s’adapter aux évolutions du marché. 
Certains chantiers sans valeur ajoutée métier, mais structurant pour les évolutions futures, ne peuvent pas être repoussé : c’est la notion de chantier « enablers ».
Ce point peut devenir particulièrement préoccupant dans le cadre de projet règlementaires (les différents chantiers issus de Bâle 2, ou les sujets LAB LAT sont de bons exemples, du fait des exigences en termes de qualité des données), ou dans des contextes ou l’agilité est vitale (le secteur du Retail, par exemple, où le déploiement d’une nouvelle fonctionnalité devient rapidement un enjeux critique vis-à-vis de la concurrence).

Le deuxième impact de la dette technique est l’image que l’on renvoie aux différentes parties prenantes externes à l’entreprise, mais aussi aux internes.

Une interruption de service due à un plantage nécessitant de redémarrer les environnements de production entraine une image très négative pour le client, qui peut entrainer un désengagement en cas de fréquence trop élevée (pensez à la dernière fois où votre connexion internet personnelle ne fonctionnait plus, et au stoïcisme dont vous avez su faire preuve à ce moment).
En interne, cela entraine un désengagement progressif des équipes, du fait de tâches répétitives à très faible valeur ajoutée, du sentiment de faire systématiquement des solutions dégradées, ou à la survenue fréquente d’incidents de production. Ces points génèrent de la frustration, dans le sens où ils donnent le sentiment que la qualité n’est pas le souci de l’entreprise (surtout lorsqu’on leur demande de prioriser un sujet, pour au final dénaturer le résultat de l’étude).
Si cela entraine un turn over dans vos équipes, le sujet est préoccupant. Si vous êtes en difficulté de recrutement, cela peut devenir critique, d’autant que les premières victimes du turn over sont les hauts potentiels, qui souhaitent être pilotés par la qualité et la richesse des sujets.

Le dernier impact de la dette technique que j’évoquerai dans cet article est budgétaire.

En effet, toute dette doit se rembourser un jour, et entraîne des coûts récurrents d’ici là. Cela va générer des coûts projets plus importants lors des évolutions, ou des actions humaines pour corriger des erreurs issues de ces dettes (par exemple, le rapprochement des chiffres comptabilité / gestion réalisé manuellement, faute de chaîne de traitement fiable).
N’oublions pas aussi ces applications dont le décommissionnement est acté, mais jamais terminé (ce qui entraîne de nombreux coûts, mais une augmentation significative de la complexité du SI du fait de la parallélisation des chaines).

Au final, cela se traduit par des coups de canif dans votre budget projet, sous forme de coûts de runs importants, ou de chiffrages projets plus importants que prévu (matérialisés par le classique « La DSI coûte trop cher »).

Il y a bien entendu beaucoup d’autres raisons qui devraient nous pousser à ne pas négliger la dette, cependant, ces 3 points sont des enjeux que l’on retrouve dans toutes les DSI : Agilité, Expérience utilisateur / qualité de service, et maîtrise budgétaire.

Dans un prochain article, nous allons parler de la gestion de la dette dans le cadre des projets Agile.

Retrouvez le premier article de la série :
Dette technique : 3 types et 3 approches pour la maîtriser

Les autres articles qui peuvent vous interesser

communication-connection-contemporary-261706

Lettre pour un CDO

Lettre pour un CDO

Votre objectif majeur en tant que Chief Data Officer est de mesurer et d’augmenter la valeur des données de votre Organisation.

15 mai 2019

– 2 min de lecture

Jean-Baptiste Piccirillo

Manager Transformation Data

Cher/Chère CDO,

Vous êtes probablement en train de mettre en place votre « Data Lake », « Data Hub » et autres « Data Labs ». A cet instant, nombreux sont les vendeurs autour de vous, briguant une place dans votre cœur…Ils peuvent tout changer ! Ils peuvent faire de vous un brillant Chief Data Officer…

« D’abord, Migrez toutes vos données dans le Cloud sans inquiétude, c’est là que vous trouverez nos outils magiques qui tirerons toute la valeur de vos données ! » Allez, avouez qu’il ne le disent pas comme ça, mais que ce n’est qu’à peine caricaturale. Une variante ? : « Si vous voulez être THE Data Driven Company, notre outil est fait pour vous. Et, il est justement tout à fait adapté et pensé pour votre métier et vos données. Alors Essayez-le. Nous avons même ce qu’il faut pour vos Data Scientist. Tout en un ! ». En changeant quelques mots de leur beau scénario, on ne serait pas si loin d’une pub pour dentifrice…

Je vous prie de ne pas répondre trop vite à ces « experts » de la donnée. De même, n’embauchez pas trop hâtivement une armée de jeunes « Data Scientists ». Ne leur dites pas qu’ils sont l’avenir et qu’ils vont construire des algorithmes des plus innovants, quand au final ils deviendront les rois des Dashboards à faire pour hier.

Votre seul objectif en tant que CDO est de mesurer et d’augmenter la valeur des données de votre Organisation. Et avant d’embaucher qui que ce soit, ou d’avoir le plus gros Data Lake avec le plus de données possible pour justifier l’existence de votre équipe, si vous commenciez par structurer deux approches : L’une par la valeur « Potentielle » de vos données, l’autre par sa valeur « Effective » :

Appréciez et faites comprendre aux acteurs de votre entreprise la valeur de son patrimoine data. Peut être, allez-vous à la salle de sport tous les jours, ou peut être faites vous votre petit jogging quotidien ? Les gens vous disent : « Tu as l’air en forme, tu es en bonne santé ! ». Et vos données sont-elles en bonne santé ? Qualité ? Disponibilité ? Sécurité ? Travaillez sur vos assets transversaux (Client, Produit, …), assurez-vous qu’a minima leur santé est assurée par une gouvernance adaptée. Sécurisez ce potentiel minimal. Documentez, explorez, améliorez la valeur intrinsèque de vos données clés, mettez à disposition des données à potentiel à vos analystes (via une plateforme adaptée : « Data Lake » ou autre !). Mais ne faites pas que ça, ou c’est la gueule de bois assurée.

Parce que ce sont les usages de la donnée qui concrétisent réellement sa valeur, dans le même temps, travaillez continuellement avec les métiers pour comprendre et répondre à leurs usages concrets des données, et améliorez les usages existants !

Et pas seulement les usages qui rendent heureux vos Data Scientists et vos vendeurs de dentifrices préférés. Vous devriez précisément connaître les usages actuels des données pour lesquels certains collaborateurs bondissent : « Cette donnée ne sert à rien ! Je ne peux pas faire mon travail ! Je perds un temps fou, tout est faux 🙁 » Et s’il vous plaît, faites quelque chose pour eux en priorité, rentrez dans leur quotidien et leurs moultes fichiers excel, et changez les choses car vous êtes responsable. Améliorez la valeur d’usage de vos données.

Cher CDO, acheter une belle plateforme dans le Cloud et embaucher quelques Data Scientists ne suffira malheureusement pas à améliorer la valeur de vos données. Avant toute chose, assurez-vous que votre organisation est bien fondée sur l’équilibrage de deux axes clés :

1/ transformez des usages à valeur ajoutée grâce aux données

2/ développez le potentiel de votre patrimoine data pourrait bien vous faire gagner du temps et de l’argent.

Cordialement,



N’hésitez pas à lire notre livre blanc qui approfondit ce sujet.

Parlons de votre projet !








    Les informations recueillies sur ce formulaire sont enregistrées pour pouvoir vous identifier et vous répondre. Plus d’informations concernant notre gestion des données sur notre page mention d’information.