Sourcing et transformation

DSI : réussir le renouvellement de vos contrats d'infogérance

Réussir le renouvellement de ses contrats d’infogérance nécessite anticipation et préparation dans le cadre de bons choix stratégiques et tactiques plus ou moins collaboratifs vis-à-vis du marché. Ces choix sont systématiquement fonctions de l’analyse de la relation client-fournisseur et des besoins non couverts.

19 octobre 2020

– 3 min de lecture

Les DSI sont systématiquement confrontés, à l’approche de l’échéance de leurs contrats d’infogérance et/ou dans le cadre de situations exceptionnelles à la question des modalités de renouvellement / prolongation de leurs contrats et ce si possible bien avant l’arrivée à échéance.

Sur la base de l’expérience de ces situations et de nombreuses missions de conseil, je recommande (1) de bien prendre conscience des différents niveaux d’attente qu’une DSI peut avoir face à aux infogérants, (2) conduire des revues d’évaluation et de dynamisation à mi-contrat, (3) choisir et s’impliquer – le cas échéant – dans les stratégies de remédiation, renégociation ou remise en compétition.

Qu’attendre de vos infogérants ?

Je pense qu’il est important que les deux parties soient attentives à un certain nombre d’attributs de la relation et ce dans un ensemble de dimensions qui se consolident dans la durée. Ce n’est qu’à ce prix que les conditions d’un partenariat peuvent se développer et se maintenir, saisons de renouvellements après saisons.

infogérants

Conduire des revues d’évaluation et de dynamisation à mi-contrat

Il s’agit d’impliquer des équipes externes au contrat (mais pas forcément des consultants extérieurs) afin d’évaluer l’état des réalisations, le niveau de performance, la perception utilisateurs ainsi que l’évolution des besoins depuis le démarrage ainsi que les moyens qui ont concrètement été mis en œuvre pour y répondre.

Bien que ces revues puisse être mal accueillies par les infogérants et/ou perçues comme « hostiles », dérangeantes ou voire même inutiles, ce type d’analyse de la situation à mi-parcours apporte cependant les bénéfices suivants :

Opter pour les bonnes stratégies de fins de contrats

Les décisions de « renouvellement » qu’une DSI doit prendre dans le cadre de ses contrats existants ne sont pas si simples car elles nécessitent une évaluation précise des situations selon que ces contrats donnent ou pas satisfaction ou bien qu’ils arrivent prochainement à échéance.

Cas n°1 : une DSI dont le contrat ne répond plus aux attentes ou dont l’exécution ne donne pas satisfaction se posera les questions suivantes : comment en est-on arrivé là ? Que devons nous faire pour adresser les causes profondes de cette situation ? Est-ce le moment de renégocier le contrat ? Est-ce le moment de remettre ce contrat en compétition ? Devrions-nous collaborer avec notre fournisseur pour améliorer la performance rendue et la relation de travail ?

Cas n°2 : une DSI dont le contrat arrive prochainement à échéance se posera les questions suivantes : devrions-nous renouveler ce contrat ou bien le renégocier avec notre fournisseur actuel ? Devrions-nous ouvrir ce contrat à d’autres fournisseurs potentiels dans le cadre d’une remise en compétition ?

Quelle que soit la situation, l’objectif stratégique de la DSI sera de maximiser la valeur ajoutée de son contrat. Trois stratégies, de la plus collaborative à la plus compétitive, sont possibles afin de remettre sur la bonne voie, un contrat qui en aurait dévié et/ou pour bénéficier d’innovations techniques ou organisationnelles non disponibles (ou envisagées) à la signature du contrat initial :

Ces stratégies pourront, selon les cas, s’enchaîner et se combiner tout au long du cycle de vie du contrat.

cloud-computing-vs-edge-computing

Edge computing vs cloud computing, deux modèles complémentaires ?

Edge computing versus cloud computing, deux modèles complémentaires?

2 septembre 2020

– 6 min de lecture

Architecture

Mohammed Bouchta

Consultant Senior Architecture

Pendant la dernière décennie, nous avons assisté à la montée en puissance du Cloud Computing dans les nouvelles conceptions d’architecture SI.

Sa flexibilité faisant abstraction de la complexité des infrastructures techniques sous-jacentes (IaaS, PaaS) et son mode de facturation à la consommation (Pay as you go) étaient des atouts suffisants pour convaincre les premiers clients. Mais c’est surtout le développement d’un nombre important de nouveaux services innovants avec une grande valeur ajoutée qui a mené la plupart des entreprises à adopter le Cloud. C’est ainsi par exemple que la grande majorité des entreprises ont pu expérimenter le Big Data, le Machine Learning et l’IA sans avoir à débourser des sommes astronomiques dans le matériel approprié en interne.

Le Cloud a facilité également le développement du secteur de l’IoT, ces objets connectés dotés de capteurs qui envoient leurs données régulièrement à un système central pour les analyser. En effet, le Cloud a fourni une panoplie de services pour absorber toutes les données collectées et une puissance de calcul importante pour les traiter et les analyser.

Cependant, le besoin de prendre des décisions en temps réel sans être tributaire de la latence du Cloud et de la connectivité dans certains cas, donne du fil à retordre aux experts lorsque les sources de données commencent à devenir extrêmement nombreuses.

Ainsi, d’autres besoins beaucoup plus critiques ont émergé en lien avec l’utilisation des objets connectés qui nécessitent des performances importantes en temps réel, et ceci même en mode déconnecté. Nous pouvons le constater par exemple dans les plateformes pétrolières en mer, les chaînes logistiques ou les véhicules connectés qui nécessitent une prise de décision locale en temps réel alors que le partage des données sur le Cloud permettra de faire des analyses plus globales combinant les données reçues, mais sans exigence forte sur le temps de traitement.

Ce sont ces contraintes et d’autres encore comme la sécurité des transmissions et la gestion de l’autonomie, qui ont donné naissance à un nouveau paradigme d’architecture, celui du Edge Computing.

Gartner estime que d’ici 2025, 75% des données seront traitées en dehors du centre de données traditionnel ou du Cloud.¹

Que signifie le edge computing exactement ?

À l’opposé du Cloud Computing qui tend à déplacer tous les traitements dans le Cloud, le Edge Computing vise à rapprocher la puissance de calcul, le stockage et les applications de l’endroit où la donnée a été créée. Cela permet  ainsi de pallier les problèmes de connectivité, de latence et les risques liés à la sécurité.

Avec le Edge Computing, l’analyse des données peut se faire directement sur le périphérique qui les a générés, comme par exemple les smartphones ou les objets connectés qui ont des ressources suffisantes. Si l’objet connecté est limité en ressources de calcul, de stockage, de connectivité ou d’énergie, comme dans la majorité des cas, alors c’est une passerelle IoT équipée de ces capacités, qui prend en charge la collecte, la transformation, l’analyse des données et la prise de décision / action.

Cette décentralisation du stockage et du traitement des données permet de répondre aux exigences de la prise de décision en temps réel.

Prenons l’exemple de la voiture autonome dans une situation de danger imminent, nous devons envoyer la globalité des données des capteurs sur un Cloud pour les analyser et attendre que le Cloud renvoie à la voiture les directives à suivre pour éviter l’accident. Même avec toute la puissance de calcul du Cloud, le temps de latence imposé par le réseau peut mener à la catastrophe. Alors qu’avec une analyse des données et une prise de décision locale, en temps réel, la voiture aura une chance d’éviter l’accident.

Ou l’exemple d’une machine dans une chaîne de production qui doit adapter sa vitesse d’action par rapport à plusieurs facteurs environnants qui proviennent des appareils de la chaîne. L’utilisation du Edge Computing au niveau de la Gateway IoT (passerelle) permet de récupérer les données nécessaires des périphériques locaux pour analyser et ajuster la vitesse de la machine en conséquence sans avoir à passer par le Cloud.

L’autre atout majeur du Edge Computing est sa résilience. Le système local peut continuer à fonctionner même s’il y a une défaillance majeure dans le Cloud, dans le réseau ou sur d’autre branche du système.

Toutefois, il ne faut pas croire qu’il est simple de mettre en place ce type d’architecture, bien au contraire. En effet, nous revenons à une architecture distribuée qui nécessite des appareils avec des ressources plus importantes (donc plus chères) et souvent avec des technologies hétérogènes qui doivent s’interfacer ensemble pour communiquer, ce qui complexifie l’administration et la maintenance. Aussi, en stockant les données en local, le problème de sécurité des données est déplacé vers les périphériques qui les stockent. Que ce soient les objets connectés ou la Gateway IoT, ces appareils peuvent être accessibles physiquement et sont donc plus vulnérables à un piratage. Ces périphériques devront se doter d’une politique de sécurité accrue pour s’en prémunir.

Ce changement d’approche a ouvert des opportunités pour les fournisseurs de télécommunications qui développent de nouveaux services liés à la 5G, à l’IoT et à d’autres technologies. Il a poussé les différents acteurs du marché à innover pour proposer des offres plus adaptées au Edge Computing. C’est ainsi que les leaders en matériel informatique comme Cisco, Dell EMC et HP par exemple ont tous mis sur le marché des produits dédiés à ce type d’architecture. Les géants du Cloud ont aussi réagi en force à cette tendance avec une palette de services qui peuvent s’étendre jusqu’aux périphériques connectés pour agir localement sur les données.

D’autre part, les avancées technologiques en matière de microcontrôleurs toujours plus miniaturisés, puissants et avec une consommation réduite de l’énergie, ont permis de faire de l’IA embarquée dans les objets connectés afin d’être plus rapide et efficace dans la prise de décision.

Vers la fin du cloud computing ?

Absolument pas ! Le Cloud a encore de belles années devant lui. En réalité, les deux solutions sont complémentaires et c’est le type de traitement nécessaire, le temps de réponse attendu et les exigences de sécurité qui vont déterminer ce qui doit être traité au niveau du Edge et ce qui doit être envoyé vers le Cloud. 

cloud schéma


Si nous reprenons le cas de voiture connectée, le Cloud va permettre d’agréger les données envoyées par toutes les voitures afin de les traiter, de les comparer et de faire des analyses approfondies pour optimiser les algorithmes de conduite et le modèle IA à déployer comme nouvelle version du programme embarqué dans les voitures connectées.

En combinant le potentiel de collecte et de l’analyse en temps réel des données du Edge Computing avec la capacité de stockage et la puissance de traitement du Cloud, les objets IoT peuvent être exploités de façon rapide et efficace sans sacrifier les précieuses données analytiques qui pourraient aider à améliorer les services et à stimuler l’innovation.

En conclusion

Il est peu probable que l’avenir de l’infrastructure réseau se situe uniquement dans le Edge ou dans le Cloud, mais plutôt quelque part entre les deux. Il est possible de tirer la meilleure partie de leurs avantages respectifs. Les avantages du Cloud Computing sont évidents, mais pour certaines applications, il est essentiel de rapprocher les données gourmandes en bande passante et les applications sensibles à la latence de l’utilisateur final et de déplacer les processus du Cloud vers le Edge. Cependant, l’adoption généralisée du Edge Computing prendra du temps, car le processus de mise en œuvre d’une telle architecture nécessite une expertise technique approfondie.

En fin de compte, vous devez toujours commencer par bien cibler les usages, les exigences et les contraintes de votre système pour choisir la bonne architecture.

DSP2-et-OpenBanking-table-ronde-API

Dsp2 et openbanking, conclusion de la table ronde api

Dsp2 et openbanking, conclusion de la table ronde api

2 janvier 2020

– 3 min de lecture

Eric Richard

Directeur Paiements & Cash Management

Petite synthèse à chaud des débats de la table ronde organisée par le GT RED (Groupe de Travail Règles, Evolutions & Déploiements) du France Payments Forum. Le thème « Bilan des API DSP2 » était d’actualité quelques semaines après le 14 septembre.

2 heures d’échanges fournis et directs (la règle avait été partagée : « on est là pour se dire les choses… ») entre :

animées par Ludovic VATHELOT (TREEZOR). 

Emmanuel NOBLANC (SAB) avait démarré avec une KeyNote pour poser le contexte.

J’avais la charge de restituer une synthèse pour conclure…

Que retenir à chaud, à la fin des débats ? 

A défaut d’une analyse posée, j’ai surtout retenu la différence de ton entre les échanges sur :

Pour commencer, il était utile de rappeler que TPP et ASPSP ont plus en commun que la DSP2 ne le laisse voir : les ASPSP sont aussi des TPP ! Chacun a d’ailleurs noté le caractère schizophrénique de cette double posture des ASPSP :

Ceci dit, les acteurs ont largement souligné les difficultés rencontrées dans la mise en œuvre des RTS, avec un constat unanime de progrès significatifs depuis le 14 septembre, mais encore aucune utilisation opérationnelle significative des API déployées. Les obstacles sont multiples :

Et puis, l’illustration de différents parcours utilisateurs et la projection sur les cas d’usage nous ont projeté dans une autre dynamique d’échange, où l’on parlait de :

Le miroir était franchi

Au final, c’est bien le consommateur qui validera les meilleures offres !

Il faudra donc encore du courage et de la ténacité pour atteindre la conformité à la DSP2, mais la perspective nous projette déjà plus loin, avec un nouvel élan !

But still, it’s a long way… Un chemin que notre Groupe de Travail au France Payments Forum poursuivra et auquel vous êtes invités à contribuer si vous le souhaitez. 

A très bientôt pour un autre événement sur le même thème !

Les autres articles qui peuvent vous intéresser

gestion portefeuille client

La gestion du portefeuille client sert l’alignement stratégique

La gestion du portefeuille client sert l'alignement stratégique

1 juillet 2019

– 5 min de lecture

Karl Berard

Consultant Pilotage Projets & Produits

Tels des escadrons de cavaliers des temps modernes, les cellules PMO assistent les Dirigeants et directeurs comme le faisait en son temps les aides de camp de Napoléon et de ses maréchaux. Le contexte et les conditions ont évolué mais les exigences de visibilité et de coordination entre objectifs, ressources et contingences restent d’actualité.

De longue date, nous savons que les directions œuvrent à la transformation de l’entreprise en anticipant plus qu’en réagissant aux menaces et opportunités qu’elles rencontrent. Pour ce faire, elles gèrent leurs activités d’exploitation et d’investissement pour créer de la valeur. Les attentes sont distribuées dans toutes l’organisation (à la fois verticalement et horizontalement). Historiquement les directeurs de programmes dans les directions SI et plus récemment les directions métiers, ont mis en œuvre et développé les techniques et pratiques de Gestion de Portefeuille Projets. Chacun, à son niveau, y recherche des moyens d’optimiser ses ressources avec le souci d’obtenir la valeur et plus classiquement de satisfaire les intérêts de l’entreprise.

Un rôle déterminant pour les organisations

Plus aucun secteur d’activité économique n’est exempté de devoir gérer et maîtriser finement ses finances et l’utilisation de ses ressources. L’optimisation de l’allocation des investissements implique une attention toute particulière sur l’alignement stratégique du portefeuille de projets. Issue de ces investissements, le portefeuille de projets exige à son tour un pilotage pour évaluer son contenu. Ici, il n’est plus question de contraindre les chefs de projets à se conformer à un travail administratif, mais de leur fournir les outils à même de les aider à concrétiser la valeur du travail de leurs équipes et en apporter la visibilité à leurs responsables.

La responsabilité de la cellule PMO est à la fois d’analyser et de surveiller la matérialisation de la valeur des engagements pris par les projets. Il importe pour l’entreprise de la pérenniser en formalisant et en aidant la direction à décider à partir d’éléments factuels et qualitatifs via le pilotage dans le temps de la valeur du portefeuille des projets. 

Quel que soit le niveau de rattachement de la cellule PMO, elle agit au cœur d’un réseau de relations humaines. Elle est à la croisée des préoccupations des différents responsables de l’entreprise. Son influence dans les relations est à la fois directive et collaborative, toujours dans le souci de servir la stratégie de l’entreprise. Chaque cellule occupe un positionnement transverse qui lui permet d’assurer une fonction qui cumule des responsabilités d’analyse, de gouvernance, et d’administration des données du portefeuille avec ou sans outils.

Elles ont pour rôle de planifier, créer, évaluer, soumettre à arbitrage les projets/programmes dans le portefeuille et de communiquer sur les priorités du portefeuille et les informations d’état des investissements en cours. Ce positionnement vise à l’obtention de la valeur des projets. Essentiellement active dans les instances et travaux de consolidation, elles font face à des exercices d’influence qui peuvent s’apparenter à du lobbying pour maximiser les affectations des directions et ce parfois au détriment des objectifs stratégiques.

Un dispositif garantissant la bonne conduite des projets

La conduite des activités PMO comprenant la planification, le contrôle et le pilotage du portefeuille implique du responsable qu’il définisse le dispositif d’évaluation en continu de son portefeuille. Elle inclue d’Accompagner les managers et les opérationnels des projets de transformation dont ces derniers ont la responsabilité. Ces activités visent à développer les capacités de l’organisation à garantir la maîtrise des projets tout au long de leur déroulement. Ces capacités sont essentielles pour porter une vision consolidée et ordonnée du portefeuille qui permet à la fois à la direction d’agir et réagir de façon approprié, mais aussi d’atteindre un meilleur alignement stratégique avec les métiers et fonctions transverses de l’entreprise.

La cellule PMO porte également une responsabilité de performance du portefeuille face à la complexité des projets à conduire. En effet, les besoins, les contraintes, contingences et dépendances émergent de toutes parts touchant tout autant le patrimoine organisationnel que le portefeuille IT. Pour cela, il lui incombe de produire une représentation de la performance du dispositif, toujours dans la perspective de concrétiser la valeur attendue des projets. Ce travail de formalisation des pratiques à mettre en œuvre et des données à analyser participe à la rationalisation des prises de décision.

Enfin dans certaines circonstances, le dispositif peut inclure la coordination Fonctionnelle/Technique des adhérences et des dépendances qui apparaissent entre les projets.

En complément, face à la multiplication des sources de données et de leur traitement en masse, la cellule PMO dispose d’un référentiel de données stratégiques pour l’entreprise. Les solutions PPM sur le marché répondent toutes à deux enjeux que sont l’amélioration de l’efficience opérationnelle recherchée (allègement du coût d’exploitation des applications et aide à la prise de décision documentée) et l’amélioration de l’efficacité organisationnelle (partage de l’information entre les entités et directions). L’apport initial de ces solutions reste l’industrialisation des activités de gestion de projet essentiel à l’amélioration de l’engagement des projets à mener.
Ces solutions ouvertes sont à même de couvrir les exigences de complétude, de qualité, de cohérence et de disponibilité des données quel que soit le modèle organisationnel mis en œuvre.

Un maillon majeur pour gérer incertitude et complexité

Dernière prérogative de la cellule PMO, œuvrer à réduire le niveau d’incertitude attaché aux projets qui compose le portefeuille. Pour cela, son positionnement transverse dans l’organisation en fait le relais idéal du développement d’une culture de la gestion des risques. Toutes les activités évoquées dans le champ de la Gestion Portefeuille Projets visent à appréhender les différentes formes d’incertitude et de complexité auxquelles les programmes et directions peuvent se trouver confrontées. Réduire l’incertitude implique à tous les acteurs de poser et d’accepter de reprendre les hypothèses pour les adapter aux circonstances rencontrées.

De son côté la complexité croissante des enjeux à servir est source de contradictions au sein de l’entreprise. Elle impose à la cellule PMO de rompre les silos organisationnels et de faire preuve d’empathie envers ses parties prenantes pour parvenir à tisser des liens entre acteurs, entités, et disciplines. C’est à elle qu’il revient de multiplier les points de vue à même de relier les idées nécessaires aux décideurs.

Après plusieurs années d’accompagnement sur ces sujets, nous avons forgé des convictions fortes dans ce domaine d’intervention :

Son crédo en somme : « Bien faire le travail pour faire du bon travail ».

Les transformations de l’entreprise impliquent rapidement un nombre importants de directions, une multitude de collaborateurs, internes ou externes. Les dépendances entre tous ses acteurs vont croissant et sont changeantes.
Comme du temps des épopées Napoléoniennes, lorsque les aides de camp sur le champ de bataille avaient un rôle déterminant dans la victoire, la GPP, est aujourd’hui une activité essentielle pour toute direction moderne.

nouvelle-répartition-paiement-aide-sociale

DSP2 : les banques sont-elles en retard ?

DSP2 : les banques sont-elles en retard ?

19 juin 2019

– 3 min de lecture

Agnès Cheval

Si la mise en place de la DSP2 semble prendre l’apparence d’une querelle entre anciens et modernes – les banques contre les fintech – la réalité s’avère plus complexe…

Ouvrir à des tiers l’accès aux données et à l’initiation de paiement pour stimuler la concurrence tout en consolidant la sécurité des paiements. C’est l’ambition de la DSP2 (directive européenne sur les services de paiement) entrée en vigueur en janvier 2018 et dont la mise en œuvre est jalonnée par de grandes étapes définies dans les normes techniques et réglementaires (aussi appelées RTS), notamment sur les interfaces d’accès (API) et l’authentification forte.

Une première échéance est tombée le 14 mars 2019, date à laquelle les banques devaient avoir déployé un portail d’API afin de mettre à disposition la documentation et un bac à sable permettant aux TPP (Tiers Prestataires de Paiement) de les éprouver. Une autre suivra le 14 septembre 2019 avec l’ouverture officielle des APIs de production. Dans le contexte de tension entre fournisseurs d’API (teneurs de comptes) et consommateurs (nouveaux acteurs), cette échéance a relancé le débat sur la capacité des banques à respecter le calendrier…

La DSP2, une transformation lourde à marche forcée

Dans ces débats, un même coupable est souvent pointé du doigt : les banques. Qui complexifieraient la sécurité ou encore publieraient des API bien trop partielles pour être exploitables. La réalité est un peu plus… complexe. Et les enjeux ne peuvent se résumer à une querelle entre les anciens (les banques installées) et les modernes (les acteurs de la fintech). Rappelons que la DSP2 est un sujet plutôt nouveau, qui concerne « juste » la sécurité des paiements et la protection des données du client. Et comme pour toute transformation lourde, les acteurs impliqués découvrent en marchant les clarifications qui doivent encore être apportées.

Oui, les différents textes, de la directive aux RTS, ont bien posé des fondamentaux. Trois catégories ont été définies pour les fameux TPP (Tiers Prestataires de Paiement), des agrégateurs de comptes aux initiateurs de paiement en passant par les émetteurs de moyens de paiement.

Des obligations pour les tpp et les banques

Pour entrer dans le jeu, ces TPP doivent remplir des conditions : obtenir un agrément auprès d’une autorité nationale, un certificat (dit « eIDAS ») auprès d’une autre autorité ou encore renoncer (quand des API sont disponibles) au webscraping. Pour rappel, cette technique consiste à collecter les données à partir des sites de banque en ligne, en utilisant les identifiants et mots de passe des clients. Les banques pour leur part doivent respecter le calendrier de déploiement et mettre à disposition les API de production pour les trois catégories de TPP le 14 septembre prochain après avoir mis en ligne, en mars dernier, bac à sable (sandbox) et documentation. 

Si les règles du jeu et le calendrier sont là, que manque-t-il ? Nous pourrions résumer en disant « des délais plus cohérents et des modalités plus précises ». À défaut, pour les TPP comme pour les banques, la route manque de lisibilité.

Quelques exemples pour comprendre :

Gageons justement que cette expérience client, un peu perdue de vue au fil des textes réglementaires, devrait s’imposer comme l’alpha et l’oméga des discussions à venir. Et comme un objectif commun à l’ensemble des acteurs. Parce que chacun a autant à perdre qu’à gagner. Parce que, aussi, cette expérience dépend de business modèles à caler de part et d’autre.

Une certitude : la DSP2, sujet restructurant à l’échelle bancaire, appelle des investissements lourds dans des délais serrés. Et seule la coopération permettra à chacun d’y trouver des bénéfices – et pas seulement financiers –, en apportant au client final, les nouveaux services fluidifiant le paiement dans son parcours utilisateur.

Les autres articles qui peuvent vous intéresser

email detox

Email detox: et si on apprenait à se déconnecter ?

Email detox : et si l'on apprenait à se déconnecter ?

1 août 2018

– 2 min de lecture

Séverin Legras

Directeur Agilité, Projets & Produits

Dans les métiers du digital (et presque partout ailleurs), nous sommes tous un peu accros à nos emails.

65% des salariés consultent leurs emails toutes les 5 minutes.

Les salariés consacrent en moyenne 28% de leur temps à traiter leurs emails … et 19% supplémentaires à chercher et rassembler l’information pour traiter leurs emails. Cela représente 28h par semaine pour les travailleurs de la connaissance.

L’impact sur l’économie américaine est estimé à 588 milliards de $ par an (source : Trésor Américain), et à 1 milliard de $ pour Intel.

Cette addiction aux emails est nourrie par :

Les toilettes sont la cause n°1 de perte de smartphone.

Apple

Quelques conseils pour reprendre le contrôle et maîtriser cette addiction ?

Alors à la veille des vacances, pourquoi ne pas se fixer un challenge « 0 connexion » pendant 2 semaines ?

Et pour la rentrée, mettre en pratique quelques-uns de ces conseils. C’est à vous de décider vos moyens d’interactions avec vos appareils, pas l’inverse.

Les autres articles qui peuvent vous intéresser