CASE STUDY:

Vaudoise Assurances met en place des microservices modernes avec Mirantis Kubernetes Engine

Retrouvez la version française ici.

Résumé

La Vaudoise avait besoin de l’agilité des microservices pour travailler avec des Systèmes anciens critiques. Avec Mirantis Kubernetes Engine, ils ont commencé par la simplicité de Swarm et ont adopté Kubernetes à leur rythme, tout en bénéficiant d’un support d’entreprise.

Company

Systèmes anciens, microservices modernes

Fondé en 1895, le Groupe Vaudoise Assurances dispose depuis très longtemps d’un département informatique. Comme de nombreuses institutions de longue date, le groupe utilise des systèmes hérités d’investissements qui remontent aux années 1970 et 1980.

« Ces systèmes transactionnels traitent les données de notre activité principale », explique Patrick Monbaron, ingénieur système. « Nous devons donc en prendre soin. » De plus, étant une entreprise d’assurance, l’équipe de la Vaudoise a dû opérer dans un environnement réglementaire strict.

Il était cependant nécessaire d’évoluer rapidement. Ils avaient besoin d’une infrastructure leur permettant de mettre rapidement en place des applications et des services modernes et évolutifs. Ces systèmes devaient en outre s’interfacer avec les systèmes existants.

Après avoir exploré différentes approches, la Vaudoise s’est adressée à Mirantis. Grâce à Mirantis Kubernetes Engine (MKE), plateforme à double orchestration offrant la puissance de Swarm et de Kubernetes, l’équipe de la Vaudoise a pu se mettre au travail et déployer rapidement des microservices. Ils ont utilisé Swarm pour commencer à travailler rapidement et facilement avec les conteneurs et l’orchestration. L’équipe a ensuite poursuivi avec l’adoption de technologies plus complexes telles que Kubernetes.

En route pour les conteneurs

« Cette évolution a changé la donne pour les développeurs »

Patrick Monbaron, ingénieur système à la Vaudoise

Les microservices ont permis aux développeurs d’utiliser des outils adaptés à leurs équipes et projets particuliers. Un microservice donné peut, par exemple, être écrit en Java, .NET, Python ou un autre langage. Une telle flexibilité était essentielle, car ces services avaient un large éventail de tâches à accomplir. Ils devaient fréquemment communiquer avec les anciens systèmes via une API. Ils devaient mettre les données à disposition sur les front-ends pour toute une variété d’utilisateurs, des actuaires aux clients en passant par le personnel de l’entreprise.

L’équipe de la Vaudoise a commencé par utiliser des machines virtuelles (VM) pour ajouter des microservices à ses systèmes. Les VM ont fonctionné pour certaines applications, mais l’équipe s’est rapidement heurtée à des limitations.

« Sur les VM, les microservices sont en concurrence pour les ressources », explique Patrick Monbaron. « Un problème avec un microservice affecte les autres. Pouvoir construire et héberger des microservices sur une plateforme réellement adaptée a été d’une grande aide pour les développeurs. »

L’équipe de la Vaudoise a donc commencé à explorer les conteneurs. En 2019, ils ont intégré leurs systèmes sur site à ce qui était à l’époque Docker Enterprise, aujourd’hui Mirantis Kubernetes Engine.

« Avec les conteneurs, nous avons une isolation garantie des charges de travail », explique Patrick Monbaron. « Nous pouvons affecter des ressources à chaque charge de travail. Même si l’une de ces ressources tombe en panne, les autres restent opérationnelles. C’est ce qui a changé la donne pour les développeurs. Ils peuvent se concentrer sur chaque charge de travail et savoir qu’elle n’affectera pas les autres. C’est un avantage en termes de stabilité. Le délai de mise à disposition est plus rapide. Nous provisionnons des configurations et non des VMs. »

Selon Nicolas Herzog, ingénieur système, la transformation est impressionnante. « À l’époque, nous devions fournir un serveur à haute disponibilité pour chaque application, y compris pour chaque environnement. Il nous fallait des jours. La situation a totalement changé. Un seul environnement prend une demi-journée. Quelques heures. Nous sommes passés de quelques jours à quelques heures. »

Une courbe d’apprentissage simple

Pouvoir bénéficier d’un support d’entreprise était important pour l’équipe de la Vaudoise. C’est pourquoi ils ont déployé des conteneurs sur Mirantis Kubernetes Engine. « Nous bénéficions d’une assistance assez rapide », estime Laurent Demierre, ingénieur système, « même pour les demandes peu prioritaires »

Mais la fonctionnalité de double orchestration de Mirantis Kubernetes Engine (MKE) est tout aussi importante que cette assistance. Elle leur permet d’orchestrer les conteneurs à la fois via Swarm et via Kubernetes.

« Nous avons commencé avec Swarm pour simplifier la courbe d’apprentissage », explique Patrick Monbaron. « Swarm nous a permis une prise en main rapide, sans toute la complexité de Kubernetes. C’était important. Nous avons maintenant des développeurs compétents en Kubernetes et nous sommes ravis de construire Kubernetes sur site avec MKE. C’est notre objectif pour cette année : tirer parti de Kubernetes. »

Pour l’avenir, l’équipe de la Vaudoise prévoit de développer des services cloud et SaaS et compte pour cela utiliser un cloud hybride. « Bien sûr, nous continuerons à héberger des données dans notre centre de données », déclare Patrick Monbaron. « Nous ne pourrons pas faire migrer nos données historiques dans le cloud. Sur site, nous continuerons à utiliser Swarm et Kubernetes. »

Le Challenge

  • La société avait besoin d’une plateforme d’entreprise pour le développement de microservices modernes, avec interface vers les systèmes existants et courbe d’apprentissage simple.

La Solution

  • Mirantis Kubernetes Engine, avec un support d’entreprise et une fonctionnalité de double orchestration pour exécuter Swarm et Kubernetes.

Les Résultats

  • Déploiements en quelques heures et non quelques jours. L’équipe est maintenant expérimentée avec Swarm et prête à étendre l’utilisation de Kubernetes.

Additional Case Studies