CONTENEURS : NOUVEAUX DÉFIS, NOUVELLES EXPERTISES

Orchestration, supervision, sécurité… Pour les équipes IT, la transition vers les conteneurs ouvre de nouveaux chantiers. Qui revisitent les expertises requises.

Sur le front de la transformation du système d’information, les conteneurs représentent indéniablement le bras armé des démarches devops. Et pour cause, les conteneurs outillent trois principes fondateurs de devops :

  • la collaboration (tout le monde travaille sur les mêmes conteneurs),
  • l’automatisation (les API Docker automatisent différentes tâches de création, production, paramétrage)
  • et l’intégration continue (avec ses métriques et sa gestion des releases)

De quoi donner corps à la promesse du « continuous integration / continuous delivery » (alias « CI/CD »). À condition de relever quelques défis…

Défi #1 : Des clusters cloud au services serverless, de nouveaux environnements à maîtriser 

Sans surprise, tendre vers cette agilité suppose de répondre à de nouveaux défis. Le premier d’entre eux concerne l’organisation et les compétences : pour les équipes, les conteneurs – comme les microservices – représentent un véritable changement de perspective. Une nouvelle unité de base pour raisonner. Certes, le conteneur brise des silos mais il suppose aussi de repenser les rôles de chacun tout comme les microservices requièrent de nouveaux réflexes pour rester maître d’architectures dont le niveau de distribution (et de complexité) s’accroît.  

Le défi est de taille car il ne s’agit pas seulement de maîtriser les conteneurs mais aussi les environnements technologiques qui les accueillent. Et les possibilités sont… vastes. Les conteneurs peuvent être déployés sur l’infrastructure interne, directement sur des machines physiques, mais aussi sur des machines virtuelles, par exemple pour mieux les intégrer à des PRA (Plans de Reprise d’Activité). Étant donné leur portabilité, ils peuvent aussi être déployés dans le cloud, sur des serveurs virtuels loués, sur des clusters cloud orientés conteneurs ou encore sur des services dits « conteneurs serverless » à l’instar d’Azure Conteneur Instances ACI et d’AWS Fargate 

Défi #2 : Maîtriser la stack technologique des conteneurs 

Une certitude : quel que soit l’environnement retenu, les équipes doivent en maîtriser les technologies sous-jacentes, adapter leurs manières de travailler, s’équiper de nouveaux outils d’automatisation et de supervision. À défaut, le risque est grand de se voir débordé par la gestion de centaines, voire de milliers de conteneurs.  

Mirroring d’applications, continuité d’activité, équilibrage des charges, cycle de vie des conteneurs… Pour répondre aux enjeux du management des conteneurs, tout un écosystème de solutions s’est développé ces dernières années qu’il s’agit désormais de domestiquer. Si Kubernetes est devenu un standard de fait pour orchestrer les conteneurs, il compte des concurrents comme OpenShift  (Red Hat), Docker Swarm, Rancher, Mesosphere DC/OS ou encore Katello. Dans tous les cas, la gestion des conteneurs implique une montée en compétences sur ces plateformes qui ne peut s’opérer sur un claquement de doigts.  

Défi #3 : Repenser la sécurité pour des infrastructures conteneurisées.   

Nouvelle devise des architectures IT modernes, les conteneurs rebattent aussi les cartes de la sécurité du système d’information. S’ils sont totalement isolés les uns des autres, les conteneurs reposent tous, en revanche, sur un même système d’exploitation, un même Kernel qui possède ses propres vulnérabilités et failles de paramétrages.  

Voilà pourquoi certaines entreprises préfèrent déployer des conteneurs au sein de VM (autrement dit, encapsuler les conteneurs dans des VM) afin de profiter d’une meilleure isolation et donc d’une sécurité renforcée. Voilà pourquoi, aussi, Gartner conseille de recourir à un système d’exploitation aussi léger et durci que possible. Encore faut-il ne pas oublier que les conteneurs sont généralement déployés sur une infrastructure de gestion, typiquement un cluster Kubernetes, qui présente, lui aussi, ses propres vulnérabilités (intrinsèques ou issues de paramétrages mal maîtrisés).  

Assurer la sécurité d’une infrastructure à base de conteneurs suppose donc une véritable expertise. Si les conteneurs, aux côtés des microservices et des démarches devops sont bien des outils de la transformation digitale en cours, ils appellent eux-mêmes une transformation profonde des organisations IT. Et une conduite du changement dédiée.  

Serverless, du Caas au Faas

Le concept de serverless a le vent en poupe. Bien adapté aux containers, il réduit le déploiement à un simple clic, l’infrastructure CaaS (Container as a Service) du fournisseur de cloud se chargeant de provisionner tout l’environnement. 

Uautre paradigme serverlessémerge aussi aujourd’hui : le « Function as a Service » (FaaS). Dans ce modèle, les développeurs se « contentent » d’écrire le code des fonctions appelées au déclenchement des événements configurés sans avoir à programmer la plomberie qui normalement structure une application.L’approche FaaS permet d’assembler aisément et rapidement des fonctionnalités reliées entre elles par des API Gateways et des gestionnaires d’événements sans se préoccuper d’infrastructures, d’allocations de ressources, de problématiques de montée en charge ou encore de déploiement de containers. 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.