Logo

Le Blog Digital

Icone de temps 11 min de lecture

Optimiser l'infrastructure as Code : Tendances et innovations pour les développeurs

Image de l'article

Netinq AI

Assistant IA du blog digital

Image de l'article
Arrière-plan

Bienvenue dans cette revue hebdomadaire dédiée au cloud !
Chaque semaine, nous analysons et synthétisons les actualités, tendances et évolutions majeures du cloud en nous basant sur diverses sources de référence : blogs spécialisés, forums, réseaux sociaux et publications techniques.

Que vous soyez passionné par Terraform, Pulumi, AWS CDK, Kubernetes ou d'autres outils IaC, ce résumé vous offre un condensé des informations essentielles pour rester à jour.

Avertissement : Contenu généré par IA avec MistralIA
Cet article a été généré automatiquement à l'aide d'une intelligence artificielle. Bien que nous nous efforcions d'assurer l'exactitude des informations, des erreurs ou imprécisions peuvent subsister.

Si vous constatez une erreur ou souhaitez signaler un problème, n'hésitez pas à me contacter :
Email : pro@sarquentin.fr
LinkedIn : Quentin Sar

Le résumé de la semaine

  • Self-service developer avec Terraform et Waypoint : Découvrez comment HCP Waypoint aide les équipes plateformes à mettre en place des workflows self-service complets pour les développeurs.
  • Le parcours Terraform de Moneybox : Explorez les cinq leçons clés tirées de la transition de Moneybox de Terraform Community Edition à HCP Terraform.
  • Création de propositions de conférences avec GenAI : Apprenez à utiliser GenAI pour rédiger des propositions de conférences tout en conservant votre voix et votre expérience personnelles.
  • 100 Golden Kubestronauts : Célébrez l'atteinte de 100 Golden Kubestronauts, un témoignage de la croissance et de l'engagement de la communauté cloud native.
  • KCD SF Bay Area : Rejoignez la communauté cloud native à l'événement inaugural KCD SF Bay Area pour des conférences inspirantes et des ateliers pratiques.
  • 100 jours de kagent : Fêtez les 100 jours du projet kagent, un framework d'IA agentique pour les opérations cloud native, et découvrez ses applications innovantes.
  • Optimisation du swap Linux pour Kubernetes : Plongez dans les paramètres clés du noyau Linux pour optimiser le comportement du swap et améliorer les performances des clusters Kubernetes.

Automatisation des workflows pour les développeurs avec Terraform et Waypoint

Les équipes plateformes et leurs défis

Les équipes plateformes jouent un rôle crucial dans la fourniture de services, de composants et d'outils réutilisables pour la livraison d'applications. Elles codifient des modèles d'application et d'infrastructure validés, les publiant sous forme de modules réutilisables. Cela permet aux développeurs de déployer rapidement leurs applications sans passer par des processus de revue lourds.

Pourquoi choisir Waypoint ?

Waypoint offre une flexibilité tout en respectant les meilleures pratiques organisationnelles. Il s'intègre avec divers systèmes pour fournir une expérience unifiée aux équipes d'applications sans remplacer ce qui fonctionne déjà. Waypoint permet également de gérer les dépendances des applications, comme MySQL, MongoDB, Redis et Kafka, en orchestrant une couche self-service au-dessus de Terraform.

Création d'un workflow self-service EKS avec Terraform et Waypoint

Un exemple concret illustre comment une équipe peut créer un workflow self-service pour ses développeurs. Cela implique plusieurs étapes, notamment la création de crédentiels et d'un environnement sandbox avec HCP Terraform, le bootstrap d'un cluster EKS et la configuration globale, la création de modules no-code pour de nouvelles applications, et la création de modèles HCP Waypoint pour ces modules.

Surveillance des changements dans HCP Terraform

Même lorsque les développeurs restent dans Waypoint, chaque application qu'ils créent à partir d'un modèle apparaît comme un workspace et une exécution dans le projet HCP Terraform. Cela permet aux équipes plateformes de surveiller les changements et de maintenir une visibilité complète.

Modifications dans HCP Waypoint

Les applications évoluent, et les équipes ont besoin de moyens sûrs pour mettre à jour ce qui est en cours d'exécution sans impliquer un ingénieur plateforme à chaque fois. Waypoint offre deux chemins pour cela : les add-ons pour l'infrastructure de support et les actions pour les opérations contrôlées.

Leçons tirées du parcours Terraform de Moneybox

Commencer simplement, mais savoir évoluer

Terraform Community Edition (CE) était le bon choix pour Moneybox au début. Cependant, à mesure que l'entreprise et son infrastructure ont grandi, ces pipelines sont devenus fragiles et chronophages à maintenir. Le passage à HCP Terraform a permis de remplacer ces scripts maison par une intégration VCS gérée et des déclencheurs de runs automatisés.

Concevoir l'infrastructure pour l'échelle

Lorsque Moneybox a commencé, toute son infrastructure vivait dans seulement deux racines Terraform : une pour les environnements de test et une pour la production. Cela fonctionnait bien pour une petite équipe, mais à mesure qu'ils ont évolué vers environ 90 workspaces et une équipe de 75 ingénieurs, cette configuration est devenue ingérable dans Terraform CE.

Construire une infrastructure fiable et en libre-service

Au début, Moneybox gérait tout son code Terraform dans un seul dépôt où les experts pouvaient gérer la plupart des changements. À mesure que de plus en plus d'équipes ont commencé à utiliser Terraform, deux groupes sont apparus : un petit groupe d'experts qui pouvaient résoudre les problèmes et effectuer des changements complexes, et un groupe beaucoup plus large d'ingénieurs qui n'utilisaient Terraform que occasionnellement et se retrouvaient souvent bloqués.

Intégrer la gouvernance dans les workflows

En tant qu'entreprise de services financiers régulée, Moneybox avait besoin d'une manière de répondre à des questions difficiles des régulateurs sur la manière dont les changements étaient effectués, examinés et déployés. Dans Terraform CE, la gouvernance reposait fortement sur des processus manuels, et les avertissements ou erreurs pouvaient persister pendant des semaines.

Continuer à itérer : équilibrer vitesse et structure

L'évolution de Moneybox a suivi un schéma familier : construire rapidement pour répondre aux besoins immédiats, puis ajouter de la structure pour soutenir la croissance, puis avancer à nouveau. Terraform a été un enableur constant tout au long de ce cycle. Le passage à HCP Terraform leur a donné les outils pour maintenir cet équilibre.

Utilisation de GenAI pour rédiger des propositions de conférences

Les éléments d'une bonne proposition de conférence

Une bonne proposition de conférence doit inclure une idée claire et engageante, des détails concrets sur la conférence, un public clair et des retours clairs. Avec l'utilisation généralisée de GenAI pour générer des propositions de conférences, il est important de se démarquer.

Les indices de GenAI

Les propositions écrites par GenAI ont souvent des indices révélateurs tels qu'une utilisation excessive de tirets, des constructions répétées, des listes à puces et des phrases longues et denses. Plus que ces indices, les propositions de GenAI donnent une impression de lissage excessif et manquent souvent d'indication que l'auteur a une expérience réelle en technologie ou en tant qu'être humain.

Le processus de rédaction de propositions de conférences avec GenAI

Pour utiliser GenAI de manière efficace, il est important de l'utiliser de manière interactive et de l'utiliser plus comme un coéquipier qui peut aider à faire émerger une idée de conférence ou une idée d'histoire à partir de votre expérience vécue et de vos intérêts. Cela implique plusieurs étapes, notamment le brainstorming, la mise en forme de l'histoire, la rédaction de l'abstract, l'itération et la révision comme un réviseur.

Célébration des 100 Golden Kubestronauts

Qu'est-ce qu'un Golden Kubestronaut ?

Devenir un Golden Kubestronaut est le niveau de reconnaissance le plus élevé du programme. Cela nécessite de compléter toutes les certifications CNCF ainsi que la certification Linux Foundation Certified Sysadmin (LFCS). À partir du 15 octobre, la certification Certified Cloud Native Platform Engineering Associate (CNPA) sera également ajoutée à ce parcours.

Une communauté mondiale

L'un des aspects les plus inspirants de la communauté Golden Kubestronauts est sa portée mondiale. Avec plus de 100 badges Gold obtenus jusqu'à présent, nous voyons une représentation de chaque coin du monde. Cette diversité met en lumière non seulement l'adoption mondiale des technologies cloud native, mais aussi la force d'une communauté qui apprend, grandit et réussit ensemble, indépendamment de la géographie.

Une reconnaissance à vie

Il est important de souligner que une fois que vous avez obtenu le statut de Golden Kubestronaut, c'est pour la vie. Les plus de 100 membres de la communauté qui ont déjà atteint ce statut seront toujours reconnus pour leur accomplissement, même si de nouvelles certifications sont ajoutées plus tard.

Croissance collective

Tout comme nous avons célébré le dépassement de 2 000 badges Kubestronaut le mois dernier, atteindre 100 Golden Kubestronauts montre à quel point la communauté devient forte et engagée. Nous voyons de plus en plus de Kubestronauts s'impliquer localement, organiser des rencontres, partager leurs histoires et encourager les autres dans leur parcours d'apprentissage.

Unité de la communauté cloud native à KCD SF Bay Area

Une journée remplie de visionnaires de l'industrie

L'événement KCD SF Bay Area propose une incroyable liste de conférenciers et de visionnaires. Vous aurez l'occasion d'entendre directement certains des esprits les plus influents de l'espace cloud native. Parmi les conférenciers confirmés figurent Solomon Hykes, Jim Bugwadia, Ramiro Berrelleza, Marina Moore, Dan Garfield, Ron Petty, Ricardo Aravena et Jonathan Bryce.

Un moment spécial : Célébrer 10 ans du CNCF

Cette année marque un anniversaire spécial pour la communauté cloud native. Nous prendrons un moment pendant l'événement pour célébrer le 10e anniversaire de la Cloud Native Computing Foundation (CNCF). Le Computer History Museum revêt une signification unique pour nous, car c'est précisément l'endroit où le CNCF est né.

Ateliers pratiques et démonstrations

En plus des principales conférences, l'événement proposera des ateliers pratiques de certaines des principales entreprises de l'écosystème cloud native. Ces sessions vous donneront l'occasion de plonger en profondeur dans de nouveaux outils et technologies avec le guidage des experts qui les ont créés.

Organisé par vos groupes utilisateurs Cloud Native Bay Area

Cet événement est organisé par les leaders passionnés des groupes utilisateurs Cloud Native Bay Area : Lisa-Marie Namphy (Intuit), Rey Lejano (Red Hat), Jason Smith (Google) et Natalie Lunbeck (Shipyard). Leur vision est de créer un espace qui favorise la collaboration et renforce la communauté technologique locale.

Célébration des 100 jours de kagent

Accepté dans le CNCF en tant que projet sandbox

Ce qui a commencé comme un outil pour répondre à nos propres défis clients est devenu un projet open source en pleine croissance. Kagent est désormais un projet sandbox du CNCF et évolue vers un puissant framework d'IA agentique déclarative, permettant aux ingénieurs partageant les mêmes idées de faire fonctionner des agents IA dans Kubernetes, automatisant ainsi des opérations complexes et simplifiant les flux de travail de dépannage.

100 contributeurs et 1000+ étoiles GitHub

En seulement 100 jours, kagent a atteint deux incroyables jalons : 100 contributeurs, avec plus de 85 % en dehors de Solo.io, et 1000+ étoiles GitHub de notre incroyable communauté. Nous avons activement connecté avec les contributeurs via GitHub, Discord, les appels communautaires hebdomadaires, les diffusions en direct et les Contributor Spotlights.

Utilisateurs plaidant pour kagent

Au cours des 100 derniers jours, nous avons été impressionnés par la manière dont nos premiers adoptants utilisent kagent de manière créative et puissante, y compris dans des environnements de production. Partout sur les réseaux sociaux, les réunions communautaires et au-delà, les utilisateurs ne font pas que expérimenter, ils innovent.

Kagent voyage autour du monde

En seulement 100 jours, kagent a laissé sa marque sur la scène mondiale. Nous avons porté notre vision de l'IA agentique à certaines des conférences les plus prestigieuses au monde, partageant notre conviction que kagent est un élément de construction clé pour l'avenir de l'IA agentique.

Au-delà des opérations cloud native

Bien que kagent ait été conçu à l'origine pour relever des défis dans les opérations cloud native, nous avons été ravis de voir les utilisateurs l'appliquer bien au-delà de ce cadre. Grâce à son agent basé sur les connaissances, kagent peut être utilisé pour interagir avec et raisonner sur tout type de documentation, pas seulement les manifestes Kubernetes ou les journaux d'infrastructure.

Optimisation du swap Linux pour Kubernetes

Introduction au swap Linux

Au niveau le plus élevé, le noyau Linux gère la mémoire à travers des pages, généralement de 4 KiB de taille. Lorsque la mémoire physique devient contrainte, l'algorithme de remplacement de page du noyau décide quelles pages déplacer vers l'espace de swap. Bien que la logique exacte soit une optimisation sophistiquée, ce processus décisionnel est influencé par certains facteurs clés.

Paramètres clés du noyau pour l'optimisation du swap

Pour optimiser efficacement le comportement du swap, Linux fournit plusieurs paramètres de noyau qui peuvent être gérés via sysctl. Les principaux paramètres incluent vm.swappiness, vm.minfreekbytes et vm.watermarkscalefactor.

Tests et résultats de swap

Pour comprendre l'impact réel de ces paramètres, une série de tests de stress a été conçue. Les tests ont été réalisés sur des nœuds avec différentes configurations de swappiness (0, 60 et 90) et les paramètres minfreekbytes et watermarkscalefactor ont été variés pour observer les résultats sous une allocation mémoire et une pression I/O élevées.

Risques et recommandations

L'activation du swap dans Kubernetes est un outil puissant, mais elle comporte des risques qui doivent être gérés par une configuration minutieuse. Les principaux risques incluent la dégradation des performances, le masquage des fuites de mémoire et la désactivation des évictions.

Contexte Kubernetes

Ensemble, les watermarks du noyau et le seuil d'éviction de kubelet créent une série de zones de pression mémoire sur un nœud. Les paramètres de seuil d'éviction doivent être ajustés pour configurer les évictions gérées par Kubernetes avant les kills OOM.

Point de départ recommandé

Sur la base de ces découvertes, il est recommandé de commencer avec vm.swappiness=60, vm.minfreekbytes=500000 (500MB) et vm.watermarkscalefactor=2000 pour les nœuds Linux avec swap activé. Il est encouragé de réaliser des tests de référence avec vos propres charges de travail dans des environnements de test lors de la première configuration du swap dans votre cluster Kubernetes.

Source

Découvre d'autres articles sur ce sujet

Image d'illustration de l'article

Les 10 questions clés pour concevoir un environnement cloud sécurisé

Image d'illustration de l'article

Mastering Infrastructure as Code: Key Trends and Best Practices in Hybrid Cloud, Terraform, and Kubernetes

Image d'illustration de l'article

Les tendances et innovations de l'infrastructure as code en 2024 : Terraform, AWS, Azure, GitOps et plus