Bienvenue dans cette revue hebdomadaire du Cloud et de l’Infrastructure as Code (IaC) !
haque semaine, nous décryptons les actualités, tendances et innovations majeures qui façonnent l’univers du cloud computing. À travers une sélection de sources fiables et spécialisées : blogs techniques, forums d’experts, réseaux sociaux et publications officielles nous vous proposons un résumé clair et structuré pour rester informé.
Avertissement : Contenu généré par IA avec MistralIA
Cet article a été généré automatiquement à l'aide d'une intelligence artificielle. Bien que nous nous efforcions d'assurer l'exactitude des informations, des erreurs ou imprécisions peuvent subsister.Si vous constatez une erreur ou souhaitez signaler un problème, n'hésitez pas à me contacter :
Email : pro@sarquentin.fr
LinkedIn : Quentin Sar
Le résumé de la semaine
Cette semaine, l'écosystème cloud native a été marqué par plusieurs annonces majeures et évolutions significatives. La Cloud Native Computing Foundation (CNCF) a joué un rôle central dans ces développements, avec l'annonce de nouvelles certifications, l'intégration de nouveaux projets incubateurs, et des rapports sur l'adoption croissante des technologies cloud native. Les projets comme KServe, Lima, et OpenFGA ont été acceptés en tant que projets incubateurs, marquant une étape importante dans leur développement et leur adoption par la communauté. De plus, la CNCF a lancé le programme Certified Kubernetes AI Conformance, visant à standardiser les charges de travail d'IA sur Kubernetes, répondant ainsi aux besoins croissants des entreprises en matière de portabilité et de fiabilité des infrastructures d'IA. Les rapports de SlashData et CNCF ont également révélé une adoption massive des technologies cloud native, avec 15,6 millions de développeurs utilisant ces outils, et une croissance significative dans les domaines de l'IA et du machine learning. Ces annonces soulignent l'importance croissante des technologies cloud native dans la modernisation des infrastructures informatiques et la gestion des charges de travail complexes, tout en mettant en lumière les efforts continus de la communauté pour améliorer la sécurité, la scalabilité et l'interopérabilité des solutions cloud native.
Les projets incubateurs de la CNCF
La CNCF a annoncé l'acceptation de plusieurs nouveaux projets incubateurs, marquant une étape importante dans leur développement et leur adoption par la communauté cloud native. Parmi ces projets, KServe, Lima, et OpenFGA se distinguent par leur potentiel à résoudre des défis critiques dans les environnements cloud native.
KServe : une plateforme unifiée pour l'inférence AI
KServe est une plateforme distribuée pour l'inférence prédictive et générative d'IA, conçue pour le déploiement à grande échelle sur Kubernetes. Ce projet, initialement développé en collaboration par plusieurs grandes entreprises technologiques, a été accepté comme projet incubateur par la CNCF. KServe vise à simplifier le déploiement de modèles d'IA en fournissant une plateforme unifiée qui prend en charge plusieurs frameworks d'IA, tout en offrant des fonctionnalités avancées pour les charges de travail d'entreprise. Son adoption croissante par des organisations de divers secteurs témoigne de son efficacité et de sa capacité à répondre aux besoins complexes des environnements cloud native.
Lima : des environnements isolés pour les charges de travail cloud native et AI
Lima, initialement conçu pour démontrer les capacités de containerd, a évolué pour devenir un outil essentiel pour la création d'environnements virtuels sécurisés et isolés. Lima permet aux développeurs de lancer des machines virtuelles Linux optimisées pour l'exécution de conteneurs, facilitant ainsi le développement local et les tests. Le projet a été accepté comme incubateur par la CNCF en septembre 2022 et continue de croître en popularité, notamment pour son utilisation dans le sandboxing des agents d'IA. Lima est particulièrement utile pour les développeurs qui souhaitent isoler leurs environnements de développement, réduire les risques de sécurité, et améliorer la reproductibilité de leurs configurations.
OpenFGA : une solution d'autorisation pour les applications modernes
OpenFGA est un moteur d'autorisation qui simplifie la mise en œuvre de contrôles d'accès complexes dans les applications modernes. Inspiré par le système d'accès global de Google, Zanzibar, OpenFGA utilise le contrôle d'accès basé sur les relations (ReBAC) pour permettre aux développeurs de définir des permissions basées sur les relations entre les utilisateurs et les objets. Ce projet, développé par des employés d'Okta, a été accepté comme incubateur par la CNCF en septembre 2022. OpenFGA offre une solution centralisée et abstraite pour la logique d'autorisation, améliorant ainsi la vitesse de développement et la cohérence des règles d'accès à travers les services.
La standardisation des charges de travail d'IA sur Kubernetes
La Cloud Native Computing Foundation (CNCF) a lancé le programme Certified Kubernetes AI Conformance, une initiative visant à créer des normes ouvertes et définies par la communauté pour l'exécution des charges de travail d'IA sur Kubernetes. Cette initiative répond à la nécessité croissante de portabilité et de fiabilité des infrastructures d'IA, alors que de plus en plus d'organisations déplacent leurs charges de travail d'IA en production.
Les défis de l'adoption de l'IA en production
L'adoption de l'IA en production présente plusieurs défis, notamment la nécessité de disposer d'infrastructures cohérentes et interopérables. Les organisations doivent pouvoir déployer leurs modèles d'IA de manière fiable et prévisible, indépendamment de l'environnement de cloud ou de l'infrastructure sous-jacente. Le programme Certified Kubernetes AI Conformance vise à répondre à ces défis en définissant un ensemble minimal de capacités et de configurations requises pour exécuter les frameworks d'IA et de machine learning largement utilisés sur Kubernetes.
Le rôle de la communauté dans la définition des normes
Le programme Certified Kubernetes AI Conformance est développé de manière ouverte pour encourager une participation plus large. La communauté joue un rôle central dans la définition des normes et la validation des conformités, garantissant ainsi que les solutions proposées répondent aux besoins réels des utilisateurs. Cette approche communautaire est essentielle pour assurer l'adoption et l'évolution continue des normes, en s'appuyant sur les retours d'expérience et les meilleures pratiques partagées par les utilisateurs et les contributeurs.
Les avantages pour les entreprises et les fournisseurs de plateformes
Pour les entreprises, le programme Certified Kubernetes AI Conformance offre une garantie de fiabilité et de cohérence dans le déploiement des charges de travail d'IA. Les organisations peuvent avoir confiance dans le fait que leurs infrastructures d'IA sont conformes aux normes définies par la communauté, réduisant ainsi les risques de fragmentation et d'incompatibilité. Pour les fournisseurs de plateformes, ce programme fournit un cadre commun pour assurer la compatibilité de leurs solutions avec les exigences des charges de travail d'IA, facilitant ainsi l'adoption de leurs produits par les entreprises.
L'adoption croissante des technologies cloud native
Les rapports récents de la Cloud Native Computing Foundation (CNCF) et de SlashData révèlent une adoption massive des technologies cloud native, avec 15,6 millions de développeurs utilisant ces outils à travers le monde. Cette croissance significative reflète l'importance croissante des technologies cloud native dans la modernisation des infrastructures informatiques et la gestion des charges de travail complexes.
Les domaines d'adoption
Les technologies cloud native sont adoptées dans divers domaines, notamment le backend, les opérations DevOps, et les charges de travail d'IA et de machine learning. Les développeurs backend et les professionnels DevOps sont en première ligne de cette adoption, avec 58% d'entre eux utilisant au moins une technologie cloud native. Les technologies de base comme les passerelles API et les microservices restent dominantes, tandis que des pratiques plus sophistiquées comme l'observabilité, Kubernetes, le chaos engineering, et l'infrastructure immuable montrent une adoption plus progressive.
Les stratégies d'infrastructure évolutives
Les stratégies d'infrastructure évoluent également pour répondre aux besoins changeants des organisations. L'utilisation de l'informatique en nuage hybride a augmenté pour atteindre 32% parmi tous les développeurs, tandis que les déploiements multi-cloud ont atteint 26%. L'informatique en nuage distribué émerge également, avec 15% des développeurs backend l'utilisant pour exécuter des charges de travail plus proches des utilisateurs et des sources de données. Ces tendances reflètent une priorité croissante pour les entreprises de construire des systèmes résilients et globalement distribués, capables de supporter des charges de travail intensives en données et en AI, tout en maintenant l'agilité réglementaire.
L'intersection de l'IA et des technologies cloud native
L'intersection de l'IA et des technologies cloud native représente une frontière de croissance pour l'écosystème. Bien que seulement 41% des développeurs d'IA professionnels s'identifient comme cloud native, leurs charges de travail dépendent largement de ces technologies au quotidien. À mesure que la ligne entre la science des données et l'infrastructure s'estompe, on s'attend à une convergence plus grande où les principes cloud native sous-tendent l'échelle et la portabilité que le développement de l'IA exige. Cette convergence présente une opportunité pour les projets CNCF et l'éducation communautaire de façonner l'avenir de l'infrastructure d'IA.
Les nouvelles certifications de la CNCF
La Cloud Native Computing Foundation (CNCF) a annoncé le lancement de nouvelles certifications pour répondre à la demande croissante de compétences en cloud native. Ces certifications visent à valider les compétences avancées et à fournir une voie claire pour les professionnels cherchant à progresser dans leurs carrières.
La certification Certified Cloud Native Platform Engineer (CNPE)
La certification Certified Cloud Native Platform Engineer (CNPE) est conçue pour valider l'expertise avancée dans l'architecture et l'exploitation de plateformes internes de développement (IDPs) à grande échelle. Développée en collaboration avec Linux Foundation Training & Certification, la CNPE certifie la compétence dans des domaines clés tels que l'architecture de plateforme, GitOps, l'observabilité, la sécurité, et l'expérience développeur. Cette certification est un examen de performance de 120 minutes qui couvre cinq domaines principaux : l'architecture de plateforme et l'infrastructure (15%), GitOps et la livraison continue (25%), les API de plateforme et les capacités d'auto-service (25%), l'observabilité et les opérations (20%), et la sécurité et l'application des politiques (15%).
La certification Certified Kubernetes Network Engineer (CKNE)
La CNCF a également annoncé la prochaine certification Certified Kubernetes Network Engineer (CKNE), un examen de niveau intermédiaire pour le réseautage de Kubernetes et des plateformes cloud native. Cette certification pratique vise à valider les compétences en réseautage dans les environnements Kubernetes, en s'appuyant sur les meilleures pratiques de la communauté sans verrouillage de fournisseur. La certification CKNE est conçue pour répondre à la demande croissante de compétences en réseautage dans les environnements cloud native, offrant une voie claire pour les professionnels cherchant à se spécialiser dans ce domaine.
Le programme Kubestronaut
Le programme Kubestronaut, lancé en 2024, a reconnu plus de 2 500 participants à travers plus de 100 pays, soulignant la demande mondiale pour l'expertise cloud native. Les Golden Kubestronauts, ceux qui ont obtenu toutes les certifications CNCF ainsi que la certification Linux Foundation Certified System Administrator (LFCS), démontrent une maîtrise opérationnelle approfondie de l'écosystème cloud native. Le programme Kubestronaut continue de jouer un rôle central dans la stratégie de la CNCF pour construire une main-d'œuvre cloud native compétente, inclusive et mondialement connectée.
Les intégrations et innovations de Falco
Falco, un projet gradué de la CNCF, a annoncé de nouvelles intégrations avec Stratoshark, un outil de forensic inspiré de Wireshark. Ces intégrations permettent de connecter les alertes de Falco à des outils d'analyse de niveau forensic, offrant ainsi une visibilité en temps réel et une analyse approfondie des événements de sécurité.
La connexion entre la détection en temps réel et l'analyse forensic
Les équipes de sécurité et de plateforme ont longtemps été confrontées à des défis pour combiner la détection des menaces en temps réel avec la visibilité forensic détaillée nécessaire pour une réponse efficace aux incidents. Historiquement, les analystes de sécurité et les répondants aux incidents devaient utiliser des outils séparés pour capturer manuellement l'activité complète des appels système, produisant de grandes quantités de données non filtrées qui ralentissaient souvent les investigations et compliquaient la résolution des incidents. Falco Captures permet d'enregistrer des événements à la demande, activant des alertes lorsqu'une règle de sécurité est déclenchée. Chaque alerte déclenchée est accompagnée d'une traînée enregistrée d'appels système, prête pour une replay et une inspection immédiates, équipant ainsi les analystes de sécurité d'informations précises et exploitables.
Les avantages pour les équipes de sécurité
Les nouvelles capacités de Falco Captures et les améliorations de l'API de plugin aident les équipes à travers les environnements on-premise, multi-cloud et hybrides à répondre aux incidents de manière plus efficace. Les fichiers SCAP (System CAPture) ne sont générés que lorsque des règles Falco spécifiques sont déclenchées, réduisant ainsi les données inutiles et concentrant l'analyse sur les événements pertinents. Ces intégrations permettent aux équipes de sécurité de passer rapidement de la détection à l'investigation, sans introduire de complexité inutile.
La démonstration des nouvelles fonctionnalités
Les nouvelles fonctionnalités de Falco seront démontrées en direct lors de la KubeCon + CloudNativeCon North America 2025 à Atlanta. Les utilisateurs pourront voir comment Falco Captures et Stratoshark fonctionnent ensemble pour fournir une visibilité byte-level précise, permettant aux équipes de voir exactement ce qui s'est passé, où et quand. Cette intégration renforce la position de Falco en tant qu'outil essentiel pour la détection des menaces en temps réel et l'analyse forensic dans les environnements cloud native.
Le retrait d'Ingress NGINX
La Kubernetes SIG Network et le Comité de réponse à la sécurité ont annoncé le retrait progressif d'Ingress NGINX, un contrôleur d'ingress largement utilisé dans les clusters Kubernetes. Cette décision a été prise pour prioriser la sécurité et la maintenance durable de l'écosystème, en réponse aux défis de maintenance et aux attentes changeantes concernant le logiciel cloud native.
L'historique et les défis d'Ingress NGINX
Ingress NGINX a été développé tôt dans l'histoire du projet Kubernetes en tant qu'implémentation exemple de l'API Ingress. Il est devenu très populaire en raison de sa flexibilité, de sa large gamme de fonctionnalités et de son indépendance vis-à-vis des fournisseurs de cloud ou d'infrastructure particuliers. Cependant, la largeur et la flexibilité d'Ingress NGINX ont posé des défis de maintenance. Ce qui était autrefois considéré comme des options utiles est parfois devenu des failles de sécurité sérieuses, comme la possibilité d'ajouter des directives de configuration NGINX arbitraires via les annotations "snippets". La flexibilité d'hier est devenue la dette technique insurmontable d'aujourd'hui.
Les étapes suivantes pour les utilisateurs
En mars 2026, la maintenance d'Ingress NGINX sera arrêtée et le projet sera retiré. Après cette date, il n'y aura plus de nouvelles versions, de correctifs de bugs, ni de mises à jour pour résoudre les vulnérabilités de sécurité qui pourraient être découvertes. Les dépôts GitHub seront mis en lecture seule et laissés disponibles à des fins de référence. Les utilisateurs sont encouragés à migrer vers Gateway API, le remplacement moderne d'Ingress, ou vers un autre contrôleur d'ingress. De nombreuses alternatives sont listées dans la documentation Kubernetes, offrant des solutions adaptées à différents besoins et cas d'utilisation.
Sources
- Building resilient infrastructure in regulated environments: 7 Lessons from IG Group’s journey
- KubeCon: A Terraform Killer Built on Apple’s Pkl
- Helm Marks 10 Years With Release of Version 4
- CNCF Honors Innovators and Defenders with 2025 Community Awards at KubeCon + CloudNativeCon North America
- CNCF and SlashData Report Finds Leading AI Tools Gaining Adoption in Cloud Native Ecosystems
- KServe becomes a CNCF incubating project
- Lima becomes a CNCF incubating project
- OpenFGA Becomes a CNCF Incubating Project
- CNCF and SlashData Survey Finds Cloud Native Ecosystem Surges to 15.6M Developers
- CNCF Launches CNPE Certification to Define Enterprise-Scale Platform Engineering Globally
- CNCF Launches Certified Kubernetes AI Conformance Program to Standardize AI Workloads on Kubernetes
- Falco Links Real-Time Detection with Forensic-Level Analysis in the Cloud Native Stack
- Ingress NGINX Retirement: What You Need to Know


